新浪微博近日推出首个开源大语言模型VibeThinker-1.5B,仅15亿参数规模却实现远超预期的智能表现。该模型在AIME24、AIME25及HMMT25数学测试中超越参数量达其400倍的DeepSeek-R1版本,性能接近456B规模的MiniMax-M1;在编程算法测试LiveCodeBench v6中,亦能媲美数十倍参数的国际先进模型。其突破源于创新的“频谱到信号原理”(SSP)训练方法,通过先发散探索再强化优化的策略显著提升效率,单次后训练成本不足8000美元,远低于同类模型数十倍。此举为资源有限的中小企业与科研机构提供高性价比技术路径,推动AI民主化进程。