发表时间:2025-01-28 15:23:34 浏览:27
“预训练”是AI大模型学习中的一种方法,指的是通过海量的数据,训练一个大模型。训练时需要大量的数据和算力支持,每次迭代可能耗资数百万至数亿美元。

官方技术论文披露,DeepSeek-V3在预训练阶段仅使用2048块GPU训练了2个月,且只花费557.6万美元。这个费用是什么概念?
据报道,GPT-4o的模型训练成本约为1亿美元。简单粗暴地说,这相当于DeepSeek-V3比同等性能的AI大模型,降了十几倍的成本。
早在2024年5月,深度求索发布DeepSeek-V2时,就曾因给模型的定价太过于便宜,开启了中国大模型的价格战,被称之为“AI界的拼多多”。

“相比于说它是‘拼多多’,它更像小米,贴近成本定价,并且自产自销。”马千里认为,训练成本比较低的原因,离不开深度求索团队自研的架构和算力,他们自身的算力储备可以与大厂比肩,并且更注重底层的模型。
“ChatGPT走的是大参数、大算力、大投入的路子,DeepSeek-V3的路径用了更多的巧思,依托数据与算法层面的优化创新,从而高效利用算力,实现较好的模型效果。”马千里说道。
H4cker:本来希望调到明天下午三点,但某一方管理层不同意
Doran:Zeus和Kiin的共同点是对线强,每次打他们都很困难
WE赛后群访Monki:我们更团结了大家更像是一体的脱节情况少了
FPX粉丝怒斥银河:顶级打野带队直冲次级联赛然后拍拍屁股自己去登峰
Vampire:今天我们减少了很多小失误减少中期失误葬送掉比赛
余霜发布成都世运会Vlog:第一次主持国际转播遇上了电竞老乡!