|
|
|
|
2025-02-24 第03版:三版
| 【字体】 | 大 | | 默认 | | 小 |
|
|
将DeepSeek“小力出奇迹”的精神发扬光大 |
|
作者:
■李富永 来源:中华工商时报 字数:1250 |
|
|
|
|
|
|
中美两国在人工智能领域的竞争一浪高过一浪。就在中国的人工智能大模型DeepSeek问世不到一个月之际,一个打擂台的对手出现了。 北京时间18日12点,马斯克旗下人工智能公司xAI正式发布新一代人工智能大模型Grok3。马斯克表示“Grok3将是地球上最聪明的人工智能”“Grok3有极强的推理能力,在我们迄今为止所做的测试中,其表现优于我们所知的任何已发布产品。” 的确,根据报道,在对该产品进行的benchmark测试中,Grok3在数学、科学逻辑推理、代码写作方面,取得了比Gemini-2pro、GPT-4o以及DeepSeek-V3更优的效果。在这场技术盛宴中,马斯克罕见地站在旁边,被业内人士调侃为“点头机器”。而坐在C位的华人科学家引发关注,其中一位是多伦多大学计算机科学助理教授Jimmy Ba,另一位是xAI联合创始人吴宇怀(Yuhuai Wu)。 更关键的是,这并不能推翻由DeepSeek所开启的“小力出奇迹”的人工智能发展路径,DeepSeek的横空出世和风靡全球给中国高科技产业带来的深刻启示,并不会因此丝毫褪色。 为什么这样说呢?因为两者走的是完全不同的发展路径,与DeepSeek投入少但产出高的特长相反,Grok3依然是美国大量堆积高性能算力、大量投入资金、大量消耗电力等资源的“大力出奇迹”模式的产物。 据报道,为了让Grok3更加聪明,xAI团队在进行训练时用到了更多的计算资源,竟然使用了20万张最先进的英伟达显卡,训练规模是Grok2的10倍,约为2亿GPU小时,比此前Grok2训练规模增加了10倍。这样堆山填海,中国的DeepSeek哪能比得上?DeepSeek仅仅使用了二千多张低配版英伟达芯片,训练成本仅仅280万GPU小时。但获得的性能却数十倍于美国最先进的大模型。从投入与产出比例上看,DeepSeek无与伦比。 可见,尽管Grok3在性能上走到了中美竞争者长长队伍的前列,但其开发模式依然是原有势能的延续,是高性能芯片等资源堆积如山的结果。这还不说它性能测试结果也只是高出三四成而已,并不是几何倍级的突破。 相比Grok3而言,DeepSeek不会这样豪华和奢侈,由DeepSeek独创的少花钱办大事的“小力出奇迹”发展路径,依然是中国人工智能等高科技产业乃至整个经济产业的探索方向。Grok3虽然性能更高,值得祝贺,但我们自己要立足国情独辟蹊径地探索符合中国社会和市场需要的技术和产品。要从DeepSeek成功经验中举一反三、触类旁通。 当然,赞美DeepSeek节约算力资源,并不是要降低对芯片技术攻关的努力。大模型可以用更少的芯片研究出来,但其应用链条的各个环节仍然需要大量芯片使用,全国、全世界各个产业各个领域总体上对芯片的需求依然水涨船高,解决芯片“卡脖子”的任务并未减轻。但话说回来,即便是算力资源丰富了,也依然需要发扬DeepSeek的“小力出奇迹”的做法。
|
|
|
|
|
|
|