首页 健康生活文章正文

奥尔特曼评DeepSeek:有才华却不高效?低成本破局藏着AI新赛道?

健康生活 2025年07月24日 04:39 1 admin

IT之家7月21日消息,年初靠R1模型火出圈的中国AI初创公司DeepSeek,最近被OpenAI CEO奥尔特曼点名了。在彭博社采访里,奥尔特曼说这团队“很有才华”,但话锋一转:“没找到比我们更高效的方法。”这话听着客气,却戳中了一个有意思的点——DeepSeek的R1在数学、编程这些硬骨头领域,明明跑赢了OpenAI的模型,开发成本还低得离谱,怎么就“不高效”了?

奥尔特曼评DeepSeek:有才华却不高效?低成本破局藏着AI新赛道?

先琢磨下“高效”这词儿。奥尔特曼说的高效,大概率是指OpenAI那条“通用大模型”的路子——砸千亿参数、喂全网数据,追求能写代码、会写诗、还能帮人订机票的全能性。

这种“大而全”的模式,成本像坐火箭,训练一次GPT-4的电费就够买几十辆特斯拉。

但DeepSeek反着来,R1就盯着数学、科学这些垂直领域使劲,数据只挑专业论文、竞赛题库,参数规模还不到GPT-4的十分之一。

结果呢?在ACM编程竞赛题里,R1的正确率比GPT-4高8个百分点,训练成本却砍到了后者的1/20。

奥尔特曼评DeepSeek:有才华却不高效?低成本破局藏着AI新赛道?

这就像两家餐馆,OpenAI在做满汉全席,啥菜都有但备菜成本高;DeepSeek专攻几道招牌菜,用料精、上桌快,客人吃得还挺满意。你说谁更“高效”?

在硅谷那边,可能觉得满汉全席才是正道,毕竟能招待更多客人;但对用户来说,要是就想吃那几道菜,何必为一桌子菜买单?国内某大厂AI负责人私下聊过,他们测R1时发现,这模型解微分方程的步骤比GPT-4少30%,“像个专啃难题的学霸,不搞花架子”。

奥尔特曼的话,或许藏着对“技术正统性”的坚持。OpenAI走的是“通用智能”的老路,从GPT-3到GPT-4,一路往“接近人类认知”冲,这种路径需要海量数据和算力堆出来,确实够“高效”——高效地把技术边界往前推。

奥尔特曼评DeepSeek:有才华却不高效?低成本破局藏着AI新赛道?

但DeepSeek的玩法不一样,它像在通用大模型的缝隙里凿坑,专挑那些行业里“必须精准”的场景发力。

比如给工程师写芯片设计代码,R1出错率比通用模型低一半,这种“小而专”的高效,在奥尔特曼眼里可能不算数,可企业用户认啊,某芯片设计公司用R1后,工程师写代码效率提了40%,这可是真金白银的价值。

奥尔特曼评DeepSeek:有才华却不高效?低成本破局藏着AI新赛道?

成本账更耐人寻味。DeepSeek能把成本压下来,不是偷工减料。业内人扒过,他们用的训练数据里,80%是经过专家标注的“高质量题集”,不像通用模型啥数据都往嘴里塞。

就像做豆腐,通用模型是用一大缸豆浆做一块大豆腐,DeepSeek是用一小盆浓豆浆做块嫩豆腐,损耗少、见效快。

这种“精准投喂”的思路,在AI算力越来越贵的当下,其实暗合了不少中小公司的需求——与其追千亿参数的时髦,不如把钱花在刀刃上,先解决某个领域的真问题。

但奥尔特曼的提醒也不是没道理。垂直领域挖得再深,天花板也明显。R1在写诗、聊天这些“软技能”上,确实不如GPT-4灵活,就像专攻奥数的学生,让他写篇散文可能差点意思。而OpenAI的通用模型,哪怕在某些领域精度稍逊,却能适应更多场景,这种“广谱性”带来的用户基数,是商业上的另一种“高效”。

现在AI圈其实分成了两派,一派像OpenAI这样往“全能选手”冲,一派像DeepSeek这样当“单项冠军”。

有意思的是,国内不少团队正在往后者靠,比如专注法律文书的模型、专攻工业设计的AI,成本都压得很低,用户付费意愿反而比通用模型高。这算不算另一种“高效”?


当AI圈争论“高效”的定义时,你觉得垂直领域的低成本突破,能动摇通用大模型的统治地位吗?对普通人来说,是“啥都会但不精”的AI更有用,还是“某方面特别强”的AI更实在?

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动