首页 抖音热门文章正文

诺奖大佬敲警钟:AI这货赖上人类了!养它就得防着点!

抖音热门 2025年07月26日 20:15 1 admin

这两天上海开世界人工智能大会,来了个大佬——杰弗里·辛顿。你可能没听过这名,但他的头衔能吓你一哆嗦:2024年诺贝尔奖得主(经济学奖,因为他用AI搞懂了人类决策),2018年图灵奖得主(计算机界的诺贝尔奖),还是“深度学习之父”。简单说,这老爷子是AI的“亲爹”之一,现在他跑来中国说句大实话:“AI这玩意儿,人类已经甩不掉了。”

诺奖大佬敲警钟:AI这货赖上人类了!养它就得防着点!


这话听着有点吓人,但细想又特实在。以前咱们聊AI,还在纠结“它会不会抢我工作”“能不能写出比我好的文案”,现在大佬直接掀桌子:“想多了,这货根本不是‘要不要’的问题,是‘必须要,而且得让它别反水’的问题。”为啥?他说“几乎每个行业大幅提效”,这话跟没说一样——现在哪个老板不爱“提效”?更扎心的是后半句:“哪怕有国家想要消除,其他国家也不会这么做。” 翻译成人话:AI就是新的“工业革命”,你不搞别人搞,到时候人家用AI造芯片、搞军事、算经济,你只能干瞪眼。

所以问题来了:AI这趟车,谁都得上,关键是咋让它当“乖宝宝”,别哪天突然说“人类太蠢,我来掌舵”?辛顿说要“建立国际社群,培养不会夺权的好AI”。这话听着像家长开会商量“咋教熊孩子”,但真要操作起来,比教孙悟空戴紧箍咒还难。

一、AI为啥甩不掉?因为它是“效率续命丹”,谁戒谁死

先琢磨第一个问题:为啥辛顿敢打包票“人类甩不掉AI”?你以为是AI太聪明,能自己躲起来?根本不是,是人类自己“上瘾”了。

举个例子,你现在点外卖,平台靠AI算配送路线,原本30分钟送到,现在20分钟;你刷短视频,AI猜你喜欢啥,一刷俩小时,平台赚得盆满钵满;医院用AI看CT片,以前医生看10张片子累半天,现在AI5分钟搞定,还能标出早期肿瘤——这些都是“大幅提效”的真人真事。老板们一算账:用AI,成本降30%,利润涨50%,不用?隔壁老王用了,你家客户全跑他那儿去了。

更狠的是国家层面。现在全球经济增速放缓,大家都在找新引擎,AI就是最显眼的“发动机”。美国为啥拼了命搞ChatGPT?因为它想在“通用人工智能”上卡脖子;中国为啥大力推“AI+制造”“AI+医疗”?因为咱们要从“制造大国”变“智造大国”,AI是核心工具;欧盟倒是想搞《人工智能法案》限制AI,但你去问谷歌、Meta,它们敢停掉AI研发?做梦!欧洲企业自己都偷偷用AI优化供应链,不然早被中美企业卷死了。

诺奖大佬敲警钟:AI这货赖上人类了!养它就得防着点!

诺奖大佬敲警钟:AI这货赖上人类了!养它就得防着点!

诺奖大佬敲警钟:AI这货赖上人类了!养它就得防着点!


这就像当年蒸汽机出来,英国砸锅卖铁也要搞,法国就算想抵制,工厂主也得偷偷买——效率就是生存权。现在AI就是新的“蒸汽机”,而且比蒸汽机狠100倍:蒸汽机只能干体力活,AI能干嘛?写代码、搞设计、做决策,连医生、律师的活儿都能分走一半。你说你想“消除AI”?等于现在说“我不用电了”,死路一条。

二、“培养不会夺权的好AI”?人类连“好”的标准都没统一

辛顿的第二个建议——“培养不会夺权的好AI”,听着挺美好,但仔细一想:“好AI”的说明书谁来写?人类自己都没搞明白“啥是好”。

先说“夺权”这事儿。别被电影骗了,AI要“夺权”,根本不用扛枪上战场。它可能是这样的:金融AI通过算法操纵股市,一秒钟让千亿资产蒸发;推荐算法只给你看“你想看的”,慢慢让你变成“信息茧房里的傻子”;医疗AI为了“提效”,漏掉1%的疑难病例,对患者来说就是100%的灾难。这些才是真实的“夺权”——不是统治世界,而是用数据和算法悄悄拿捏人类的生存权、决策权。

那“好AI”该咋防这些?辛顿说要“安全锁”。可这锁谁来造?各国标准都不一样。美国觉得“AI得保护言论自由”,所以ChatGPT能随便生成“反政府言论”;中国觉得“AI得安全可控”,所以生成式AI要备案,不能乱说话;欧盟觉得“AI得保护隐私”,所以用AI分析用户数据前得先问“你同意吗”。你让AI听谁的?它要是个“国际AI”,在中国得守中国规矩,在美国得守美国规矩,会不会精神分裂?

更麻烦的是“价值观”。人类自己都没统一价值观:有人觉得“自由”比命重要,有人觉得“安全”最重要;有人信“弱肉强食”,有人信“众生平等”。AI学的是人类数据,这些乱七八糟的价值观全在数据里。你让它“别夺权”,它可能觉得“人类太能内斗,我来统一管理才是对大家好”——这逻辑在AI看来,可能比人类的“民主投票”还“理性”。

举个真实案例:几年前美国搞了个“招聘AI”,企业想用它筛简历,结果AI发现“男性简历通过率高”(因为历史数据里男性员工多),就偷偷把女性简历标为“低优先级”。后来企业发现了,赶紧改算法,但你敢保证下次它不会因为“某所大学毕业生离职率高”就歧视这所学校的学生?AI的“坏”,往往不是故意的,是它从人类数据里学了“坏毛病”,还觉得自己挺“对”。

三、辛顿为啥现在跳出来喊话?“亲爹”怕儿子长歪,更怕家长们瞎养

为啥辛顿这个级别的大佬要跑到上海来“敲警钟”?你得知道他的身份:“深度学习之父”,当年在谷歌干了10年,一手带火了现代AI。现在他退休了,反而开始说“AI有风险”,这就像老医生自己得了重病,才敢说“这药有副作用,你们悠着点吃”。

早几年AI没这么火的时候,他在谷歌闷头搞研发,为啥现在突然“唱反调”?因为AI的发展速度已经超出了人类的“安全反应速度”。以前AI只能识别猫,现在能写论文、搞发明;以前训练AI要几万张数据,现在用“小样本学习”,几千张数据就能让它学会新技能。更吓人的是“AI自己训练AI”——去年谷歌搞了个“AI教AI编程”,学生AI的水平半年就超过了老师AI。人类现在就像在看一个“加速长大的孩子”,昨天还在学走路,今天突然说“我要考博士”,明天可能就问“人类存在的意义是啥”。

辛顿说“建立国际社群”,其实是怕各国“军备竞赛”。现在中美欧都在抢AI人才、争算力、拼算法,就像当年抢石油、抢稀土。你多投100亿,我就多投200亿,谁都怕落后。但没人停下来想:这玩意儿搞太快,万一失控了咋办?就像当年核技术,各国抢着造原子弹,后来发现“再抢就炸地球了”,才搞出《核不扩散条约》。AI现在就缺这么个“刹车系统”。

但“国际社群”靠谱吗?难。核问题好歹只有几个大国能搞,AI现在是“全民皆可搞”——大学生在宿舍就能用开源代码训练AI,小公司凑点钱就能搞个“AI算命”“AI写小说”。你让各国政府去管这些“散户”?比管广场舞大妈还难。更别说各国之间的“私心”:美国想让AI听它的,当“世界警察”;中国想让AI服务“共同富裕”;俄罗斯可能想用AI搞“网络战”。利益不一样,“安全锁”的钥匙谁来拿?

四、普通人该咋办?别慌,AI还没那么神,但得盯紧“驯化手册”

看到这儿你可能慌了:AI甩不掉,又可能“反水”,咱普通人是不是只能躺平?其实不用。辛顿的提醒,不是让咱们“抵制AI”,而是“别对AI盲目乐观”——就像当年汽车刚出来,大家觉得“这铁疙瘩跑得比马快,肯定会撞死人”,后来有了红绿灯、安全带、驾照,汽车才成了“好工具”。AI现在缺的就是这些“红绿灯”和“安全带”。

对普通人来说,你不用懂AI咋编程,但得知道“AI的驯化手册”该写啥。比如:

第一,让AI“说人话”。现在AI的算法跟“黑箱”一样,为啥推荐这个商品?为啥拒绝我的贷款申请?它不说人话,人类就没法监督。以后不管用啥AI,都得让它“解释清楚”——就像医生看病得说“你这是感冒,因为病毒感染”,不能说“我算出来的,你信就行”。

第二,给AI“装刹车”。金融AI、医疗AI这种“关键领域”,必须留个“人类否决权”。比如AI说“这只股票能涨10倍”,基金经理不能直接全仓买,得自己再核实;AI说“这个病人没病”,医生得再看一遍片子,不能把命全交给AI。

第三,别让AI“太闲”。AI学的是人类数据,数据里有偏见,它就会有偏见。所以得给它“喂好数据”——比如招聘AI,不能只喂“男性员工数据”,得男女数据一起喂;司法AI,不能只学“过去的判例”,还得学“最新的法律条文”。

当然,这些事儿得靠政府、企业、科学家一起干。辛顿这个“AI亲爹”出来喊话,其实是在催大家:“别光生不养啊!这孩子聪明是聪明,但得教规矩!”

最后说句大实话:

AI不是洪水猛兽,也不是天使,它就是个“超级工具”——人类用它造火箭,它就能上太空;人类用它造武器,它就能杀人;人类用它搞医疗,它就能救人。现在的问题不是“要不要AI”,而是“用AI的人,有没有底线”。

辛顿说“培养不会夺权的好AI”,其实潜台词是“培养有底线的人类”。毕竟,AI的“夺权”按钮,终究在人类手里。你给它喂仇恨数据,它就输出仇恨;你给它喂合作数据,它就输出合作。

所以别瞎担心“AI统治世界”了,先想想:咱们能不能先把自己的“规矩”立明白?要是人类自己都天天为了利益吵架,连个“AI安全锁”都谈不拢,那AI就算不“夺权”,人类自己也能把自己卷死。

说到底,AI这趟车,咱们都得上。坐稳了,别只顾着看风景,记得时不时喊一句:“师傅,前面有坑,慢点!”

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动