首页 热门资讯文章正文

美国天普大学王培教授,如何赋予AGI第一推动力

热门资讯 2025年06月27日 22:29 1 admin
美国天普大学王培教授,如何赋予AGI第一推动力

2025年6月20日上午,美国天普大学计算机与信息科学系教授、《通用人工智能学报》执行主编、通用人工智能学会副主席王培老师来访中国科学院哲学研究所“科学与哲学”论坛,并作题为“智能、认知与逻辑”的报告。中国科学院大学哲学研究所的胡志强教授主持了本次讲座。来自北京师范大学、北京理工大学、厦门大学、中国人民大学、中国社会科学院哲学研究所、中国科学院哲学研究所等高校和研究机构的师生参加了此次论坛。

胡志强教授主持讲座中

王培老师以什么是推理为切入点开启讲座。他指出,推理模型可以分为规范性模型和描述性模型,前者一般指的是有效正确的推理,其中会引出经典逻辑、非经典逻辑、悖论等内容;后者则更侧重于心理学,研究人们日常生活中认知,尤其是错误。二者有重合的部分,但是差别很大,由此就有现代早期逻辑学与心理主义的论辩。

美国天普大学王培教授,如何赋予AGI第一推动力

王培老师讲座中


一、规范性模型的实质与得失

传统规范性模型通常有不可置疑的前提,,即已知为真的句子,而所谓真就是在一个元语言描述领域下在一个模型中符合事实。推理规则的有效性就是“保真”,即从真前提推出真结论,而推理就是从公理得到定理。在传统逻辑中,讨论的核心问题是定理证明,经典的范例即是亚里士多德三段论和欧几里得几何。这种结合了固定的前提即公理的规范化模型在数学和传统逻辑领域十分有效,但是在处理不确定性、非演绎推理和悖论等方面存在较大局限性,公理化的逻辑推理认为经典逻辑提供了一个人类思维形式规律的范例,现实的日常思维应该努力的近似这套系统。

美国天普大学王培教授,如何赋予AGI第一推动力

非公理推理系统在推理模型分类树中的位置


二、为什么需要非公理推理系统

就规范性模型下的公理化的推理系统不足,王培老师指出:第一,缺少普遍代表性,比如数学是一个封闭的信念空间,要求一致性,其中的定理证明只是推理的特例,不是一个典型的范例;第二,不计代价和认知开销,不考虑证明是2步得到还是1000步得到,对于加工时间和存储空间缺少考虑,而我们现实的决策很多都是在司马贺(Herbert Simon)受限理性意义下在一个相对具体情境中做出的最优决策,而不是一个理想中的最优决策;第三,有一组不受挑战的前提。“非公理”推理系统则具有对于新经验和新任务开放、适应不可预测环境、考虑时空资源约束的特点,因此需要非公理推理系统。


三、非公理推理系统

王培老师提到,其提出的非公理推理系统,英文缩写为NARS,所以也被人称为纳思。纳思仍是一个规范性模型,寻求确定性和可以形式化的方法,但不同于于公理化的推理系统,其中没有不可更改的“绝对真理“。而在另一方面,这不意味着“怎么说都行”。其前提建立在相对理性基础之上,化用司马贺的受限理性思想,认为一个结论的合理与否是相对于系统的知识和资源供给而言的。

这样形成语义学中的“真值”和“含义”均建立在过去的经验基础之上,而非未来的经验。纳思中的概念是经验的抽象,而非代表事物的符号。其中的推理从不是真理走向真理,而是传播概念的可替代性,以此来解决适应性问题或未知的开放性问题.。这很像中国的一句老话:“尽人事,听天命”,而这不仅仅是一种人生态度,还是一种逻辑学态度。王培老师总结道,作为非公理推理系统的纳思仍是规范性模型而非描述性模型,只是其基本假设更接近于人类推理的现实。纳思为许多传统问题提供了统一解释,并可以容纳公理化子系统。


四、非公理推理系统与大模型技术的发展方向比较

王培老师最后将非公理推理系统和大语言模型技术二者进行了比较。他指出二者是不同的研究方向,就像化学和物理两个知识体系之间的关系,既不是谁包含谁的关系,也不是谁对谁错的关系,而如今一些媒体将通用人工智能(AGI)与大模型技术简单画等号的行为,会对大众有所误导。大模型技术是一个端到端的万能函数(在理想情况下),总结人类语言行为数据种的数据模式,进行下一个词的预测,模拟人的行为,当模型的参数和训练数据达到一定规模,就会发生所谓的“涌现”现象,但这也面对着可解释性的问题。

王培老师着重强调了这种技术路线往往没有区分推理规则和蕴涵式,而是以后者取代前者。这样做的确简单、高效、也在许多情境下可以模拟人类行为,但弱点是有效性、可解释性、可靠性不足。王老师指出,AGI设计的一个关键的问题是,要确定好什么被预置进系统内部,什么留给系统自己学习。人类要做好这个“第一推动”的有担当的设计者。

美国天普大学王培教授,如何赋予AGI第一推动力

大模型(LLM)和纳思(NARS)对“通用”和“智能”的不同解释

美国天普大学王培教授,如何赋予AGI第一推动力

逻辑推理(蓝色)、深度学习中的将推理转化为映射(红色)、大语言模型带思维链功能的推理(黄色)的直观对比


在讨论环节,王培老师细致充分地回答了现场师生的问题。就时下有很多讨论的大模型价值对齐问题,有同学提问:在道德规范方面,现在大模型技术是更多地以蕴涵式的方式处理还是以某种固定的规则、类似于元逻辑的方式在处理?

王培老师回应指出,目前两个方向的工作都有,但仍是以后天的数据训练为主,他以《三体》中“思想钢印”的例子风趣地指出使用元逻辑的方式为AI写入道德规则的风险,阿西莫夫的机器人三大定律在某种意义上也是在分析这些规则存在的问题,但后天数据训练在适应性系统上应用就难免不稳定,因此他形象地比喻价值观对齐就像堵窟窿,效果存疑且还有待观察;有同学提问:大模型学习推理系统采取蕴涵式的方式为什么效果不好,以及如何理解像DeepSeek这样的思维链拆解的提示词体系?

王培老师回应指出,从大模型的工作原理上讲其不涉及任何推理规则,更不存在有意识、有目的、故意的使用,不像望梅止渴这样是有独立于我的认知和知识的元认知、元逻辑的;还有同学提问:如何运用纳思解决一个具体的物理学问题,有什么具体的应用吗?王培老师回应说,纳思就像一个婴儿,也是需要学习的,不同环境教出来的也是不一样的,具体可参见相关参考文献、网站上的介绍,也有一些具体的应用了;

范杰老师提问:非公理系统推理从个人经验出发是怎么获得客观性的,以及AGI为什么翻译为通用人工智能而不翻译为人工通用智能?王培老师回应指出,从个体经验出发到最终获得客观性之间并不冲突,原则上并不违背,所谓客观在某种意义上就是集体主观,通过社会交往会获得一些公共的标准。王培老师表示早在2008年前后他们就是最早提出通用人工智能概念的一批人,这样翻译考虑到了中文习惯,而英文不用GAI,因为general有一般、普遍等多种涵义,有歧义,所以英文也不用GAI。参会的师生们收获满满,意犹未尽,讲座在与会者的热烈掌声中圆满结束。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动