
Machine Pro ・会员通讯25周---本周我们正在寻找IA机器人行业中的重要事物--- 1。根据统计概率机制,推理LLM是否真的“了解世界”吗?摇篮在推理中扮演什么角色,简单的重复与明确的路线?令牌的下一个预测是一个动态建模过程,也许婴儿床不是一个简单的迭代? LLM的推断能力是基于概率统计数据还是因果理解的其他表达的简单模式重合? “实践产生真正的知识”,是否有可能加强培训以打破监禁LLM的“知识幻觉”? ... 2。是2025年,公司如何花费预算来收购AI?公司为什么会增加对生成人工智能的支出?是什么促使您在生产生产的情况下使用多种模型?为什么逐渐获得AI演示获取传统软件的特征?为什么要自行构建它来购买第三党AI应用程序?选择AI模型时,评估框架中涉及哪些关键因素? ...该新闻通讯的完整版本包括有关特殊主题的两个解释 + 31个关键机器人轨道事件,12个技术方面,8个国家方面和11个外国方面。这个问题中的沟通是22,632个单词,您可以免费阅读7%,消耗99个微信豆,并在对这个问题的完整解释(约9.9个人)中换来对重要问题的解释。简介:在6月初,苹果很长一段时间没有出现,但发表了一篇文章,指出当前的推理模型没有真实的想法,而SO被称为推论只是“模式巧合”的另一种形式。这项研究再次引起了有关LLM推理Capabilitie的激烈辩论s。尽管苹果的意见以前是兼容的,但一些研究人员认为,令牌预测实际上是一个动态的建模过程,而COT也明确触发了推理路线。在最近的一次采访中,里德·霍夫曼(Reed Hoffman)在“知识幻觉”方面提出了不同的愿景,并重新考虑了LLM向人类推理的方式。他提醒我。这是LLM目前显示的唯一原因是模式的巧合吗? 1。当前对学者和行业中AI推理的经典定义可以总结如下:推论是一个计算过程,在该过程中,AI系统通过逻辑推导,符号操作或基于现有知识或模型的逻辑推导,符号操作或协会来生成新的结论。 [1-1]第二个Lucien Galesque是佛罗里达州人类机器认知机构(IHMC)的研究科学家(IHMC)。Ocedure是正确的,结论可能是正确的。他清楚地认为,当前的大型模型(LLM)没有这种推断为严格的能力[1-2] 3。2011年珍珠的经典因果推理理论是图灵图灵奖的获胜者,表明,真正的推理不仅是找到数据模式,而且是了解“是...”的因果关系。 [1-3]吞咽的人工智能领域通常认为,真正的智能推理应包括因果理解。因果因果推断还意味着了解变量与偶然推断之间的干预措施,而这种统计推断无法涵盖统计推断的认知技能。由于LLM尚未建立因果框架,因此很难具有人类推理的深度和灵活性。 [1-3]在2023年的一篇关于常识和LLM推理的文章中,圣塔菲研究所教授梅兰妮·米切尔(Melanie Mitchell)证实,GPT-4不能再次计算模拟YPE,但没有发展儿童因果诱导技能,但是模型学习语言形式而不是理解结构。 [1-4] [1-5] 4。相比之下,普林斯顿名誉教授菲利普·约翰逊·莱尔德(Philip Johnson Laird)在上个世纪提出了另一个定义。换句话说,推理是基于心理模型的认知活动。换句话说,人们通过构建内部心理表达方式进行推论或逻辑归纳。 [1-6] 2018年图灵奖的获奖者杰弗里·辛顿(Jeffrey Hinton)也在今年4月底在ECTVIDEO杂志上发表了类似的声明。换句话说,他承认,人类认知比解决问题的巧合更接近模式的巧合,而他们的思想倾向于模拟推理。 [1-7] [1-8]杰弗里·辛顿(Geoffrey Hinton)认为,人类的认知益处不是严格的理性,而是与模棱两可和流畅的智力更紧密相关,即模式的巧合而不是问题问题。藤。他强调说,当人类做出决定时,他们会解决问题,甚至可以通过僵化的逻辑树,而是通过与过去的经验共鸣。同时,人类更喜欢为家庭事物分配新信息,并推断类比。同时,欣顿认为,LLM显示的当前模型的调整能力已达到准认知水平。韦伯(Webb)和加州大学洛杉矶分校(UCLA Desthey)的其他研究人员在11月24日涵盖了LLM可以通过类比零试验条件来解决新问题的能力。类似于GPT-3和GPT-4类似的模型在诱导抽象模式方面运作良好,并且更频繁地达成协议甚至超出了人类技能。 [1-9]令牌的以下预测是动态建模过程。也许婴儿床不是一个简单的“重复”? 1。如何出于任何原因提供模型推断一直是研究工作的重点。因此,一些研究人员提出了C思想的核心是推理的核心。