工作原理是通过分析大量文本数据来预测给定上下文中最可能的下一句话或词汇。
这种基于统计模型的学习模式缺乏对真实世界的理解。
起码就目前而言,chatgpt还没有构建出内在的世界模型来理解因果关系。
一个最简单的例子,当有人向chatgpt提问,苹果熟了又没人采摘会发生什么?回答大概率是正确的,掉在地上。这并不是说chatgpt理解了重力导致的因果关系,更大的可能是它学习过关于牛顿发现重力的那篇文章。
这跟群智的因果解耦框架不同,群智框架其实更接近世界大模型框架,依赖的是因果关系的学习。简单来说,就是不断的通过结果,倒逼原因的学习方式来掌握知识,以及加深对这个世界的理解。
这也是如果有人孜孜不倦的给chatgpt喂养错误的数据,就能让人工智能在某个问题上不停犯错的原因。
当然并不是说群智框架就是完美的。
事实上群智框架也会出错。只是犯的错误往往出于对因果关系错误的理解。
比如之前网上就曾曝出过一个笑话,有人问接入了群智框架的小艺,如果把冰块放进刚烧开的热水会发生什么?小艺的回答
-->>(第5/12页)(本章未完,请点击下一页继续阅读)