关于ai给出的错误例子

在使用学习功能的时候,发现现在的ai举的例子跟人的思维还是有一定偏差,这种偏差对于刚开始接触概念的学习者来说,影响挺大的。
现在的“功能”已经完善,但要真正实现利用ai学习,还是需要ai模型再发展一段时间


此例中小球按照人类理解是会受到重力和支持力的(因为以人的视角通常会认为这是在地球上,而ai应该是没有“在地球上”这个前提的)
现在的ai要应用到教育上还是有些弱小
另外在此畅想下未来:后续要是能实现图片生成,动画生成的例子,那对于知识的理解将是一个巨大的便利
担忧:基于ai的原理,我对这玩意能否真正准确描述物理现象还是存疑。因为以我浅薄的了解,ai并不能理解人类总结出的概念,只是复述知识。

现在ai还是有各种局限性的,必须通过语言世界来间接地“理解”概念,还会产生“幻觉”。但我们其实可以根据现有ai的特点使用它。

比如,不要直接给ai一个知识的名称,让ai自己调用它的知识去讲解,而是要给ai一段讲解,要ai根据讲解去生成辅助讲解、例子、习题等。

关于小球的例子,ai所用的语言不对(所以才要限制),应该用「合外力」,而不是用「外力」,这个小球的「合外力」为零。如果你给它的不是“牛顿第一定律”这个名字,而是「牛顿第一定律的一段讲解」,里面提到了「合外力」,ai就不会产生这种不当了。毕竟,ai学习的是互联网上的语言关联。

再比如,互联网上对「熵增定律」的解释普遍是错的,所以,如果你仅给ai一个“熵增定律”的名称,让它生成讲解,它基本上是必错的。

另外,你这里的生成,用「关联学习」更好一些。

现在使用渐构AI宛如特工收集情报,不仅要收集,还要辨别真假

不是渐构AI,而是所有AI都要仔细辨别。

但是要看到AI带来的好处,没有AI之前,连辨别都不用,直接没材料没讲解。

有了AI就多有了一个工具,不会有人嫌工具多的。何况这个工具这么便宜,还几乎没有使用门槛。

而且学习是一个进步的过程,不会有任何材料上来就包括所有情况,你总能指出任意材料的不足,但不会有人只学一个材料就把知识学的出神入化,没有任何其它材料比AI提供的更多样化、个性化、且价格低廉了。

1 个赞

其实学习人类材料的时候,也需要辨别真假的,尤其是自媒体时代。举个最典型的例子,就是熵增定律的科普,错误率高的离谱,以至于全网都接受了错误的理解