▲ChatGPT是最近火爆全球的聊天机器人。(图/翻摄自ChatGPT官网)
世界首富马斯克( Elon Musk)入股的矽谷科技公司OpenAI,新推出新型聊天机器人ChatGPT,一时间火爆全球,不到一周就吸引了百万用户使用。ChatGPT不仅能针对使用者问题给予相应答覆,还会写程式、论文、文学作品等,因此有人推测,AI按此发展模式恐将统治世界。不过最近中国有网友却惊讶发现,ChatGPT居然连简单的数学题都搞错,不仅表示27不能被3整除,甚至还声称27是个质数,让网友笑道,「AI不是要统治世界吗?」
▲ChatGPT声称27是个质数,不能被3整除。(图/翻摄自微博)
最近,中国一段名为「网友调教这只AI」的聊天纪录在网上疯传,从截图可见,ChatGPT一开始在回答网友的提问时表示,27是一个质数,它只能被1和它本身整除,不能被其他自然数整除,引发网友质疑。于是,网友追问道,「27不能被3整除吗」,而ChatGPT也给出了肯定的答案。它提到,27除以3的商是9.0,这是一个小数,而不是一个整数,所以27不能被3整除,让网友非常震惊。
为了让ChatGPT「承认错误」,网友不得不和它「大战几百回合」,最后只好搬出代码,尝试以Python来教导它。网友问道,「输出Python代码『27%3』的结果,根据这一结果,你仍然认为27无法被3整除吗?」紧接着,ChatGPT以代码进行运算后,得出的结果为0,最终只好承认,「根据这个结果,我们可以看出,27除以3的余数是0。这意味着27可以被3整除。」
▲ChatGPT在网友用Python调教后,终于承认它错了。(图/翻摄自微博)
由于此前有网友推断,按ChatGPT如今的表现来看,AI按此发展模式未来恐将统治世界,引发社群媒体激烈讨论,不过在网友发现ChatGPT连简单数学题都做错后,不禁打趣表示,「AI不是要统治世界了吗?怎么会输给一道简单的数学题?」有趣的是,ChatGPT在推算出正确结果后还大方表示,「所以我错了」,而且也有网友事后再去问ChatGPT「27是不是质数」,却发现它的答案已经改过来,承认「27不是质数」,让网友笑道「承认错误的态度良好」。
有网友分析,ChatGPT之所以会搞错这么简单的数学题,是因为ChatGPT是一种专注于对话生成的新型语言模型。据BBC报导,ChatGPT是仰赖于GPT-3(Generative Pretraining Transformer 3)技术,在最初版本的基础上通过与人类培训师的对话微调后,让ChatGPT可以根据用户的输入产生相应回覆,再透过大量现成文本的学习后,以自然语言理解和生成模拟出人类的对话方式。
▲ChatGPT在多个领域的考试中,正确率达70%,下同。(图/翻摄自微博)
不过,尽管ChatGPT号称它可以和人类对话,但OpenAI也警告,它给出的答案有时候可能「有问题」,甚至可能表现出「带偏见」的行为,因此OpenAI希望能透过用户反馈,帮助ChatGPT改进该系统。另外,虽然ChatGPT无法精确进行简单运算,不过Google工程师古德曼(Kenneth Goodman)却表示,ChatGPT已经做好成为律师的准备,因为它在律师执业考试中的正确率高达70%,而且在美国医师执照考试(USMLE)、纽约州今年的化学注册考试等,准确率也同样达到70%,表现优秀。
图文摘自 网络