▲ChatGPT之父阿特曼承认,客服类工作可能在短时间内被ChatGPT取代。(图/达志影像/美联社)
AI产业近来因ChatGPT的出现爆炸性发展,引发人们对AI可能取代人类部分工作的忧虑。被誉为「ChatGPT之父」的开发者阿特曼(Sam Altman)26日证实,ChatGPT确实可能「大规模冲击」现有职业,而其中「一种工作」更可能在短期内被ChatGPT取代。
综合外媒报导,阿特曼过去一直对人类有哪些工作可能被ChatGPT取代持模棱两可的态度,不过他26日接受Podcast主持人傅利曼(Lex Friedman)专访时,首次承认短期内会立刻因ChatGPT产生「巨大影响」的工作类型是「客户服务」类别的工作。
阿特曼表示,「我认真地思考了有哪些工作会受到巨大影响,我想我会选择客户服务类,因为我相信这个领域的工作在短时间内会大量减少。」
尽管阿特曼直接点名「客服类」工作可能会被AI取代,但他此前在ABC新闻的采访中也指出,虽然他也担心AI取代人类工作的变化会在短时间内发生,但由于人类拥有无限创造力,因此他坚信人们最终还是会找到不可替代的新工作。
开发者认了!ChatGPT恐「威胁全人类」 马斯克警告:AI比核武更危险
OpenAI才刚推出震惊世人的ChatGPT不到半年,15日又再推出新一代语言模型GPT-4,让人工智慧(AI)瞬间成为全球舆论焦点。然而,被誉为ChatGPT之父的阿特曼(Sam Altman)16日却破天荒承认,公司在推出这项新技术的同时,也害怕它会对人类造成威胁,带来「真正的危险」。
据《卫报》报导,阿特曼16日接受美国ABC访问时表示,作为共同开发者,他最担心的是ChatGPT被用来大规模散布假消息,「现在他们在编写电脑代码上做得越来越好,因此他们轻易就能将其用于攻击性网路攻击」,但他强调即使ChatGPT存在危险,它仍可能是「人类迄今最伟大的技术」。
全球首富马斯克在OpenAI还是一家非盈利公司之时,就已成为了这家企业的首批投资者之一。他多次对AI和AGI(通用人工智慧)发出警告,认为相关技术可能比核武器更危险。马斯克也对微软解散其道德监督部门一事深表担忧,认为微软需要在其Bing搜索引擎上托管ChatGPT,而政府也应制定与AI相关的安全法规。
对于马斯克的担忧,阿特曼也有类似的感受。他强调,监管机构和社会需要尽快参与到这项技术之中,以防止AI对人类造成潜在负面影响,「我们必须特别小心,而人们也应该为我们产生的敬畏之心感到高兴」。
ChatGPT错称「27不能被3整除」 网友打脸:AI不是要统治世界?
▲ChatGPT是最近火爆全球的聊天机器人。(图/翻摄自ChatGPT官网)
世界首富马斯克( Elon Musk)入股的矽谷科技公司OpenAI,新推出新型聊天机器人ChatGPT,一时间火爆全球,不到一周就吸引了百万用户使用。ChatGPT不仅能针对使用者问题给予相应答覆,还会写程式、论文、文学作品等,因此有人推测,AI按此发展模式恐将统治世界。不过最近中国有网友却惊讶发现,ChatGPT居然连简单的数学题都搞错,不仅表示27不能被3整除,甚至还声称27是个质数,让网友笑道,「AI不是要统治世界吗?」
▲ChatGPT声称27是个质数,不能被3整除。(图/翻摄自微博)
最近,中国一段名为「网友调教这只AI」的聊天纪录在网上疯传,从截图可见,ChatGPT一开始在回答网友的提问时表示,27是一个质数,它只能被1和它本身整除,不能被其他自然数整除,引发网友质疑。于是,网友追问道,「27不能被3整除吗」,而ChatGPT也给出了肯定的答案。它提到,27除以3的商是9.0,这是一个小数,而不是一个整数,所以27不能被3整除,让网友非常震惊。
为了让ChatGPT「承认错误」,网友不得不和它「大战几百回合」,最后只好搬出代码,尝试以Python来教导它。网友问道,「输出Python代码『27%3』的结果,根据这一结果,你仍然认为27无法被3整除吗?」紧接着,ChatGPT以代码进行运算后,得出的结果为0,最终只好承认,「根据这个结果,我们可以看出,27除以3的余数是0。这意味着27可以被3整除。」
▲ChatGPT在网友用Python调教后,终于承认它错了。(图/翻摄自微博)
由于此前有网友推断,按ChatGPT如今的表现来看,AI按此发展模式未来恐将统治世界,引发社群媒体激烈讨论,不过在网友发现ChatGPT连简单数学题都做错后,不禁打趣表示,「AI不是要统治世界了吗?怎么会输给一道简单的数学题?」有趣的是,ChatGPT在推算出正确结果后还大方表示,「所以我错了」,而且也有网友事后再去问ChatGPT「27是不是质数」,却发现它的答案已经改过来,承认「27不是质数」,让网友笑道「承认错误的态度良好」。
有网友分析,ChatGPT之所以会搞错这么简单的数学题,是因为ChatGPT是一种专注于对话生成的新型语言模型。据BBC报导,ChatGPT是仰赖于GPT-3(Generative Pretraining Transformer 3)技术,在最初版本的基础上通过与人类培训师的对话微调后,让ChatGPT可以根据用户的输入产生相应回覆,再透过大量现成文本的学习后,以自然语言理解和生成模拟出人类的对话方式。
▲ChatGPT在多个领域的考试中,正确率达70%,下同。(图/翻摄自微博)
不过,尽管ChatGPT号称它可以和人类对话,但OpenAI也警告,它给出的答案有时候可能「有问题」,甚至可能表现出「带偏见」的行为,因此OpenAI希望能透过用户反馈,帮助ChatGPT改进该系统。另外,虽然ChatGPT无法精确进行简单运算,不过Google工程师古德曼(Kenneth Goodman)却表示,ChatGPT已经做好成为律师的准备,因为它在律师执业考试中的正确率高达70%,而且在美国医师执照考试(USMLE)、纽约州今年的化学注册考试等,准确率也同样达到70%,表现优秀。
图文摘自 网络
|