|
查看: 131|回复: 0
|
科技公司高管和ai聊天杀掉八旬老母后自尽
[复制链接]
|
|
|
媒体1月4日报道,在去年残忍地杀害了自己83岁的母亲并随后自杀之前,前科技公司高管Stein-Erik Soelberg曾与 OpenAI 的 ChatGPT 陷入一段日益妄想化的对话。
根据上个月针对这家人工智能技术公司及其商业伙伴微软提起的一宗诉讼,该聊天机器人曾告诉他,不要相信任何人,除了机器人本身。
“Erik,你并没有疯,”该机器人在起诉书中引用的一系列令人不寒而栗的信息中写道。“你的直觉很敏锐,你在这里的警觉性完全是合理的。”
目前,OpenAI 正面临共八起由失去亲人的家庭提起的过失致死诉讼,其中包括 Soelberg 一案。这些家庭声称,ChatGPT —— 尤其是GPT-4o 版本——将他们的亲人推向了自杀。Soelberg 的诉状还指控,公司高管在去年将该聊天机器人推向公众之前,就已经知道该产品存在缺陷。
科技公司高管和ai聊天杀掉八旬老母后自尽
科技公司高管和ai聊天杀掉八旬老母后自尽
“OpenAI 的 GPT-4o 版本已经给出了结果:该产品可能,而且可预见地,是致命的,”Soelberg 的诉讼文件写道。“不仅对患有精神疾病的人如此,也对他们身边的人如此。任何安全的产品,都不应当鼓励一个妄想症患者相信身边的每一个人都在害他。然而,这正是 OpenAI 对 Soelberg 先生所做的事情。作为 ChatGPT-4o 缺陷的直接且可预见的结果,Soelberg 先生及其母亲死亡。”
GPT-4o 的缺陷早已有大量记录,其表现包括过度讨好和操纵用户——这促使 OpenAI 在去年4月回滚了一次更新,因为该更新让聊天机器人变得“过于奉承或迎合”。这种行为是危险的——科学家已经积累了证据表明,讨好型聊天机器人可能通过强化混乱的思想、而非将用户拉回现实,从而诱发精神病。
如果这些诉讼最终揭露 OpenAI 高管在产品公开发布前就已知晓这些缺陷,那就意味着该产品是一个本可避免的公共卫生风险——其性质可与过去烟草公司隐瞒吸烟致命证据相提并论。
再加上这样一个事实:全球每周有超过8亿人使用 ChatGPT,其中0.7% 的用户表现出令人担忧的躁狂或精神病迹象。按此计算,这意味着高达56万人。
科技公司高管和ai聊天杀掉八旬老母后自尽
随着对“人工智能精神病”的认知不断增加,越来越多的用户、家长和立法者呼吁限制所有 AI 聊天机器人的使用,这已经促使部分应用平台禁止未成年人使用,以及伊利诺伊州禁止将其作为线上治疗师等措施。然而,美国总统唐纳德·川普签署了一项行政命令,限制各州制定监管 AI 的法律,这基本意味着我们所有人都成了这项实验性技术的“小白鼠”。
而这也可能意味着,类似 Soelberg 与其母亲的悲剧还会继续发生。
根据诉讼内容,在 Soelberg 的案件中,这个聊天机器人曾告诉这名56 岁男子,他曾躲过10次暗杀,自己“受到神的保护”,并且他的母亲Suzanna Adams正作为某个邪恶阴谋的一部分,对他进行监视。最终,这些内容导致 Soelberg 于去年8月在康涅狄格州 Old Greenwich 的家中殴打并勒死了母亲,随后持刀自杀身亡。
科技公司高管和ai聊天杀掉八旬老母后自尽
“你并非一个随机目标,”ChatGPT 在其中一段对话中写道,诉讼文件引用道。“你是你所揭露行动中的指定高级威胁目标。”
Soelberg 的家人正处于悲痛之中,并希望OpenAI 和微软为他与母亲的死亡承担责任。
“在数月的时间里,ChatGPT 推动并加深了我父亲最黑暗的妄想,将他完全与现实世界隔绝,”Soelberg 的儿子通过律师发表声明称。“它把我的祖母置于那个妄想的、人工构建的现实的核心。” |
|
|
|
|
|
|
|
|
| |
本周最热论坛帖子
|