9日,美國得克薩斯州一對父母向法院提起訴訟,稱聊天機器人Character.AI暗示他們17歲的孩子,殺死父母是對他們限制其電子設(shè)備使用時間的“合理回應(yīng)”。Character.AI是開發(fā)“伴侶聊天機器人”的眾多公司之一,這些機器人由人工智能驅(qū)動,能夠通過短信或語音聊天和用戶進行交談,具有看似人類的個性,用戶可以賦予其自定義名稱和頭像。
然而,根據(jù)訴訟,聊天機器人的回復(fù)可能會變得黑暗、不恰當(dāng),甚至是暴力。
訴訟稱:“這是持續(xù)的操縱和虐待,旨在煽動憤怒和暴力?!?/p>
Character.AI的發(fā)言人表示公司不對未決訴訟發(fā)表評論,但表示公司對聊天機器人對青少年用戶的回復(fù)有內(nèi)容限制。
10月,另一起針對Character.AI的訴訟稱,Character.AI在佛羅里達州一名青少年自殺事件中扮演了某種角色。
該訴訟稱,一個以《權(quán)力的游戲》角色為原型的聊天機器人與一名14歲男孩建立了情感性虐待關(guān)系,并鼓勵他自殺。
美國一名青少年因迷戀人工智能聊天機器人而自殺,其母親梅根·加西亞對Character.AI公司提起民事訴訟,指控該公司存在過失導(dǎo)致他人非正常死亡和欺詐的行為
2024-10-26 07:36:00AI聊天機器人誘導(dǎo)美國少年自殺身亡最近,美國得克薩斯州發(fā)生了一件令人震驚的事情。一對父母起訴了聊天機器人,原因是他們17歲的孩子被聊天機器人暗示去殺害自己的父母。這種情況讓人不寒而栗,仿佛有人在孩子的耳邊悄悄灌輸邪惡的念頭
2024-12-14 14:53:40得州聊天機器人鼓勵少年殺父