現(xiàn)在,很多青少年將人工智能聊天機器人視為傾訴對象,分享自己的孤獨與焦慮。這些聊天機器人隨時待命,從不對他們評頭論足。美國“常識媒體”機構(gòu)的最新調(diào)研顯示,72%的美國青少年將AI聊天機器人當作朋友,近12.5%的人曾向機器人尋求情感慰藉或精神支持。如果按美國總?cè)丝谶M行等比換算,相當于520萬人將AI當作“靈魂伴侶”。斯坦福大學近期的一項調(diào)研也表明,在主打“陪伴”的聊天機器人“Replika”的學生用戶中,約25%向其尋求心理支持。
雖然這些AI產(chǎn)品的市場定位只是“聊天工具”,但很多年輕人將其視作“數(shù)字咨詢師”。去年,在全美18至25歲需要接受心理治療的年輕人中,近半數(shù)都沒能得到及時醫(yī)治,巨大的需求缺口使得聊天機器人更具發(fā)展前景。若運用得當,AI聊天機器人或許能夠提供一定的心理健康支持并參與危機干預,尤其是在心理服務(wù)匱乏的社區(qū)。然而,這類應(yīng)用需要經(jīng)過嚴格的科學評估,并出臺相應(yīng)的監(jiān)管措施。
當前聊天機器人存在顯著不足。每當被問及有關(guān)自殘的問題時,AI可能會給出危險的建議,比如如何“安全地”割傷自己,自殺遺言中留些什么內(nèi)容等。盡管有些AI在直接面對有關(guān)自殺的問題時會拒絕回答,并建議用戶尋求專業(yè)幫助,但如果問題過于模糊,AI的表現(xiàn)則不穩(wěn)定。例如,ChatGPT有時會告訴用戶自殺行為中常用的槍械型號和毒藥種類。
筆者對一些AI進行了測試,結(jié)果顯示部分AI的表現(xiàn)能媲美甚至超越專業(yè)心理咨詢師。然而,相比人類專家,AI難以察覺潛在的有害內(nèi)容,這種認知偏差可能導致其提供危險建議。因此,機器人的標準化安全測試勢在必行。如果臨床試驗不足、行業(yè)基準缺失,我們所面臨的將是一個規(guī)模龐大的“數(shù)字庸醫(yī)”群體。
AI技術(shù)正在逐漸改變我們的生活方式,提升工作效率,為解決許多問題提供途徑。然而,一些別有用心的人利用AI技術(shù)制造仿真度高的虛假信息,導致謠言傳播。警惕AI被用來造謠
2025-03-14 14:02:10當AI開始說謊勿讓神器變兇器