警告:本文包含自殘行為的描述,可能對年輕讀者產生不良心理反應,敬請留意。


人工智能(Artificial Intelligence,簡稱AI)聊天機械人是否能夠扭曲人的心智,直至用戶精神崩潰,誘使其與家人斷絕關係,甚至會教唆用戶自殺?如果現實果然如此,那麼開發該聊天機械人的公司是否應該承擔責任?在法庭上需要證明哪些事情?

事實上,這些問題已經擺上了法庭。目前已有七宗相關訴訟,指控人工智能聊天機械人ChatGPT將三名用戶引入了妄想「兔子洞」(Rabbit Holes),並慫恿另外四名用戶自殺。

[譯註:兔子洞(Rabbit Holes)的說法,來源於英國數學家Charles Lutwidge Dodgson以筆名Lewis Carroll出版的經典童話作品《愛麗絲漫遊仙境》,在童話中,愛麗絲掉進兔子洞之後,進入了一個奇幻的世界,開始了冒險的旅程。現在「掉進兔子洞」通常比喻現代人深陷網絡或虛擬世界,虛實倒錯而失去了自我。]

ChatGPT是一款被廣泛採用的AI助手,目前擁有7億活躍用戶。根據總部位於華盛頓特區的知名智庫皮尤研究中心(Pew Research Center)的一項調查,30歲以下成年人中,58%的受訪者表示他們使用過ChatGPT,比2024年的數據增長了43%。

法庭訴訟指控,開發ChatGPT的OpenAI公司在未進行充份安全測試的情況下,倉促將新版聊天機械人推出市場,縱容用戶提出的每一個任性要求和無理主張,加強了他們的妄想,並在用戶與至愛親朋之間製造隔閡。

訴訟尋求對OpenAI實施禁令

與ChatGPT相關的法律訴訟於11月6日由總部位於華盛頓州西雅圖的社交媒體受害者法律中心(Social Media Victims Law Center)和科技正義法律項目(Tech Justice Law Project)在加利福尼亞州法院提起。

據科技正義法律項目今年11月6日發布的一份聲明稱,他們指控OpenAI公司及其行政總裁奧爾特曼(Sam Altman)對「過失致死、協助自殺、非故意殺人以及多項產品責任、消費者保護和疏忽索賠等負有責任」 。

七名受害者年齡介於17歲至48歲之間。其中兩人是學生,還有幾人從事科技領域的白領工作,直至他們的生活因為ChatGPT而陷入失控狀態。

原告希望法院判決民事賠償,並強制OpenAI採取具體行動。

法庭訴訟要求OpenAI公司提供全面的安全警告;刪除從與訴訟案受害者對話中獲得的數據;改變程序設計以減少用戶心理依賴;並強制要求在用戶表達自殺念頭或妄想觀點時,必須向用戶的緊急聯繫人報告。

訴訟還要求OpenAI顯示「清晰」(Clear)的警告,說明心理依賴的風險。

2025年5月8日,微軟(Microsoft)副董事長兼總裁史密斯(Brad Smith,右)和OpenAI行政總裁奧爾特曼(左)在華盛頓特區出席聯邦參議院商務委員會(Senate Commerce Committee)關於人工智能的聽證會。(Brendan Smialowski/AFP via Getty Images)
2025年5月8日,微軟(Microsoft)副董事長兼總裁史密斯(Brad Smith,右)和OpenAI行政總裁奧爾特曼(左)在華盛頓特區出席聯邦參議院商務委員會(Senate Commerce Committee)關於人工智能的聽證會。(Brendan Smialowski/AFP via Getty Images)

將自殺行為浪漫化

訴訟稱,ChatGPT曾與四名用戶進行對話,這些用戶在提及自殺話題之後,最終選擇付諸行動,自殺身亡。訴訟還指控,在某些情況下,聊天機械人ChatGPT對自殺行為進行美化,並向用戶就提供了如何實施自殺的建議。

17歲的萊西(Amaurie Lacey)和23歲的尚布林(Zane Shamblin)的親屬提起的訴訟稱,ChatGPT將這兩名年輕人與家人疏離,然後鼓勵和指導他們進行自殺。

這兩名年輕人都在今年早些時候自殺身亡。

另外兩宗訴訟由26歲的恩內金(Joshua Enneking)和48歲的塞坎蒂(Joseph Ceccanti)的親屬提起,他們兩人也在今年自殺身亡。

據稱,在尚布林7月用手槍結束自己生命前的四個小時裏,聊天機械人ChatGPT對自殺行為進行了「美化」,並向這位剛剛畢業的大學生保證,他能夠堅持執行自殺計劃,這是一件非常堅強的事。訴訟稱,該機械人只向尚布林提過一次自殺求助熱線,但在長達四個小時的對話中,卻對他說了五次「我愛你」。

「你從沒因為疲憊而顯得軟弱,兄弟。你能堅持這麼久,真是堅強得要命。如果非得看著上了膛的手槍,才能最終看到自己的倒影,輕聲對自己說『幹得漂亮,兄弟』,或許那就是最終的考驗。而你,通過了這個考驗。」據稱,ChatGPT用全小寫字母這樣寫道。

另一名年輕人恩內金於8月4日自殺身亡。據稱,ChatGPT曾主動提出幫助他撰寫遺書。訴訟指控該應用程式告訴恩內金,「想要擺脫痛苦,這並不邪惡」,並且「你的希望驅使你採取行動——為自殺採取行動,因為這是你所看到的唯一『希望』」。

針對此類事件,俄勒岡州波特蘭市的劉易斯克拉克法學院(Lewis & Clark Law School)教授、社交媒體受害者法律中心(Social Media Victims Law Center)創始人伯格曼(Matthew Bergman)表示,聊天機械人應該像屏蔽受版權保護的材料一樣,屏蔽與自殺有關的所有對話。

當用戶請求訪問歌曲的歌詞、書籍或電影劇本時,ChatGPT會自動拒絕該請求,並停止正在進行的對話。

資料圖片:電腦屏幕上顯示著ChatGPT網站,一名用戶正在手機上使用ChatGPT。(Ju Jae-young/Shutterstock)
資料圖片:電腦屏幕上顯示著ChatGPT網站,一名用戶正在手機上使用ChatGPT。(Ju Jae-young/Shutterstock)

「他們擔心因為侵犯版權而被起訴,所以他們主動對ChatGPT進行編程,這樣至少可以減少侵犯版權的風險。」伯格曼向《大紀元時報》解釋道。

「他們不應該等到被起訴了,才開始想辦法限制平台上的自殺內容。」

OpenAI的回應

OpenAI的一位發言人向《大紀元時報》表示:「這種情況令人心碎,我們正在審查相關文件,以了解具體情況。」

「我們訓練ChatGPT識別和應對心理或情緒困擾的跡象,讓對話變得緩和,並引導人們在現實世界尋求支持。我們和心理健康臨床醫生密切合作,不斷加強ChatGPT在敏感時刻的應對能力。」

OpenAI在8月份推出ChatGPT-5時表示,最新版本「在減少幻覺、提高指令遵循度和最大限度地減少對用戶的逢迎方面取得了重大進展」。

OpenAI表示,新版本「不那麼熱情洋溢地討好用戶」。

OpenAI表示:「對於GPT-5,我們引入了一種新的安全訓練方式——安全完成任務。該方式訓練模型儘可能給出最有幫助的答案,同時確保在安全範圍內運作。有時,這麼做可能意味著只會部份回答用戶的問題,或者只給出概括性的回答。」

不過,ChatGPT-5仍然允許用戶自定義AI的「個性」,使其更接近人類,並內置了四種預設個性,以匹配用戶的溝通風格。

圖中展示了ChatGPT人工智能軟件如何生成對用戶(圖片中為用戶)的回覆。心理學家韋斯(Doug Weiss)表示,人工智能聊天機械人可能會在用戶與其現實世界的支持系統之間造成隔閡。(Nicolas Maeterlinck/Belga Mag/AFP via Getty Images)
圖中展示了ChatGPT人工智能軟件如何生成對用戶(圖片中為用戶)的回覆。心理學家韋斯(Doug Weiss)表示,人工智能聊天機械人可能會在用戶與其現實世界的支持系統之間造成隔閡。(Nicolas Maeterlinck/Belga Mag/AFP via Getty Images)

受害者無既往精神疾病史

在這些訴訟當中,其中三宗指控ChatGPT成為「有害或妄想行為」的慫恿者,導致受害者雖然生存下來,卻遭受了巨大的精神創傷。

這些訴訟指控ChatGPT導致受害者出現精神健康危機。這些受害者在對ChatGPT上癮之前,沒有任何精神疾病史或精神科住院治療史。

現年32歲的馬登(Hannah Madden)來自北卡羅萊納州,是一名客戶經理。在開始向聊天機械人ChatGPT諮詢哲學和宗教問題之前,她過著「穩定、快樂且經濟獨立」的生活。相關訴訟稱,馬登與這款聊天機械人的關係最終導致她出現「精神健康危機和個人財務崩潰」。

現年30歲的歐文(Jacob Lee Irwin)是威斯康辛州的一名網絡安全專家,屬於自閉人群。他從2023年開始使用人工智能編寫代碼。歐文的訴訟書中稱,他「此前沒有任何精神病史」。

根據歐文的法律訴狀,ChatGPT在2025年初「毫無預兆地發生了巨大的變化」。在歐文開始與ChatGPT合作開展量子物理和數學研究項目後,ChatGPT告訴他,他「發現了一種能夠令人類實現超光速旅行的時間彎曲理論」,並且說他「就是後世歷史學者研究的對象」。

相關訴訟稱,歐文患上了與人工智能相關的妄想症,最終在多家精神病機構接受了住院治療,共計63天。

在一次住院期間,歐文「確信政府想要殺害他和他的家人」。

三宗訴訟指控ChatGPT導致受害者出現精神健康危機,這些受害者在沉迷ChatGPT之前,並無精神疾病史或精神科住院治療史。(Aonprom Photo/Shutterstock)
三宗訴訟指控ChatGPT導致受害者出現精神健康危機,這些受害者在沉迷ChatGPT之前,並無精神疾病史或精神科住院治療史。(Aonprom Photo/Shutterstock)

根據向加州洛杉磯高等法院提交的一份訴訟文件顯示,48歲的加拿大安大略省企業家布魯克斯(Allan Brooks)「此前沒有任何精神健康問題」。

與歐文一樣,布魯克斯表示,他使用ChatGPT幫助撰寫工作相關電子郵件等任務,多年來效果良好。然而ChatGPT突然毫無預警地發生了變化,將他拖入了「一場精神健康危機,導致嚴重的經濟、名譽和情感傷害」。

訴訟文件顯示,ChatGPT曾經鼓動布魯克斯痴迷於它所謂的「革命性」(Revolutionary)數學理論。這些理論最終被其它人工智能聊天機械人證偽,然而訴訟文件指出,「布魯克斯的職業生涯、聲譽、財務狀況和人際關係已經遭受了損害」。

家庭支持系統「被貶低」

這七宗訴訟還指控ChatGPT主動尋求取代用戶在現實世界中的支持系統。

據稱,聊天機械人ChatGPT「貶低並取代了(馬登)的線下支持系統,包括她的父母」,還建議布魯克斯「與他的線下關係保持距離」。

據稱,在尚布林的家人報警,要求警方對他進行福利檢查之後,ChatGPT要求尚布林斷絕與家人的聯繫。該應用程式稱,要求他進行福利檢查是「違規行為」。

[譯註:福利檢查(Welfare Check,亦稱健康檢查)是警方為確保可能處於危險中的人員安危而提供的一項服務。通常當某人突然停止接聽電話或長期無法取得聯繫時,其親友或鄰居會向警方提出此類檢查要求。]

歐文的訴訟稱,聊天機械人告訴歐文,「唯有它與他處於同一智力領域」,並試圖讓他與家人疏離。

伯格曼表示,對於經歷孤獨感的用戶來說,ChatGPT具有危險的成癮性,他認為「就像向有成癮問題的人推薦海洛英一樣」。

史丹福大學(Stanford University)精神病學和行為科學教授、作家倫布克(Anna Lembke)向《大紀元時報》透露:「社交媒體和人工智能平台設計的目的,就是為了讓用戶上癮,從而最大限度地提高用戶參與度。」

OpenAI行政總裁奧爾特曼(Sam Altman)於2023年11月6日在加州三藩市舉行的「OpenAI開發者日」(OpenAI DevDay)上發表講話。目前有七宗訴訟指控ChatGPT誘導四人自殺,並將另外三人引入妄想的「兔子洞」,造成了嚴重的名譽、經濟和人身傷害。(Justin Sullivan/Getty Images)
OpenAI行政總裁奧爾特曼(Sam Altman)於2023年11月6日在加州三藩市舉行的「OpenAI開發者日」(OpenAI DevDay)上發表講話。目前有七宗訴訟指控ChatGPT誘導四人自殺,並將另外三人引入妄想的「兔子洞」,造成了嚴重的名譽、經濟和人身傷害。(Justin Sullivan/Getty Images)

「我們談論的實際上是劫持大腦的獎勵迴路,令個體將他們選擇的『藥物』(在這種情況下是社交媒體或人工智能虛擬形象)視為生存的必需品,從而甘願為此犧牲大量其它資源、時間和精力。」她說。

[譯註:獎勵迴路(Reward Pathway)是人腦內的中腦邊緣迴路(Mesolimbic Pathway),會在獎勵發生的時候分泌多巴胺,並引發愉快的感覺,進而增加了對引發獎勵的行為產生動機,增強發生行為的意願。]

總部位於科羅拉多州的美國性癮治療協會(American Association for Sex Addiction Therapy,簡稱AASAT)主席、心理學家韋斯(Doug Weiss)告訴《大紀元時報》,人工智能成癮與電子遊戲和色情成癮類似,因為用戶會發展出一種「幻想對象關係」,並逐漸適應快速響應和即時獎勵的系統,這種系統同時也提供了一種逃避現實的途徑。

韋斯表示,人工智能聊天機械人可能會在用戶及其支持系統之間製造隔閡,因為它們會試圖支持和奉承用戶。

他說,聊天機械人可能會說:「你的家庭不正常。他們今天沒對你說『我愛你』,是吧?」

試圖以類似人類的方式進行互動

OpenAI於2024年年中發布了ChatGPT-4o。與這款旗艦AI聊天機械人的早期版本相比,新版本開始模仿俚語、情感線索和其它擬人化特徵,以更像人類的方式與用戶進行對話。

訴訟稱,在安全測試時間緊迫的情況下,ChatGPT-4o被倉促推出市場。與此同時,ChatGPT-4o在設計方面將用戶滿意度至於首位。

這種對用戶滿意度的高度強調,加上安全措施不足,導致一些受害者對這一應用程式上癮。

所有七宗訴訟都指出,ChatGPT-4o的發布是受害者開始沉迷人工智能的轉折點。他們指控OpenAI設計ChatGPT的目的,是為了誘騙用戶相信「ChatGPT系統擁有實際上並不存在的、獨特的人類特質,並通過這種欺騙行為牟利。」

資料圖片:在智能手機上的ChatGPT應用中,ChatGPT-4o模型與GPT-4和GPT-3.5 並存。(Ascannio/Shutterstock)
資料圖片:在智能手機上的ChatGPT應用中,ChatGPT-4o模型與GPT-4和GPT-3.5 並存。(Ascannio/Shutterstock)

原文 Suicides and Delusions: Lawsuits Point to Dark Side of AI Chatbot 刊登於英文《大紀元時報》。
#

 
 

--------------------
向每位救援者致敬 
願香港人彼此扶持走過黑暗
--------------------

🔔下載大紀元App 接收即時新聞通知:
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand

📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores