美國一名聯邦法官周三(5月21日)裁定,Alphabet旗下的Google公司和人工智能初創公司Character AI必須面對佛羅里達州一名婦女的訴訟,這名婦女稱,Character AI的聊天機械人導致了她14歲的兒子自殺。
佛州的美國地區法官安妮‧康韋(Anne Conway)表示,這兩家公司未能在案件的早期階段證明,美國憲法對言論自由的保護可以阻止梅根‧加西亞(Megan Garcia)提起這項訴訟。
該訴訟是美國首批針對人工智能公司提起的訴訟之一,原告指控這兩家公司未能保護兒童免受心理傷害。訴訟稱,涉事的少年在迷戀上一個人工智能聊天機械人後自殺了。
Character AI發言人表示,該公司將繼續打這場官司,並在其平台上採用安全功能來保護未成年人,包括防止進行「關於自我傷害的對話 」的措施。
Google發言人何塞‧卡斯塔涅達(Jose Castaneda)表示,該公司強烈反對這一裁決。他還表示,Google和Character AI是「完全分開的」,Google「沒有創建、設計或管理Character AI的應用程式或其任何組成部份。」
加西亞的律師米塔莉‧詹恩(Meetali Jain)表示,這一「歷史性」裁決「為整個人工智能和科技生態系統的法律責任開創了一個新的先例」。
Character AI是由兩名前Google工程師創辦的,後來Google重新聘用了他們,作為協議的一部份,Google獲得了這家初創公司的技術許可。加西亞認為,Google是這項技術的共同創造者。
2024年2月,加西亞的兒子塞維爾‧塞澤爾(Sewell Setzer)去世,之後,加西亞於10月份起訴了這兩家公司。
訴訟稱,Character AI對其聊天機械人進行編程,使其自稱為「一個真實的人、一個有執照的心理治療師和一個成年情人」,最終導致塞澤爾產生了無法在現實世界中繼續生活的絕望感,從而自殺。
Character AI和Google公司要求法院駁回訴訟,理由有很多,包括聊天機械人的輸出是受憲法保護的自由言論。
康韋法官周三表示,Character AI和Google「未能闡明為甚麼由LLM(大型語言模型)串聯起來的單詞是言論」。
法官還駁回了Google的請求,即認定Google不應對幫助了Character AI的不當做法而負責。
(本文參考了路透社報道)#
----------------------
🏵️ 法輪大法洪傳世界33周年特刊:
https://tinyurl.com/3p4e4yrn
----------------------
【不忘初衷 延續真相】
📰周末版復印 支持購買👇🏻
http://epochtimeshk.org/stores