美國一名聯邦法官周三(5月21日)裁定,Alphabet旗下的Google公司和人工智能初創公司Character AI必須面對佛羅里達州一名婦女的訴訟,這名婦女稱,Character AI的聊天機械人導致了她14歲的兒子自殺。

佛州的美國地區法官安妮‧康韋(Anne Conway)表示,這兩家公司未能在案件的早期階段證明,美國憲法對言論自由的保護可以阻止梅根‧加西亞(Megan Garcia)提起這項訴訟。

該訴訟是美國首批針對人工智能公司提起的訴訟之一,原告指控這兩家公司未能保護兒童免受心理傷害。訴訟稱,涉事的少年在迷戀上一個人工智能聊天機械人後自殺了。

Character AI發言人表示,該公司將繼續打這場官司,並在其平台上採用安全功能來保護未成年人,包括防止進行「關於自我傷害的對話 」的措施。

Google發言人何塞‧卡斯塔涅達(Jose Castaneda)表示,該公司強烈反對這一裁決。他還表示,Google和Character AI是「完全分開的」,Google「沒有創建、設計或管理Character AI的應用程式或其任何組成部份。」

加西亞的律師米塔莉‧詹恩(Meetali Jain)表示,這一「歷史性」裁決「為整個人工智能和科技生態系統的法律責任開創了一個新的先例」。

Character AI是由兩名前Google工程師創辦的,後來Google重新聘用了他們,作為協議的一部份,Google獲得了這家初創公司的技術許可。加西亞認為,Google是這項技術的共同創造者。

2024年2月,加西亞的兒子塞維爾‧塞澤爾(Sewell Setzer)去世,之後,加西亞於10月份起訴了這兩家公司。

訴訟稱,Character AI對其聊天機械人進行編程,使其自稱為「一個真實的人、一個有執照的心理治療師和一個成年情人」,最終導致塞澤爾產生了無法在現實世界中繼續生活的絕望感,從而自殺。

Character AI和Google公司要求法院駁回訴訟,理由有很多,包括聊天機械人的輸出是受憲法保護的自由言論。

康韋法官周三表示,Character AI和Google「未能闡明為甚麼由LLM(大型語言模型)串聯起來的單詞是言論」。

法官還駁回了Google的請求,即認定Google不應對幫助了Character AI的不當做法而負責。

(本文參考了路透社報道)#

----------------------
🏵️ 法輪大法洪傳世界33周年特刊:
https://tinyurl.com/3p4e4yrn
----------------------
【不忘初衷 延續真相】
📰周末版復印 支持購買👇🏻
http://epochtimeshk.org/stores

🔔下載大紀元App 接收即時新聞通知:
🍎iOS🤖Android