隨著人工智能(artificial intelligence,簡稱AI)浪潮席捲全球,無論是大型企業還是小型公司都開始引入AI技術。專家們對此警告稱,數據安全問題變得日益嚴峻。

總部位於紐約的跨國商業諮詢公司麥肯錫公司(McKinsey & Company)5月份發布的一份題為「人工智能既是當今網絡安全領域最大威脅,亦可作為防禦手段」(AI is the greatest threat—and defense—in cybersecurity today. Here’s why,05/15/2025)的報告顯示,隨著人工智能能力的加速發展,網絡安全和私隱專家警告稱,已有的能夠檢測欺詐、保護網絡或匿名記錄的模型,同樣可以被用於身份推斷、將剝離的細節重新組合以及洩露敏感訊息等功能。

總部位於愛爾蘭首都都柏林的跨國管理諮詢公司埃森哲(Accenture)發布的《2025年網絡安全韌性報告》(State of Cybersecurity Resilience 2025)指出,90%的公司缺乏足夠的現代化技術能力,以抵禦人工智能所帶來的威脅。該報告徵詢了來自17個國家/地區24個行業的2,286位安全和技術高管的意見,就防範人工智能網絡攻擊能力的現狀提供了專業的見解。

今年迄今為止,總部位於加州的身份盜竊資源中心(Identity Theft Resource Center,簡稱ITRC)已經確認了1,732宗數據洩露事件。該中心還指出,「基於人工智能的網絡釣魚攻擊持續增多」,攻擊手段也更為複雜,檢測難度也隨之加大。受數據洩露困擾的主要行業包括金融服務、醫療保健和專業服務。

「當一項技術以驚人的速度進行部署時,這就是它所帶來的可以預見的後果,因為出台相應的組織制度、監管規定以及提高用戶警惕性的速度往往跟不上技術發展的速度。考慮到大多數生成式人工智能系統的基本設計模式,這樣的結果幾乎是不可避免的。」總部位於華盛頓特區的網絡安全公司「維拉安全」(VeraSafe)高級私隱顧問Danie Strachan向《大紀元時報》解釋道。

由於人工智能系統需要通過吸收大量的訊息來進行訓練,不可避免會產生漏洞。

「通常,當員工出於好意向人工智能系統提供敏感的業務數據(無論是戰略文件、機密客戶資料還是內部財務記錄)時,這些訊息就會被吸收到一個公司幾乎無法控制的系統當中。」Strachan說。

如果公司使用的是這些人工智能工具的消費者版本,並且未啟用保護措施,這種情況尤為明顯。

Strachan說:「這很像你將機密文件釘在公開的公告欄上,卻希望沒有人去複製它們。」

2025年2月20日,英國倫敦,Grok、DeepSeek和ChatGPT應用出現在智能手機屏幕上。今年迄今為止,身份盜竊資源中心已確認1,732宗數據洩露事件。(Justin Tallis/AFP via Getty Images)
2025年2月20日,英國倫敦,Grok、DeepSeek和ChatGPT應用出現在智能手機屏幕上。今年迄今為止,身份盜竊資源中心已確認1,732宗數據洩露事件。(Justin Tallis/AFP via Getty Images)

多方面安全威脅

個人數據落入不法之徒手中,或被人工智能工具洩露的方式其實是多種多樣的。大眾熟知的方式包括黑客進行的攻擊和盜竊,但是還有另一種方式,研究人員稱為「私隱洩露」(privacy leakage)。

可以公開訪問的大型語言模型(Large Language Model,簡稱LLM)是導致訊息洩露或「外流」的常見方式。

今年,據總部位於加州的軟件公司「黑曜石安全」(Obsidian Security)稱,一位安全研究人員發現,總部位於加州三藩市的互聯網檔案館(Archive.org)網站上,公開了143,000條來自流行LLM模型(包括ChatGPT、Grok、Claude和Copilot)的用戶查詢和對話記錄。

黑曜石安全公司的報告指出:「近期剛剛披露ChatGPT的查詢記錄被Google等搜索引擎收錄索引,這個發現就緊隨其後。此類事件持續引發更廣泛關切,公眾擔心使用人工智能平台時無意中洩露數據以及敏感訊息。」

「風險最高的情況是團隊成員與面向公眾的人工智能工具進行互動,無意中洩露了敏感數據。」Strachan說。

他補充,由於使用大型語言模型完成工作任務的人數眾多,因此面臨風險的不僅僅是個人數據,還有機構訊息。

「隨著多模態人工智能的出現,洩漏風險將擴展到機構的文檔、電子表格、會議記錄、錄音以及影片內容。這些數據一旦共享,就可能被用於訓練未來的模型,並可能在回答其它用戶(包括競爭對手)的查詢時出現在查詢結果中。」Strachan說。

但是數據洩露並非只發生在大型語言模型階段。人工智能聊天機械人幾乎可以訪問整個數字世界各個方面的訊息。

遊戲伺服器託管公司「鬼帽」(GhostCap)的聯合創始人佩德羅蒂(Michael Pedrotti)向《大紀元時報》表示:「我在第三季度記錄了47宗遊戲平台數據洩露事件,其中絕大多數與擁有無限制訪問後端權限的AI聊天機械人有關。」

OpenAI行政總裁奧爾特曼(Sam Altman)在2023年11月6日於加州三藩市舉行的OpenAI DevDay活動上發表講話。今年,一位安全研究人員發現,來自熱門LLM模型(包括 ChatGPT、Grok、Claude 和 Copilot)的14.3萬條用戶查詢和對話在互聯網檔案館網站(Archive.org)上公開。(Justin Sullivan/Getty Images)
OpenAI行政總裁奧爾特曼(Sam Altman)在2023年11月6日於加州三藩市舉行的OpenAI DevDay活動上發表講話。今年,一位安全研究人員發現,來自熱門LLM模型(包括 ChatGPT、Grok、Claude 和 Copilot)的14.3萬條用戶查詢和對話在互聯網檔案館網站(Archive.org)上公開。(Justin Sullivan/Getty Images)


佩德羅蒂表示,企業在部署人工智能系統方面感受到越來越大的壓力,這會導致安全「災難」。

「企業在沒有設置充份的隔離層的情況下,就將人工智能直接與客戶數據庫關聯起來。那些堅持要在幾周內完成人工智能部署的高管實際上是在敷衍了事。」他說。

「結果是人工智能系統可以訪問所有的訊息,包括用於支付的銀行卡訊息以及個人的通訊消息等,完全沒有相應的監督或記錄政策。」

佩德羅蒂多年來一直致力於網絡安全基礎設施的研究。他認為,最危險的數據私隱盲點是他所說的「向量嵌入」(vectors embeddings)。向量嵌入是指將文字、圖像或音頻等數據的表現形式轉換為數碼化「向量」(vectors),從而使人工智能模型可以通過將相似的數據點放置得更緊密,對複雜的訊息進行處理和解讀。

「這些文本的數學編碼看起來是匿名的,但是個人數據卻是可以完全檢索的。」佩德羅蒂說。

佩德羅蒂表示,目前,不可能像傳統數據庫那樣,刪除人工智能模型中的記錄,因為這些訊息是永久嵌入的。

「我甚至發現,公司員工在職場聊天軟件Slack上刪除了原始消息幾個月後,仍然可以查到他們與AI助手所進行敏感討論內容。這些訊息已經被整合到AI的基本框架中。」他說。

總部位於維珍尼亞州的「道諾瑪軟件」(Donoma Software)首席戰略官Parker Pearson向《大紀元時報》表示:「人工智能的潛在優勢,尤其是在提升利潤方面的作用,正促使各組織機構爭相湧入這個潮流,以搶佔先機。」

她表示,在之前的其它技術熱潮出現時,也曾經看到過這種模式。

「這些』技術熱潮』有一個共同點:那些通常會對安全產生直接影響的重要細節,在當時卻經常被視而不見或斷然否定。」皮爾森說。

2025年3月18日,華盛頓特區,一名男子正坐在手提電腦前。最近一項針對1,000名美國成年人的調查顯示,84%的互聯網用戶存在「不安全」的密碼習慣,例如使用個人資料來設置密碼。(Madalina Vasiliu/The Epoch Times)
2025年3月18日,華盛頓特區,一名男子正坐在手提電腦前。最近一項針對1,000名美國成年人的調查顯示,84%的互聯網用戶存在「不安全」的密碼習慣,例如使用個人資料來設置密碼。(Madalina Vasiliu/The Epoch Times)

採取行動刻不容緩

Pearson認為,如果不採取更主動的應對措施,情況將會進一步惡化。

她說,從個人層面來說,人們需要學習良好的網絡安全操作實踐。設置加強型密碼和使用多因素身份驗證(multi-factor authentication),這些操作對一些人來說是常識,但是有證據表明,大多數互聯網用戶在數字世界的操作實踐差強人意。

總部位於佛羅里達州的網絡安全公司All About Cookies最近對1,000名美國成年人進行了一項調查,結果顯示84%的互聯網用戶存在「不安全」的密碼使用習慣,例如使用個人資料作為密碼。在同一組別中,50%的受訪者表示,他們會重複使用密碼,59%的受訪者表示至少與他人共享了一個帳戶密碼,例如在串流媒體平台上,或是使用銀行賬戶的時候。

Pearson表示,現在是時候不要再相信,科技公司會恪守它們在數據私隱聲明中的承諾。

「我們要開始學會在自動提交個人身份訊息之前,先多問一些問題。要著手推動問責制。」她說。

「遭受數據洩露的機構會為受害人提供12個月的身份監控服務,這樣做遠遠不夠。坦率地說,接受這種補救措施本身就令人反感。」

Pearson認為,未能維持數據信任的機構應該支付更高的罰款,因為他們的客戶可能會終身受到影響。

大多數網絡安全專家都認為,用戶在使用人工智能時保持警惕和明智很重要,但是Strachan表示,當涉及到人工智能數據私隱時,大部份責任在於企業端。

「降低人工智能風險的責任應該由企業來承擔。他們必須實施計劃提升員工的安全防範意識,培訓員工把每個提示都當成是發到日報頭版的電子郵件。」他說。

Strachan認為,為了降低風險,企業應該部署設置為禁用訓練、限制數據保留並嚴格控制訪問權限的企業人工智能工具。他指出人工智能將私隱管理風險面「爆炸式擴大」,隨著技術的發展,私隱管理的風險面將變得更加複雜。

2025年3月3日,在西班牙巴塞隆拿舉行的全球最大的移動通訊博覽會——世界移動通訊大會(Mobile World Congress)上,人們參觀韓國SK集團(SK Networks)的人工智能數據中心。隨著人工智能系統的不斷發展,美國和歐盟已開始著手解決數據安全問題。(Manaure Quinter/AFP via Getty Images)
2025年3月3日,在西班牙巴塞隆拿舉行的全球最大的移動通訊博覽會——世界移動通訊大會(Mobile World Congress)上,人們參觀韓國SK集團(SK Networks)的人工智能數據中心。隨著人工智能系統的不斷發展,美國和歐盟已開始著手解決數據安全問題。(Manaure Quinter/AFP via Getty Images)

立法的速度也正在被日益先進的人工智能系統的發展速度所超越,這些系統目前正在利用私隱領域的灰色地帶。

「人工智能企業正在利用私隱立法的巨大漏洞。在他們看來,模型訓練不屬於數據存儲,這意味著它們根本不需要刪除那些數據。」佩德羅蒂說。

他關注了一些公司將人工智能的培訓業務轉移到海外的案例,具體來說是為了避免要遵守國內的相關法規,同時也避免向相同的用戶提供服務。

「使用跨司法管轄區模式會產生漏洞。」他說。

「現有的法律側重於數據收集方面,但是並未解釋人工智能如何處理這些數據並將其永久地納入算法中。」

Pearson表示,當前人工智能立法中容易被利用的一些「漏洞」包括跨境訊息流、訓練數據、網絡抓取、算法決策和第三方數據共享等。

Strachan也表達了同樣的擔憂。「監管延遲正在造成責任認定的模糊性,這樣很危險……這會產生威脅行為者可以鑽空子的灰色地帶,尤其是在跨境的情況之下,司法管轄權的缺口會令問題變得更嚴重。」他說。

在人工智能系統不斷推進的過程中,美國和歐盟已經開始解決數據安全問題。

白宮的2025年人工智能行動計劃(2025 AI Action Plan)強調了加強關鍵基礎設施網絡安全的必要性。報告指出,人工智能系統容易受到數據中毒(data poisoning)和私隱攻擊(rivacy attack)等對抗性輸入的影響。

歐盟官員也持類似立場。官員們指出,大型語言模型缺乏適當的安全保障,可能導致用於訓練人工智能模型的敏感資訊或私人資料遭到洩露。#

原文:How AI Is Becoming Weak Link in Cybersecurity刊登於英文《大紀元時報》。

----------------------
【新】📊 每周財經解碼
https://tinyurl.com/2asy8m4p
🔑 談股論金
https://tinyurl.com/yc3uda7e
----------------------
【不忘初衷 延續真相】
📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores

🔔下載大紀元App 接收即時新聞通知:
🍎iOS🤖Android