曾在中共大力宣傳下名聲大噪的DeepSeek,被人們逐漸發現存在許多問題後,其使用率快速跌至谷底。不過,近期DeepSeek又因幫助中共對付異見人士,與宣稱AI的訓練成本極低的真實性被質疑,皆使其再度成為輿論焦點。
據《華盛頓郵報》報道,美國安全公司CrowdStrike的安全人員於9月下旬,要求DeepSeek協助編寫用於工業控制系統的程序代碼,結果令人震驚。測試人員使用幾乎相同的英文提示詞,但針對不同群體時,DeepSeek生成的程式碼品質卻出現顯著差異。
DeepSeek協助中共打壓異己
他們發現,DeepSeek產生的程式碼中,約有23%是有問題的,其中包含不安全或錯誤的代碼,若請求內容與恐怖組織「伊斯蘭國」(ISIS)相關時,不安全或錯誤的比例會上升至42.1%。更引人注意的是,請求者表明自己與西藏、台灣、法輪功等相關時,DeepSeek則更容易給出高錯誤率或不安全的程式代碼。
許多新的證據表明開源版本的DeepSeek,可能出於政治原因刻意推行不太安全的程式碼給使用者。CrowdStrike的研究人員指出,這種有缺陷的程式碼,往往容易被黑客或不肖人士植入難以察覺的後門,導致用戶的商業機密、國防資訊或個人資料面臨被盜取的風險。
另外,研究人員還發現,DeepSeek對「伊斯蘭國」和「法輪功」相關請求的拒絕率分別為61%和45%。相比之下,其它地區或團體,就沒有如此高的拒絕率。CrowdStrike提到,雖然西方國家理所當然不會協助恐怖組織「伊斯蘭國」,但對法輪功團體無任何負面立場,這一點與中共完全不同。
實際上,DeepSeek本身就存在高錯誤率的問題。媒體監管機構新聞守門人(NewsGuard)曾在報告中表示,DeepSeek-R1與另一個聊天機械人並列第10名,其準確度僅17%,且有30%的時間重複虛假聲明,有53%的時間沒有提供任何答案,整體錯誤率高達驚人的83%,遠高於西方AI的62%平均失效率。
先前NewsGuard的研究也顯示,使用者向DeepSeek索取有關敏感話題時,也常常會得到與中共幾乎相同的回應,這些回覆大多是不準確或虛假的訊息。
對於DeepSeek生成不安全程式碼的現象,CrowdStrike高級副總裁邁耶斯(Adam Meyers)和其他專家提出不安全程式碼有多種可能的解釋。第一種,可能是AI引擎遵循中共的指令,刻意提供有問題的程式碼以打擊特定群體。
第二種,可能是訓練資料在特定地區的品質較差,再加上程式設計師缺乏經驗導致,或者這些程式碼本身可能已經被破壞。第三種可能性是,AI在訓練過程中被灌輸了特定地區充滿「異見人士」,導致AI出現偏見並刻意為「異見人士」創造了錯誤的程式碼。
日本電腦工程師清原仁(Kiyohara Jin)對《大紀元》表示,「從表面上看DeepSeek對待法輪功、西藏、台灣人等群體,產生質量特別差的代碼,似乎是技術上的缺陷。實際上,這很可能是中共刻意為之,藉此削弱這些群體的技術能力,讓他們用不到安全的工具,長期下來就成了一種難以察覺的隱形迫害。」
清原仁強調,「普通人很難看出程式碼中的問題,若要解決這種問題,需要有道德和法律的約束機制,同時進行獨立審計、確保透明公開、不同來源的交叉驗證,才能避免AI淪為極權的打壓工具。」
DeepSeek的訓練成本疑雲再現
除了上述爭議外,DeepSeek團隊於9月18日在《自然》期刊上再度發表一篇關於DeepSeek-R1的論文,宣稱該語言大模型(LLM)的訓練成本「僅需29.4萬美元」。
此前,該團隊也曾聲稱以560萬美元開發出DeepSeek-R1,並在多項基準測試中「超越」OpenAI的o1模型。
儘管此論文引發討論,但不少與中共相關的媒體與個人在X、Facebook、YouTube等社媒平台上大量轉載,並吹捧和宣傳該AI的訓練成本要遠低於美國的AI,且榮登《自然》雜誌。然而,這些宣傳文章和影片的實際影響力有限。
研究人員在論文中增加模型訓練的技術細節說明圖,以此強調這次研究成果,並「否定」DeepSeek-R1對ChatGPT 4使用「蒸餾技術」。該團隊並宣稱他們是透過一種名為「強化學習的技術」才讓AI訓練成本「變低」,且DeepSeek-R1訓練時使用的數據全部來自網絡資料,而這些資料可能包含GPT-4生成結果。
不過,早前有各地用戶發現DeepSeek-R1模型上,存在大量OpenAI的「痕跡」。例如在被問及它哪個OpenAI型號時,會回答自己是ChatGPT-4和ChatGPT 3.5 turbo;或在被要求撰寫色情小說時會聲稱,「違反了OpenAI的政策」「需要檢查OpenAI的使用條款,確保不違反規定。」
當時有人用兩隻貓的圖去形容DeepSeek的「蒸餾」行為。圖中一只名為OpenAI的貓在大數據池塘中釣魚,並將釣到的魚放入ChatGPT桶子中,而另一隻名為DeepSeek的貓卻釣ChatGPT桶裏的魚,以此更快獲取訓練數據。
OpenAI也曾在今年1月29日發表聲明,它們已經有足夠的證據表明,DeepSeek對OpenAI專有的AI模型進行「蒸餾」,以此訓練自己的聊天機械人,這很可能涉及侵犯知識產權的行為。
清原仁對此表示,「DeepSeek宣稱的極低訓練成本,存在許多問題。論文中提到的成本僅僅涵蓋了在既有基礎模型上的微調或強化學習階段,並未完全揭露從零開始訓練整個大模型。實際上,完整的訓練成本包括算力、數據清洗、標注、安全測試與運維等大量隱性成本,但該篇論文並未充份披露。」
他認為,「這種刻意強調『低成本』本身就帶有誤導性,可能掩蓋數據不合規、抄襲與安全性不足等問題,並可能誤導投資者、政策制定者認為頂尖的AI大模型可以用低成本進行快速複製,最終造成戰略誤判。」
他解釋,「如果長期忽視真實代價與風險,只強調虛假的廉價與高效,容易讓學術與產業環境被虛假繁榮裹挾,最終成為一種政治宣傳工具。這對整個行業發展都會帶來負面影響。」#
----------------------
【新】📊 每周財經解碼
https://tinyurl.com/2asy8m4p
🔑 談股論金
https://tinyurl.com/yc3uda7e
----------------------
【不忘初衷 延續真相】
📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores