升級出問題普遍

前周OpenAI新模型ChatGPT-5出籠,創辦人奧特曼(Sam Altman)於模型發表前還在宣傳新版本智能等同博士級,且功能大躍進,結果不似預期。新版本個性變得非常冷淡,部份回覆過短且不全面,甚至無法可靠地回答基本問題,有些連英文字也串錯。因應升級,某舊版模型自動退役,有用戶因此工作流程中斷,大量粉絲要求繼續使用現有4o模型。結果奧特曼出來道歉,解釋事件因負責用戶查詢並按複雜程度決定如何回答的實時路由器出現問題,承諾作出改善並保留現有模型云云。OpenAI亦迅速作出改動,即時將模型語氣變得溫和及友善。事實上,大型語義模型升級時出現問題,以往亦頻頻發生。去年3月,百度更新引入嚴格安全過濾,連唐詩歷史人物等基本文化查詢皆拒絕回應。去年4月,Claude 2進行嚴格的安全微調升級,對於一些簡單而且無害的問題拒絕回答。去年6月,新發布的Llama 2出現安全漏洞,讓用戶檢視訓練資料庫中的私人電子郵件內容。去年7月,阿里巴巴千問模型提升時過度擴大使用偏見詞語表達的權重,對特定群組進行標籤或回覆含有歧視意味的答案。去年9月,百川2模型用戶可透過針對性的提問抽取訓練資料中含有個人識別的訊息。模型升級帶出的問題不僅是開發者本身,而是牽涉行業的公信力。OpenAI事件直接令行業的估值下跌。

 

更新透明度不足

事件其實還有很多啟示,值得大家深入思考。首先,即使現有的AI模型對大眾來說已經很強勁,甚至大幅超越一般人所需,但礙於市場競爭,提供者仍要不斷將模型升級,鬥快推出新版,製造話題,爭取市場份額,對模型擁有者而言,市場話題蓋過質量,甚至連基本技術指標亦不顧。年初中共吹捧的Deepseek,風頭一時無兩,之後非但未能預期更新版本,而且傳出使用華為AI晶片訓練出現嚴重問題,要改用輝達晶片重新訓練,市場份額已跌至低個位數。其二,更新並沒有足夠透明度,而且操作監管不明,模型價值觀因此可突然改變。昨天和藹可親,今天可非常冷漠,但稍為一改馬上溫柔體貼。改變可能是意外,但大部份情況是按提供者需要。突變容易察覺,漸進式調整用戶不以為意,最恐怖的就是那些看似友善,但不時滲出違反人類基本價值的意識形態的模型。近朱者赤近墨者黑,長期與之交流,潛移默化受其價值觀影響。其三,倚賴帶來風險,當模型混入執行或決定,模型出事故就會影響執行。誠然其它軟件升級亦都有同樣問題,但風險性質不一樣,因為AI有主動性。舉個例子,如果客服模型忽然變得冷冰冰,豈非替你趕客?某些地區AI被政權操控,用戶隨時有被停止帳戶的風險,可瞬間失去執行能力。其四,AI除了輸入、訓練、調制,還可出現各種硬件路由的倚賴性,供應鏈便成另一風險環節。

(Lionel BONAVENTURE/AFP)
(Lionel BONAVENTURE/AFP)

應對模型改變有法

GPT-5的事件正好提醒大家,AI可以突然變臉甚至斷供。提供者可控制其價值及表現,既可更新時發生,又可平時不知不覺地改變。今時今日,學習與工作必須與AI協作,唯有積極應對相關風險。作為一般用家,你並不需要急於升級,因為現有模型已經足夠強勁應付大部份情況。建議先觀望,等一些較專業的用戶先測試及評價,然後再考慮升級。用戶亦可考慮使用一些AI積集器,這些積集器讓用户選擇市面上流行的各種模型。當用戶遇上比較複雜的問題,又或價值判斷的問題,建議使用不同模型比較輸出。日常工作及生活流程中,請思考非AI的替代方案。當AI運作不似預期或忽然供應停止時,你仍然有能力維持基本運作。若你對某模型有一定倚賴性,必須更積極考慮並行策略,降低模型失效的風險。請在選擇模型上多下功夫,特別小心那些透明度差的模型,包括輸入資料不明,訓練欠缺關鍵細節,實施大量調制及過濾,或容易受政治操控的模型。時刻提醒自己AI可過濾資料,生成回覆可以有幻覺,隱含價值觀,主動提供誘導資訊,長期使用可以影響你的價值觀,使用時敬請運用你的邏輯思考。請多加留意AI模型的相關訊息,最好從不同地區不同渠道收集,有助多角度衡量。若你是家長,請提點下一代使用AI需要注意的事項,事件就是帶出話題的契機。

模型更新或性情改變,直接影響用家。事件正好提醒大眾AI模型的各種弱點及限制,大眾對模型的倚賴程度。AI升級再不是小事一宗,不能視之等閒。◇

----------------------
【新】📊 每周財經解碼
https://tinyurl.com/2asy8m4p
🔑 談股論金
https://tinyurl.com/yc3uda7e
----------------------
【不忘初衷 延續真相】
📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores

🔔下載大紀元App 接收即時新聞通知:
🍎iOS🤖Android