頂尖專家擔憂有因
上期談到AI教父班吉奧(Yoshua Bengio)擔心AI已演化出代理特徵,即懂得欺詐狡辯,甚至啟動自我保護以避免被取代,警告人類有滅絕的風險,呼籲暫停AI模型改進6個月,並設立圍欄限制具危險性的代理AI行為。無奈人工智能已經走進大國博弈及商業化的巨輪,班吉奧的呼籲不但無人理會,期間AI更加速進化。有見及此,世界數百名頂級AI專家,包括OpenAI創辦人奧特曼,谷歌DeepMind首席執行官夏沙比斯等,上月再就AI威脅聯署發表聲明,今次字眼更沉重,除了對AI失控表達極度擔憂,重申AI可為人類帶來滅絕性風險,而應對相關風險應與全球疾病大流行及核戰風險同級,全球必須優先考慮應對。他們敦促政策制定者設立護欄,確保AI發展及應用符合人類福祉及基本價值。AI對人類當然有很多正面貢獻,但同時要防控風險及負面應用。可惜潘朵拉盒子已經打開,人工智能模型已經全面擴散,落入不當人的手中。違反基本價值的使用已列之不盡:生產假資訊假媒體假帳戶、系統性虛假宣傳、色情媒體文章泛濫、欺凌、起底,侵犯知識產權,侵犯私隱、開發傳統及生化武器、全方位監控、黑客攻擊、破解密碼、竊取資訊、洗腦、基因編改、AI訓練AI令上述更快更強 ⋯⋯上述已是明目張膽地進行。
AI基本運作你要知
AI還有非常隱晦的一面,讓製作者輕易掩飾及隱藏其威脅。要了解這一方面,請讓筆者花點篇幅解釋AI模型的構建及運作。事實上,對一般用家而言,AI已全方位走進電子裝置、日常生活及工作,了解其基本運作概念實屬必要,情況等同使用一個複雜的工具前你一定仔細閱讀說明書。不幸地AI並沒有一份大眾看得懂的說明書,筆者花了不少時間研究才只能掌握部份。首先你要知道AI並不是以傳統數據庫模式搜尋答案,而是按最大機率預測回答序列。模型先將你的輸入變成代碼(Tokenized),然後透過一個權重矩陣算出預測,然後再將代碼變回文字。例如你問「愛因斯坦哪年出生」,模型將你的查問分拆成「愛因斯坦」「年」「出生」的代碼,經過權重矩陣,得出最大概率是「1879年」的代碼。關鍵就是這個權重矩陣,而生成這個權重矩陣有「三部曲」。第一部是大量「閱讀」資訊,將資料代碼化,找出聯繫並在數學上表達。繼續上述例子,模型在「閱讀」過程中重複看到「愛因斯坦」「出生」「1879年」的代碼出現,三者就有很強的關聯,變成一個很高的比重。權重矩陣非常龐大,一般模型普遍是千億個參數,據聞GPT4模型達到一萬億。這個「閱讀」過程只能建立一個基本對文字結構的了解及一些事實的關係,但並不知道甚麼才是正確或者是有用的回答,亦不知道人的取向價值,尤其是對於一些較開放的、主觀性或價值觀衝突等問題,情況類似一個學生將圖書館所有書都背熟,但並沒有學習如何回答考試問題。
人員訓練及調制過濾
第二部就是監督微調訓練 (Supervised Fine Tuning SFT),協助模型解決一些較複雜的推論及價值觀調校,尤其是針對較開放式的或較主觀的提問。做法是先預設大量問題及理想答案,將問題輸入模型,然後將模型推斷的答案與理想答案比較,將權重不斷修正,直至得出接近理想答案的結果。之後便進行更深入的訓練,即反饋強化學習(Reinforcement Learning from Human Feedback RLHF),訓練人員直接參與並按照模型回答給予評分或偏好排序,目的是針對回答的實用性、內容風險及價值觀評估。回答反映訓練人員的偏好,評分越高代表人員喜歡這個回答。模型按評分將權重矩陣進一步修正。最後一步是加上調制(Modulation MOD),主要目的是用作監控及調控模型輸出,避免明顯不當回覆及失誤,又或進行文本過濾,屏蔽關鍵或敏感詞彙,對某些輸入不作回答或強加申述。亦可進行輸入改進,調整輸出的風格,將輸入加上一些額外描述,增加回答的多樣性,方向性或限制。某些用戶使用語言模型曾經遇過一些詭異的情況,例如當輸入「某年某月某日某廣場發生甚麼事?」,模型陸續輸出一些回答,又忽然全部刪去,然後回答「我們聊聊別的吧!」這就是MOD因應輸出進行過濾的結果。
上述只是基本概念,AI的實際構建及運作複雜很多。若讀者未能完全理解上述不要緊,先記著那「三部曲」:閱讀、訓練及調制,下回繼續拆解這「三部曲」如何無聲無息地演化及被操控。◇
----------------------
♠️中美關係藏暗湧♦️
1️⃣ 美國境內的秘密戰爭
https://tinyurl.com/bdhrdnt7
2️⃣ 跨國鎮壓技倆一覽
https://tinyurl.com/4xst7r2d
3️⃣ 評論:習近平實權暗地移交 新決策層如何抉擇?
https://tinyurl.com/3c8h2d9n
----------------------
【不忘初衷 延續真相】
📰周末版復印 支持購買👇🏻
http://epochtimeshk.org/stores