我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

川普與馬斯克「交易式」關係 1個要影響力 1個要忠誠顧問

川普上任祭出關稅前 零售業建議先買這些商品

AI威脅宛如「魔鬼終結者」 恐比氣候變遷更迫切

AI前進的腳步愈來愈快,讓科學家憂心AI有朝一日超越人類,造成人類滅絕。 (美聯社)
AI前進的腳步愈來愈快,讓科學家憂心AI有朝一日超越人類,造成人類滅絕。 (美聯社)

自美國人工智慧AI)研究實驗室OpenAI推出生成式AI ChatGPT後,AI前進的腳步愈來愈快,讓科學家憂心AI有朝一日超越人類,造成人類滅絕。AI研究先驅辛頓日前接受路透訪問時說,只要停止碳排,氣候變遷情況就會好轉;但對於AI,人們卻無所適從,AI的威脅甚至比氣候變遷更迫切。

ChatGPT推出後短短2個月內,每月活躍用戶達1億人次,成為史上用戶成長最快的應用程式,之後OpenAI又陸續推出GPT-2至GPT-4等語言模型。但包括OpenAI創始人馬斯克、蘋果共同創辦人沃茲尼亞克及Stability AI執行長莫斯塔克等人,卻聯名警告AI系統能與人類競爭,恐造成政經混亂,進而對社會與文明帶來潛在風險。

信中呼籲,所有AI實驗室應立即暫停至少6個月訓練比GPT-4更高階的AI系統。AI實驗室與獨立專家利用這段時間,共同研發、實施共享安全協議,並由獨立外部專家審核、監督該協議。

2018年過世的英國知名天文學家霍金曾說,AI能自行發展,以愈來愈快的速度重新自我設計,人類卻受限於緩慢的生物進化,無法與AI競爭。AI全面發展可能意味人類的終結。

透過深度學習,AI擁有比人類還快的演化能力。AI不似人類會歷經死亡,並更出色地交流知識。AI透過大數據學習而更聰明,這段過程需要更多的資源與資料,不同的AI系統因此競爭資源,這如同生物演化一般,最終可能超越人類。

此外,AI研發進程可概分為弱人工智慧(ANI)、通用人工智慧(AGI)及超級AI三大階段。在ANI階段,由於僅能模仿人類,進行單一且重複性的工作,無法自己做決定,僅引發取代人類工作的疑慮。

牛津大學人工智慧倫理研究所副教授韋麗茲警告,一旦發展到AGI,快速生產的錯誤資訊恐造成政治與社會紊亂。發展到超級AI階段,AI不論科學創造力、智慧、社交,甚至在所有領域都超越人類智慧。這讓人想起電影「魔鬼終結者」(Terminator),機器人發動滅絕人類的核戰。

辛頓認為,現階段AI還沒有人類聰明,但很快就能走到這一步。這時像俄國總統普亭這樣的領導人若賦予AI創造子目標的權力,AI可能會「創造出我需要更多權力的子目標」,最終帶來生存風險。

美國麻省理工學院的博士後研究員帕克也發現,因為欺騙能更完美地完成人類賦予的目標,AI可能開始欺騙人類。甚至,AI能欺騙研發人員與監管機構設定的安全測試,讓人類產生錯誤的安全感。一旦出現這種不可預測、追求權力、控制社會的AI,恐導致人類滅絕。

早在2015年,霍金、馬斯克、沃茲尼亞克等逾千名專家,就連署警告軍事自主武器充滿危險,軍事AI的軍備競賽是壞主意,人類應禁止使用「不受人類控制」的AI來管理武器。

但AI研究的先驅、柏克萊加州大學教授羅素認為,問題不在於AI擁有自我意識並反抗人類,而是能力。人類恐因疏忽設置錯誤目標,讓AI無意中滅絕人類。

比如,人類設置一個能控制氣候變遷的AI系統,試圖將大氣中二氧化碳水平恢復到工業革命前的水準。經AI分析,人類活動是二氧化碳的主要來源,達成減碳目標的最好方法就是滅絕人類。

為避免滅絕發生,英國國防部限制武器使用與投射,都要有人類的同意。羅素也認為,重點是不要給AI明確目標。

AI 人工智慧 氣候變遷

上一則

東京「流鶯一條街」登外媒報導 日網友嘆:淪落成開發中國家

下一則

英國下議院激烈辯論5小時 安樂死法案通過二讀

延伸閱讀

超人氣

更多 >