AI創新 兼顧風險管控…巴黎峰會落幕 台如何「趨吉避凶」
巴黎人工智慧(AI)峰會11日落幕,副總統范斯在會上發表上任後首次重要國際演說,闡明川普新政府在AI領域看重創新、去管制化、保護言論自由及美國工人等。范斯提到,川普政府認為過度管制將使正起飛的AI產業夭折,「我們將盡力鼓勵支持AI的政策」;川普政府計畫讓美國持續是AI領域龍頭,國際對AI的監管體系需促進而非扼殺AI科技創造。
范斯反對政府過度管制符合共和黨的傳統教義主張:小政府、輕政減稅、市場經濟、個人自由。但川普主義有別於共和黨建制派的是,為了讓美國再次偉大,可不擇手段用關稅逼其他國家讓步。以反對監管為由不簽署AI峰會宣言,其實就跟美國退群國際氣候變遷大會一樣的思考:對美國不利,就退群。因為管制對美國AI產業龍頭的地位不利。
巴黎人工智慧峰會宣言題為「關於包容和永續AI的聲明」,強調要「確保AI開放、包容、透明、道德、安全且可靠,考量各方國際框架」,並「使AI對人類和地球永續」。宣言精神源自歐盟在2019年提出了「可信賴AI的7原則」影響了歐盟和許多國家對於AI規範的架構性思考。
世界各國無不競相發展AI產業,人工智慧法案與政策即使鼓勵創新,也不可能不顧防弊監管。Open AI執行長奧特曼於2023年5月首次出席美國國會聽證會時表示,AI的影響力可能與印刷機的發明一樣重要,但AI技術存有潛在的風險性。其他如比爾蓋茲、祖克伯,以及TikTok的周受資等科技業大咖,也都表達應建立AI監管機制的必要性。AI若無監管機制導致侵犯人民的隱私權或詐騙的受害者,恐非強調保護美國人民的川普政府所能承受。
歐盟於2024年3月通過了歐盟AI法案,將AI分成不同風險等級,如高風險或不可接受的風險,而沒有被歸類到高風險分級的AI則是低風險或可接受的AI,歐盟允許業者依行為準則做規範。最核心的概念在於歐盟認為AI風險是可以預測的;這個風險模型除了被禁止的不可接受風險外,高風險的AI有相對應的規範要求,輕微的風險被歸類在限制風險,對於低風險或最小風險,則採用行為準則。
歐盟建立基於風險管控的人工智慧法(AIA),透過監管與罰則保障人權並推向國際。歐盟完成AI立法,其他國家多以歐盟指引作為指導方針。我國由國科會主責擬訂並公告的「人工智慧基本法草案」,即參考歐盟範本。基本法草案第一條立法目的指出兩個重點:第一,促進AI產業發展;第二,建構AI安全環境、保障人民基本權利。而人工智慧法基本法草案的立法精神與歐盟提出的7大原則,可說是一致的。
對於AI存在的機會與風險,政府應該採取的最佳策略就是「趨吉避凶」:透過公私協力完成的AI法規政策,一方面鼓勵AI產業創新發展,同時兼顧管控風險、避免威脅。不論公私部門,皆需確立「以人為本」的治理原則,透過解決道德問題、確保資料隱私和安全、減少偏見和歧視、克服技術和基礎設施障礙、建立公眾信任以及建立強有力的監管框架,有效降低「人受制於AI」的風險,確保政府與企業運用AI的力量來提升治理並改善民眾的生活品質。
(本文取自2月13日聯合報民意論壇,作者為空大公行系教授、輔大校務顧問暨AI發展中心顧問)
FB留言