FT:美歐英將簽署全球首份跨國AI公約 標榜具法律強制力
美國、歐盟、英國即將簽署全球第一份針對人工智慧(AI)使用的跨國協定,同時澳洲也計劃對高風險的AI研發強制實施「護欄」措施,包含要求須由人類介入與透明度,顯示多國都正對AI的潛在風險採取具體行動。
英國金融時報(FT)報導,正在打造AI技術的西方三大司法管轄區美國、歐盟及英國,預料將在5日簽署歐洲理事會(Council of Europe)的AI公約,在尋求規範公共與民間體系時,強調人權與民主價值。
這項公約是由加拿大、以色列、日本及澳洲等50多國歷經兩年起草,標榜具法律強制力(legally enforceable),要求簽署國必須為AI系統的任何有害與歧視結果負起責任,並要求這種系統的產出必須尊重公平與隱私權,並讓AI相關的侵權受害者有法律手段反制。
英國科學創新與科技部長凱爾(Peter Kyle)表示,對AI這種快速進步的創新,跨出跨國協定的第一步很重要,「這是第一份有實質強制力的全球協議,也集結非常不同的國家」。
歐洲理事會主導協商的茱澈(Hanne Juncher)指出,在這份公約5日簽署時,十個參與國預料將是首批批准的國家,「這證實(這份公約)遠不止於歐洲,這些簽署國也超級投入協商…並且滿意結果」。美國政府一名資深官員表示,美國承諾確保AI技術要支持尊重人權與民主價值。
儘管這項協定號稱有法律強制力,批評者認為仍缺乏罰金等制裁措施,而且主要透過監控這種相對疲弱的執法形式,來評估企業。
目前許多國家都在研擬監督AI軟體的新規範、承諾及協議,包括歐洲的AI法案、七大工業國集團(G7)去年10月同意的協議,以及美國、中國大陸等28國去年11月簽署的布萊切利宣言(Bletchley Declaration)。
澳洲產業與科學部長胡錫克(Ed Husic)5日也公布針對AI系統的十項自願遵守新準則,即刻生效,並且展開為期一個月的公共審議期,以決定未來是否要強制要求高風險的AI研發遵循。
這些準則包括人類要能掌控或介入AI系統,以達成「大幅」的人類監督,以及必須告知終端使用者AI促成的決策、正在與AI互動、以及看到的是AI生成內容等,還有必須與其他機構透明分享AI供應鏈的數據、模型及系統,以幫助有效因應風險等。
FB留言