拜登AI行政命令 專家有褒有貶 批評者:放錯重點
拜登總統上月30日在白宮簽署監督人工智慧(AI)發展的「具里程碑意義的行政命令」,盼平衡AI發展的業界需求,以及保障國家安全與消費者權益,產業專家有人讚賞,有人批評。
先鋒發展集團(Pioneer Development Group)首席分析師亞歷山大(Christopher Alexander)告訴「福斯新聞」(Fox News)說:「拜登AI (行政命令)的一大關鍵聚焦提供『測試數據』給聯邦政府審查。若此規定允許聯邦政府檢查可能造成偏頗的『黑盒子』(black box)演算法,那可能會有幫助。」
亞歷山大說,「核心演算法具獨特性,其實沒有其他監督及商業保護的辦法,這需要超越黨派、技術專家的努力,不應受政治意識形態干擾,否則可能加劇AI威脅。」
華府智庫「美國原則專案」(American Principles Project)政策主任薛維畢(Jon Schweppe)則表示,人們對於AI的憂慮造就了這道行政命令,「有理」,他讚賞拜登行政命令的細節,但也認為該命令「放錯重點」。
薛維畢說:「政府必須直接監督AI,尤其是科研和國安,但我們不需要官僚管理大小事,也不希望設置『人工智慧局』(Bureau of AI)專門四處探查科技公司的AI演算法的警覺度是否夠高。」
薛維畢認為,對於科技推陳出新,「私人監督」扮演要角,且AI開發者應負起「重大責任」。
薛維畢說:「AI企業及其開發者應對其AI的一切行為負責,國會必須創建一套私人訴訟權,當AI造成實質損害時,人們可興訟求償。擔心被告會讓私人企業自我矯正,毋需政府驗證。」
非營利機構「先進準備與威脅反應模擬中心」(CAPTRS)創辦人希格爾(Phil Siegel)表示,AI法規存在「四大支柱」,分別是保護弱勢、立法時考量AI、確保演算法公平並消弭偏見,以及確保演算法的信任與安全。
希格爾肯定拜登對於第三、四支柱的支持,但認為支柱一、二未臻完備。他說:「行政命令有其限制,國會與白宮必須合作,讓行政命令變成法律。」
FB留言