大法官羅伯茲年終報告 憂AI威脅 未提川普參選問題
首席大法官羅伯茲(John G. Roberts Jr.)在2023年最後一天發布司法狀況的年終報告,但沒有談到最高法院艱難的一年,包括通過許多人認為毫無效力的操守準則;也未討論前總統川普刑事起訴導致參選、任職資格的問題,而是重點闡述人工智慧(AI)在法律體系能發揮的正面效用及潛在的負面威脅。
紐約時報報導,羅伯茲在報告中承認AI前景同時也指出危險,「法學教授們感到敬畏和焦慮,說AI顯然能幫學生作業拿到B,甚至可通過資格考試,可能很快就會變成法律研究中不可或缺的工具。AI可大大提升關鍵資訊存取,也可能會侵犯隱私利益並使法律失去人性。」
羅伯茲也提到AI幻覺(hallucination),也就是AI自信反應所產出的錯誤文本,也曾有數起律師引用了聊天機器人生成的虛構法律條文之案例,因此任何AI應用都需要謹慎和謙遜。
早在2017年羅伯茲訪問紐約州倫斯勒理工學院(Rensselaer Polytechnic Institute)時,就被問到「是否預見未來會有AI驅動的智慧機器協助法庭事實調查、甚至更具爭議的司法決策?」他回答是的,且將會給司法部門處事方式帶來巨大壓力,指的應是量刑決定中使用的軟體。
羅伯茲在年終報告寫道,這種壓力有增無減,「在刑事案件中,使用AI評估棄保潛逃風險、再犯等涉及預測的判斷,很大程度上是自由裁量的,引起人們擔憂其正當程序、可靠性和潛在偏見。至少目前,研究表明大眾持續認為人類與AI的公正性有所差距,反映出即使人類裁決存在種種缺陷,但比機器的任何裁決都更公平。」並說被告席上的一滴汗、顫抖的手、語調變化、片刻猶豫等細節,多數人仍然相信人類法官量刑時的衡量。
羅伯茲亦提到上訴法官同樣不會很快被取代,因為許多上訴裁決取決於下級法院是否濫用自由裁量權,這本質上涉及特定事實的灰色地帶,「通常涉及灰色地帶仍然需要人類判斷…人工智慧主要基於現有資訊,它可以提供資訊,但不能做出此類決策。」
留言