「財產不得由亞裔使用?」AI檢視縣府房契 揪歧視性限制
史丹福大學華裔教授主導的計畫,推出免費人工智慧模型,幫助加州縣政府檢索房契記錄,找出50多年前就被禁止的歧視性限制。
舊金山紀事報報導,現任史丹福大學教授的丹尼爾何(Daniel Ho,音譯),2015年在巴洛阿圖購買房屋時,他必須簽署財產紀錄(property records)。紀錄中寫明「該財產不得由任何非洲人、日本人、中國人或蒙古人後裔使用或占用,除非他們是某個居住在上述房產的白人的僕人。」
20世紀20年代和1930年代美國房契(property deeds)中,或有禁止有色人種購買或居住在某些社區的條款。種族歧視性房契的發現,讓身為亞裔美國人的丹尼爾何大為震驚。他說他知道這類契約在過去是合法的,但讀到它的時候,他對他所在社區的歷史提出了很多疑問。
丹尼爾何說:「令人震驚的是,在另一個歷史時期,這樣的限制會讓你不能住在這個房子裡。」丹尼爾何並不是單獨的案例。儘管種族歧視房契被1968年通過的「公平住房法」(Fair Housing Act of 1968)廢止,但灣區和全國各地的購房者至今仍在房契中發現冒犯性的語言,讓美國的種族主義歷史再次浮現檯面。
購屋者必須簽署這些契約才能從賣方手中轉移房產的所有權。2021年,加州州議會通過了一項法律,要求所有縣份從數百萬份財產紀錄中找到並刪除種族主義和歧視性契約,給縣紀錄辦公室帶來了巨大的工作量。
但一種新的人工智慧模型旨在使這一過程變得容易。史丹福大學「監管、評估和治理實驗室」(簡稱RegLab,丹尼爾何是該機構的總監)和普林斯頓大學助理教授韓德森(Peter Henderson )於10月發布了人工智慧語言模型,該模型在只有一周的時間中,就能夠在1902年至1980年聖塔克拉拉縣的520萬份房契紀錄中,檢測到大約7500份有種族歧視語言的契約。
在人工智慧模型的研究結果取得很好的成果後,該縣計畫繼續使用它來分析剩餘的1880萬份房契紀錄。丹尼爾何指出,史丹福大學的研究人員透過來自全國各地的近4000個種族歧視契約來訓練他們的語言模型,以了解要尋找的內容。他說,該模型現在免費向所有縣份提供。
在使用AI模型之前,該縣用三名員工來檢視房契,兩個月的時間讀過10萬頁的資料,找到400份有歧視語言的房契,可見這具模型的效率。
留言