OpenAI、Google員工公開信 質疑AI風險 促透明化
舊金山紀事報(San Francisco Chronicle)報導,一群OpenAI和Google的現任和前任員工4日簽署了一封公開信, 要求公司進一步公開其人工智慧產品的真實能力,並保護對此感到憂慮的員工。
這封信要求這些人工智慧大廠不要要求員工簽定「封口條款」或「禁止誹謗條款」(non-disparagement agreement),也不要對員工採取報復行動,應該在公司培養勇於公開批評的文化,並提供可匿名向公司董事會和監管機構分享其憂慮的管道。
紀事報指出,這封信是由前OpenAI員工希爾頓(Jacob Hilton)、寇寇塔吉洛(Daniel Kokotajlo)、桑德斯(William Saunders)、韋恩萊特(Carroll Wainwright)、齊格勒(Daniel Ziegler)、六名匿名的現任員工、前谷歌DeepMind人工智慧實驗室員工庫瑪(Ramana Kumar)、以及曾在DeepMind工作過、現任職於OpenAI競爭對手Anthropic的南達(Neel Nanda)共同簽署。
這群人表示,他們相信人工智慧有造福人類的力量,但也十分擔心它可能帶來的風險,包括「從進一步加劇社會不平等現象、操縱和傳播錯誤訊息,到自動人工智慧系統的失控可能導致人類滅絕」等。
儘管OpenAI和其他人工智慧公司已承認有上述風險,但公開信簽署者表示,他們不相信大型人工智慧公司會完全公開其系統的能力。他們表示,普遍的保密協議讓他們無法發聲,舉報者保護條款只適用於非法活動,讓他們深感無力。
媒體Vox上個月報導,OpenAI要求前員工遵守嚴格的「封口條款」,但其執行長奧特曼(Sam Altman)後來在X.com上表示,他並不知道有這個條款存在,承諾會予以廢除。
桑德斯告訴紀事報,這類條款是保密文化的一部分,使員工很難或不可能對外透露會對公眾構成危險的產品,只有內部員工自己知道。
桑德斯還說,OpenAI許多人仍然希望在產品推出到全球各地之前能先做出正確的事。他表示,公眾不應該相信OpenAI聲稱其產品很安全、假訊息或其他弊病不會很快出現的聲明。相反地,他認為這些產品應接受外部、專家、獨立審查的檢視。
2月辭去OpenAI研究員一職的桑德斯說:「推出已知有問題的產品、而非做好預防問題的措施,是輕率的行為。而且,他們推進的速度比我想像中要快。」
OpenAI上個月解散了他們成立約一年的「超級聯盟團隊」(Superalignment team),這個團隊負責研究如何安全開發人工智慧科技,團隊前負責人目前已加入Anthropic。
因為被指責對公司董事會不夠坦誠,奧特曼先前曾遭董事會短暫解除執行長職務,但幾天後又官復原職。
OpenAI最早是一家非營利研究實驗室,後來由微軟提供數十億元資金,透過微軟一個營利部門經營其業務。馬斯克(Elon Musk)是OpenAI在非營利時期的原始資助者之一,他今年3月在舊金山高等法院對OpenAI提出訴訟,現在也成立了自己的人工智慧公司Grok。
FB留言