可假冒人聲的AI系統廣泛測試中 OpenAI要了解它有多危險
人工智慧(AI)開發公司OpenAI說,它正在廣泛測試能夠假冒人聲的新AI系統,以便了解這種被稱為「聲音引擎」(Voice Engine)的系統之危險性,因為任何人只要上傳15秒鐘自己朗讀一段文字的語音檔,它就能用合成聲音替對方讀出任何一段文字,而且不限原來的語言,甚至可以轉化為中文。
也就是說,你用英語對「聲音引擎」唸一段文字,它可以用西班牙語、法語、華語或任何語言,以你的聲音「發言」。
這是OpenAI繼生成圖像、生成影片功能人工智慧系統後,又一「新猷」。該公司29日表示,有數家公司正在測試「聲音引擎」的功能。前兩者是透過AI替使用者繪製想要的圖像或製造一段影片,而且立刻就能交件,如今,AI還可替使用者以任何語言發聲。
數月前,民主黨總統準候選人拜登的聲音即遭人以AI冒用,撥打AI生成的自動語音電話,呼籲選民不要在今年1月的新罕布夏州初選投票。
造假資訊研究員擔心AI驅動的應用程式在關鍵選舉年遭大量濫用,因為語音複製工具愈來愈多,且費用低廉、使用簡單又很難追蹤。
認知到這些問題的OpenAI表示,「基於合成語音濫用的可能性」,將對更廣泛的發布採取謹慎態度且隨時掌握狀況。
如同圖像或影片生成器,聲音生成器也極可能被用在社交媒體上散播假訊息,不法分子可用來仿冒他人聲音,在網路上、電話中遂行詐騙或其他犯罪目的。
OpenAI最擔心的是,這套技術可以突破聲音認證的應用軟體,駭入他人的銀行帳戶等受聲控程式保護的網路及數位資產。該公司產品開發經理哈里斯(Jeff Harris)說,「這是很敏感的事,不能出錯,這點很重要。」
這家聲名大噪的新創公司正在研究以「數位浮水印」等方法,防範不法分子以「聲音引擎」為工具,偽造政治人物或名人的聲音做壞事。
OpenAI上月發布影像生成器「索拉」(Sora)時,也提出防範被濫用的措施,不過只展示,沒有公開發行。
谷歌、11實驗室(ElevenLabs)等科技廠商也發展出類似「聲音引擎」的生成技術,業者可藉此製作有聲書、網路聊天機器人,甚至創造廣播電台節目主持人。
哈里斯說,暫不公開發行「聲音引擎」,因為它很危險,尤其在選舉年。公司也不想馬上靠這套AI技術賺錢;不過他說,這套系統對於因為生病或意外事故而喪失聲音的人「特別有用」。
哈里斯指出,OpenAI幫助一名因腦癌損壞聲帶,不能說話的女性患者,利用她高中時留下的一小段錄音,重建說話功能。
FB留言