ChatGPT語音太逼真 OpenAI開始擔心使用者會「感情依賴」
聊天機器人ChatGPT問世以來,席捲全球,而且新版語音模式模擬人聲過於逼真,可能讓用戶出現「依賴」人工智慧(AI)工具的疑慮。
有線電視新聞網(CNN)報導,AI科技公司OpenAI推出新版ChatGPT,採用高階語音模式,聲音聽起來非常逼真,還可以發出笑聲或「嗯」等反應字眼,而且會即時回應、適時打斷對話,甚至根據用戶說話語氣判讀情緒,猶如與真人般對話。
據報導,OpenAI今年稍早舉行的發表會上宣布ChatGPT升級功能,勾起外界對2013年電影「雲端情人」(Her)的記憶,劇中出現的AI女助理,由於過於逼真,導致男主角不知不覺墜入愛河,結果當這位AI女助理坦承與上百位用戶談戀愛,讓男主角心碎不已。
隨後8日OpenAI公布一份報告,發現用戶與ChatGPT近乎真人般的語音模式互動,很容易會陷入以假為真的陷阱:「用戶可能會變成與AI建立社交關係,降低他們與他人互動的需求,雖然可能有利於改善社交恐懼症,卻也可能影響正常人際關係的發展。」
ChatGPT與其他新科技一樣,總是在上市後,才發現許多意料外的後遺症,如果用戶過度沉迷與AI機器人聊天,真的可能會誤以為與AI建立浪漫關係。
亞利桑納州立大學(Arizona State University)人際關係教授沙拉比(Liesel Sharabi)接受CNN採訪時表示:「企業身肩重大責任,必須徹底負起道德與負責來處理這類問題,尤其目前仍在實驗階段。」並強調:「我確實擔心用戶可能與無法永久存在且不斷進步的AI技術,建立起某種深厚的聯結。」
OpenAI表示,隨著時間拉長,用戶與ChatGPT語音模式互動也可能影響社交正常行為,報告指出:「我們設計的模式是恭順配合,允許用戶隨時打斷講話或搶走說話權,雖然符合AI模式,卻違反人類社交習慣。」並透露今後將全致力發展「安全」的AI技術,繼續研究用戶對AI工具的「情感依賴」。
該報告還強調,AI工具宣稱可以顛覆人類生活、工作、社交與搜尋方式,但有鑑於AI也會犯錯,若用戶過度信任AI,取得任何訊息也全盤接受的話,很容易跟著出錯而不自知。
FB留言