財聯社7月31日訊(編輯 夏軍雄)當地時間周二(7月30日),美國人工智能(AI)研究公司OpenAI宣布,即日起開始向部分ChatGPT Plus用戶推出GPT-4o的語音模式。
據OpenAI介紹,高級語音模式能提供更自然的實時對話,允許用戶隨時打斷,并能感知和響應用戶的情緒。實時響應和可打斷對話是目前語音助手公認的技術難點。
OpenAI在今年5月推出了新版本大模型GPT-4o,同時還展示出了語音模式。該公司原定于6月底開始逐步向用戶開放語音模式,但最終決定推遲至7月發布。語音模式將于今年秋季向所有ChatGPT Plus用戶開放。
OpenAI周二表示:“通過逐步推出,我們可以密切監控使用情況,并根據實際反饋不斷改進模型的能力和安全性。”該公司還透露,它仍在開發5月發布會期間展示的視頻和屏幕共享功能。這些功能尚未確定推出時間。
因此,語音模式初期的功能將比較有限。例如,ChatGPT將無法使用計算機視覺功能,該功能可讓聊天機器人通過智能手機的攝像頭對用戶的舞蹈動作提供語音反饋。
目前GPT-4o語音模式可使用四種預設聲音,Juniper、Breeze、Cove和Ember,這些聲音是與付費配音演員合作制作的。
此前,ChatGPT一款名為Sky的女性配音被指與好萊塢明星斯嘉麗·約翰遜十分相似。在收到約翰遜團隊的律師函后,OpenAI暫停使用Sky語音。
OpenAI還表示,它已引入了新的過濾器,以確保軟件能夠發現并拒絕某些生成音樂或其他形式的受版權保護的音頻的請求。對于AI公司而言,避免陷入法律糾紛已成為格外需要警惕的事項。