為個人人工智能、客戶服務、VR 體驗等開辟新可能。
多知4月1日消息,近日,Hume AI 近日發(fā)布了具有情感感知能力的對話 AI EVI。EVI 采用了情感大語言模型(eLLM)技術,這是一種結合了大型語言模型的語言理解和表情測量技術的情感感知能力。
使用 EVI 的主要方式是通過 WebSocket 連接實時發(fā)送音頻并接收響應。這可以實現(xiàn)流暢的雙向對話,用戶可以說話,EVI 可以傾聽并分析他們的表情,EVI 可以生成情感智能的響應。
用戶可以通過連接到 WebSocket 并將用戶的語音輸入流式傳輸?shù)?EVI 來開始對話。您還可以發(fā)送 EVI 文本,它會大聲朗讀該文本。
“想象一下,一個能夠理解你的沮喪或喜悅的人工智能助理,一個能夠理解你抱怨的客戶支持代理,甚至是一個能夠提供真正情感支持的虛擬治療師。”這些就是Hume AI可以提供的,可以說,Hume AI滿足了人類的情緒價值。
Hume.ai首席執(zhí)行官兼首席科學家Alan Cowen表示,將共情AI應用于人類生活當中,這對于日常交流、醫(yī)療非常重要。通過構建直接從人類幸福感代用指標中學習的AI,我們正在有效地教會EVI從第一原理出發(fā)重建人類的心理、興趣偏好,然后根據(jù)它與每個新的人交談和嵌入的每個新的應用程序完成自我迭代和升級。
一周之前,Hume AI剛剛獲得了 5000 萬美元的 B 輪融資,本輪融資由 EQT Ventures 領投,Union Square Ventures、Nat Friedman & Daniel Gross、Metaplanet、Northwell Holdings、Comcast Ventures 和 LG Technology Ventures 跟投。
Hume AI 可以在機器人、醫(yī)療保健、健康等領域得到應用。
(Hume AI 模型可以區(qū)分跨文化共有的 28 種不同的面部表情示例)
Hume AI 提供了表情測量API和自定義模型API,適用于需要理解和預測人類情感、行為的研究人員、開發(fā)者和企業(yè)。
而EVI 這些功能使人類與人工智能之間的語音交互更加順暢,為個人人工智能、客戶服務、可訪問性、機器人、沉浸式游戲、VR 體驗等開辟了新的可能性。(多知 Penny)