12月27日消息,2024年IEEE聲學(xué)、語音與信號處理國際會議ICASSP 2024(2024 IEEE International Conference on Acoustics, Speech, and Signal Processing)宣布錄用奇富科技關(guān)于語音情感計(jì)算的最新研究成果論文“MS-SENet: Enhancing Speech Emotion Recognition Through Multi-scale Feature Fusion With Squeeze-and-excitation Blocks”。
奇富科技介紹,此次被錄用的論文研究方向聚焦在語音情感計(jì)算,團(tuán)隊(duì)提出了一種名為MS-SENet的新型網(wǎng)絡(luò)結(jié)構(gòu),通過高效提取、選擇和加權(quán)空間和時(shí)間多尺度特征,并將這些特征與原始信息相融合,獲得更強(qiáng)的語音情緒表征向量。
情感計(jì)算領(lǐng)域是一個(gè)涉及計(jì)算機(jī)科學(xué)、心理學(xué)和語言學(xué)等多學(xué)科的交叉研究領(lǐng)域,它的主要目的是通過分析和處理語音信號中的情感信息,使計(jì)算機(jī)能夠識別和理解人類的情感狀態(tài)。業(yè)界主流做法是通過音頻、文本等多模態(tài)信息來進(jìn)行情感分類,但奇富科技團(tuán)隊(duì)認(rèn)為人類底層情感特征是相通的,是完全可以跨越具體語種和文本內(nèi)容。
奇富科技自研MS-SENet音頻情感計(jì)算網(wǎng)絡(luò)框架
奇富科技團(tuán)隊(duì)認(rèn)為可以從減少提取大量無關(guān)緊要的聲學(xué)特征和針對局部頻率和長期時(shí)間特征進(jìn)行融合兩方面去提升語音信號的情感表征學(xué)習(xí),并基于此提出了MS-SENet框架。MS-SENet通過使用不同尺寸的卷積核提取多尺度時(shí)空特征,并引入壓勵(lì)模塊來有效捕捉這些多尺度特征。同時(shí)通過跳躍連接和空間丟失層防止過擬合并增加模型深度,進(jìn)一步提高了情感計(jì)算模型的表達(dá)能力。
另外,奇富科技團(tuán)隊(duì)在論文中評估了包括中科院自動化所語音情感數(shù)據(jù)集、柏林情感數(shù)據(jù)庫、意大利語數(shù)據(jù)集、互動情感二元運(yùn)動捕捉數(shù)據(jù)庫、Surrey音頻視覺表達(dá)情感數(shù)據(jù)集以及Ryerson音頻視覺情感演講與歌曲數(shù)據(jù)集在內(nèi)的六個(gè)不同場景的多語種的數(shù)據(jù)集。和SOTA(state of the art,是指在特定任務(wù)中目前表現(xiàn)最優(yōu)的方法或模型)相比,MS-SENet將UA和WA提高了1.31%和1.61%,同時(shí)MS-SENet在具有更多情感類別和較低數(shù)據(jù)量的情況下,仍然保持著出色的情感識別能力。
據(jù)介紹,奇富科技的語音情感計(jì)算研究不止于理論突破,更是有成功的實(shí)際應(yīng)用。例如,在貸后降投訴項(xiàng)目中,異常情緒監(jiān)測首次被應(yīng)用在實(shí)景業(yè)務(wù)當(dāng)中。通過對高風(fēng)險(xiǎn)客群的錄音通話進(jìn)行逐通分析,及時(shí)遴選出異常情緒的客戶,以便相關(guān)人員可以及時(shí)介入,實(shí)驗(yàn)結(jié)果表明模型組投訴率低于對照組4個(gè)絕對值百分點(diǎn)。
- 餓了么灰測“悅享會員”加碼用戶體驗(yàn),提供一系列專屬優(yōu)惠和個(gè)性化服務(wù)
- 啟信寶2025奶茶趣味報(bào)告:奶茶企業(yè)5年激增140%,40萬家共筑3500億帝國
- 《黑神話:悟空》PS5國行版將于6月18日正式發(fā)售,建議零售價(jià)268元起
- 報(bào)告:2029年美國AI搜索廣告支出將達(dá)260億美元,占比13.6%
- 重塑內(nèi)生安全體系 實(shí)現(xiàn)AI時(shí)代安全突圍 ——2025北京網(wǎng)絡(luò)安全大會(BCS)開幕
- 門禁憑證技術(shù)進(jìn)化簡史:開啟更加安全和便利的未來
- Google I/O 大會:科技盛宴,引領(lǐng)未來創(chuàng)新潮流
- 馬蜂窩端午出行大數(shù)據(jù):短途周邊游是主流,非遺民俗關(guān)注度持續(xù)走高
- 微軟裁員6000人原因揭曉 AI沖擊首當(dāng)其沖
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。