欧美色在线视频播放 视频,国产精品亚洲精品日韩已方,日本特级婬片中文免费看,亚洲 另类 在线 欧美 制服

<td id="8pdsg"><strong id="8pdsg"></strong></td>
<mark id="8pdsg"><menu id="8pdsg"><acronym id="8pdsg"></acronym></menu></mark>
<noscript id="8pdsg"><progress id="8pdsg"></progress></noscript>

    首頁 >> 人工智能 >

    通過分析人臉圖像來估算情緒價和喚醒的技術(shù)

    2021-01-27 14:14:57 來源: 用戶: 

    近年來,全球無數(shù)的計算機科學(xué)家一直在開發(fā)基于深度神經(jīng)網(wǎng)絡(luò)的模型,該模型可以根據(jù)人們的面部表情預(yù)測他們的情緒。但是,迄今為止開發(fā)的大多數(shù)模型僅檢測到主要的情緒狀態(tài),例如憤怒,幸福和悲傷,而不是人類情緒的更微妙的方面。

    另一方面,過去的心理學(xué)研究已經(jīng)描述了情緒的許多方面,例如,引入了諸如價(即情緒顯示的積極程度)和喚醒(即某人在表達情緒時有多平靜或興奮)之類的測量方法。 。對于大多數(shù)人來說,僅通過看一下人的臉來估計價和喚起力就很容易了,但對于機器來說卻是一個挑戰(zhàn)。

    三星AI和倫敦帝國理工學(xué)院的研究人員最近開發(fā)了一種基于深度神經(jīng)網(wǎng)絡(luò)的系統(tǒng),該系統(tǒng)只需分析日常環(huán)境中拍攝到的人臉圖像,就可以高度準確地估算情感價和喚醒。在《自然機器智能》上發(fā)表的一篇論文中提出的這種模型可以相當快速地做出預(yù)測,這意味著它可以用于實時檢測微妙的情緒品質(zhì)(例如,從CCTV攝像機的快照中)。

    研究人員說:“長期以來,人們一直在研究情感估計問題,很明顯,情感情感的離散類別太有限,無法代表人類每天展示的情感范圍。”研究通過電子郵件告訴TechXplore。“結(jié)果,我們將重點轉(zhuǎn)移到更廣泛的情感維度上,即效價和喚醒。”

    除了高性能的硬件外,構(gòu)建機器學(xué)習系統(tǒng)還需要兩個基本要素:合適的數(shù)據(jù)集和算法。在過去的研究中,三星AI和帝國理工學(xué)院的研究人員團隊因此編譯了可用于訓(xùn)練用于情感識別的深度神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集,包括AFEW-VA和SEWA數(shù)據(jù)集。

    研究人員說:“在創(chuàng)建AFEW-VA數(shù)據(jù)集的同時,我們證明了要獲得一種在自然條件下可行的方法,而不是在受控的實驗室條件下,還應(yīng)在野外收集對該方法進行訓(xùn)練的數(shù)據(jù)。” “與此類似,正如我們在SEWA項目中所展示的那樣,文化在其中扮演著至關(guān)重要的角色。”

    在他們收集了包含在真實環(huán)境中拍攝的人臉圖像的數(shù)據(jù)集之后,研究人員開發(fā)了一個模型,該模型將傳統(tǒng)的情感識別方法與其他與情感相關(guān)的理論進行了融合。他們創(chuàng)建的深度學(xué)習架構(gòu)可以僅通過處理人臉圖像來以高準確度估算價和喚醒。此外,在實驗室中拍攝這些圖像時以及在實際環(huán)境中拍攝時,它的性能都很好。

    圖片來源:Toisoul等。

    “我們的方法的主要目標是給定一個人的臉部圖像,以可靠且實時的方式估算持續(xù)的價位(心理狀態(tài)有多積極或消極)和喚醒(使體驗平靜或令人興奮)水平,研究人員說。

    新系統(tǒng)在帶注釋的圖像上進行了訓(xùn)練,這些圖像包含有關(guān)價和喚醒的信息。此外,它使用特定的“地標”(例如人的嘴唇,鼻子和眼睛的位置)作為參考來分析面部表情。這使它可以專注于與估計效價和喚醒水平最相關(guān)的面部區(qū)域。

    研究人員解釋說:“我們還將離散情感類別的可用標簽用作輔助任務(wù),以提供額外的監(jiān)督并在價和喚醒估計的主要任務(wù)上獲得更好的表現(xiàn)。” “為防止網(wǎng)絡(luò)過度適合任何一項任務(wù),我們使用隨機過程,搖動正則化將它們組合在一起。”

    在初步評估中,深度學(xué)習技術(shù)能夠以空前的準確性從自然條件下拍攝的面孔圖像中估計化合價和喚醒度。值得注意的是,在AffectNet和SEWA數(shù)據(jù)集上進行測試時,該系統(tǒng)的性能和專家級的人類注釋器一樣出色。

    研究人員說:“在兩個數(shù)據(jù)集上,我們的網(wǎng)絡(luò)性能優(yōu)于人工注釋者之間的協(xié)議。” “在實踐中,這意味著如果將該網(wǎng)絡(luò)視為這些數(shù)據(jù)集的另一個注釋者,那么它與人類注釋者的平均協(xié)議至少將與其他人類注釋者之間的協(xié)議一樣好,這非常了不起。”

    除了表現(xiàn)出色之外,深度學(xué)習方法是非侵入性的,易于實現(xiàn),因為它的預(yù)測基于常規(guī)相機拍攝的簡單圖像。這使其成為廣泛應(yīng)用的理想選擇。例如,它可以用于進行市場分析或創(chuàng)建社交機器人,從而更好地理解人類的感受并做出相應(yīng)的反應(yīng)。

    到目前為止,基于深度神經(jīng)網(wǎng)絡(luò)的系統(tǒng)僅受過訓(xùn)練以分析靜態(tài)圖像。盡管從理論上講它也可以應(yīng)用于視頻鏡頭,但要在視頻上同樣出色地表現(xiàn),也應(yīng)考慮時間相關(guān)性。因此,在未來的工作中,研究人員計劃進一步開發(fā)他們的系統(tǒng),以便可以將其用于從靜態(tài)圖像和視頻中估算情感價和喚醒度。

    研究人員說:“我們在CVPR 2020上發(fā)表的論文“人為化的高階CNN及其在時空情感估計中的應(yīng)用”是邁向改善我們網(wǎng)絡(luò)在視頻上的性能的第一步。“特別是,我們設(shè)計了一種新穎的方法,先在靜態(tài)圖像上訓(xùn)練神經(jīng)網(wǎng)絡(luò),然后將其推廣到時空數(shù)據(jù)。這具有使時空網(wǎng)絡(luò)的訓(xùn)練速度更快,所需數(shù)據(jù)更少的優(yōu)勢。”

      免責聲明:本文由用戶上傳,與本網(wǎng)站立場無關(guān)。財經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風險自擔。 如有侵權(quán)請聯(lián)系刪除!

     
    分享:
    最新文章
    站長推薦