TWI699186B - 情緒評估方法 - Google Patents
情緒評估方法 Download PDFInfo
- Publication number
- TWI699186B TWI699186B TW108127485A TW108127485A TWI699186B TW I699186 B TWI699186 B TW I699186B TW 108127485 A TW108127485 A TW 108127485A TW 108127485 A TW108127485 A TW 108127485A TW I699186 B TWI699186 B TW I699186B
- Authority
- TW
- Taiwan
- Prior art keywords
- degree
- brain activation
- user
- fatigue
- activation
- Prior art date
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一種情緒評估方法,包含以下步驟:(A)獲得指示出一使用者之生理狀態的一組生理參數,該組生理參數包含一左腦激活度、一右腦激活度、一指示出該使用者之注意力狀況的專注程度、一指示出該使用者之壓力狀況的壓力程度,及一指示出該使用者之疲倦狀況的疲勞程度;及(B)根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度、一包含對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度和情緒狀態之不同模糊語意之隸屬函數的知識庫,及一包含多條規則的模糊規則庫,推論出該使用者的一情緒狀態。
Description
本發明是有關於一種情緒評估方法,特別是指一種利用腦波訊號評估一使用者之情緒的情緒評估方法。
情緒扮演著幫助我們生存、適應環境、達到目標的功能性角色。人們也會因為處於不同的情緒狀態而採取不同的思考歷程,例如人們在正向情緒下會傾向於維持現況而採用過去一般性的知識、經驗法則、較有彈性的處理訊息;然而,當人們在負向情緒的狀態下,則會傾向於改變現狀以改變當下的負向情緒,而較仔細、小心的採用邏輯分析的思考方式去處理訊息。
情緒會隨著環境的變化而變化,依據使用者的情緒表情反應,我們即可推斷使用者對當前環境狀況的感受,進而因應使用者之情緒提供進一步的應對方式,例如,在教學時,老師即可根據學習者的情緒反應,來得知學習者的學習狀況,但在某些情況下,有些人的情緒反應並不明顯,甚至會刻意隱瞞自己的情緒表情,如此一來,便不易判斷出使用者之真實情緒,進而給予幫助,有鑑於此,實有必要提出一解決方案。
因此,本發明的目的,即在提供一種評估一使用者之情緒的情緒評估方法。
於是,本發明情緒評估方法,適用於評估一使用者之情緒,並藉由一處理裝置來實施,該處理裝置電連接一感測裝置,該感測裝置用於感測該使用者之腦波訊號,並將該腦波訊號轉換為指示出該使用者之生理狀態的一組生理參數,該情緒評估方法包含以下步驟:
(A)獲得指示出該使用者之生理狀態的該組生理參數,該組生理參數包含一指示出該使用者之左腦激活狀況的左腦激活度、一指示出該使用者之右腦激活狀況的右腦激活度、一指示出該使用者之注意力狀況的專注程度、一指示出該使用者之壓力狀況的壓力程度,及一指示出該使用者之疲倦狀況的疲勞程度;及
(B)根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度、一包含對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度和情緒狀態之不同模糊語意之隸屬函數的知識庫,及一包含多條規則的模糊規則庫,利用一模糊推論演算法推論出該使用者的一情緒狀態。
本發明的功效在於:藉由該處理裝置根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度,及該疲勞程度來推論出該使用者的該情緒狀態,以獲得該使用者的真實情緒,不會因為該使用者刻意的偽裝表情而誤判。
參閱圖1與圖2,本發明情緒評估方法的實施例,適用於評估一使用者之情緒,並藉由一處理裝置1來實施,該處理裝置1電連接一感測裝置2,及一機器人3。
該感測裝置2包含一腦波帽及一電連接該腦波帽的運算模組。該腦波帽被該使用者穿戴於頭部,並感測該使用者之腦波訊號,且將所感測到的該腦波訊號傳送至該運算模組。該運算模組根據該腦波訊號利用一習知的訊號轉換方法,將該腦波訊號轉換為一組生理參數,並將該組生理參數傳送至該處理裝置1,其中該組生理參數包含一指示出該使用者之左腦激活狀況的左腦激活度、一指示出該使用者之右腦激活狀況的右腦激活度、一指示出該使用者之注意力狀況的專注程度、一指示出該使用者之壓力狀況的壓力程度,及一指示出該使用者之疲倦狀況的疲勞程度。由於本發明之特徵並不在於熟知此技藝者所已知的將該腦波訊號轉換為該組生理參數,為了簡潔,故在此省略了他們的細節。
在本實施例中,該處理裝置1係透過一通訊網路與該感測裝置2與該機器人3連接,然而,在本發明之其他實施例中,該處理裝置1亦可透過有線方式電連接於該感測裝置2與該機器人3。此外,該感測裝置2包含一獨立的運算模組來轉換該腦波訊號,然而,該運算模組也可與該處理裝置1整合,而使該感測裝置2無需包含該運算模組,僅需將其腦波帽所感測到的該腦波訊號傳送至該處理裝置1進行轉換。該處理裝置1之實施態樣例如可為一伺服器、一個人電腦或一筆記型電腦,但不以此為限。
該機器人3之實施態樣例如可為一如,Zenbo的機器人。
參閱圖1、圖2與圖3,本發明情緒評估方法的實施例包含以下步驟。
在步驟31中,該處理裝置1藉由接收來自該感測裝置2的該組生理參數,以獲得指示出該使用者之生理狀態的該組生理參數。
在步驟32中,該處理裝置1根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度、一包含對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度和情緒狀態之不同模糊語意之隸屬函數的知識庫,及一包含多條規則的模糊規則庫,利用一模糊推論演算法推論出該使用者的一情緒狀態,並傳送該情緒狀態至該機器人3。其中,該情緒狀態指示出該使用者處於愉快、有信心、思考、專注、驚訝、平淡、緊張、放鬆、沒耐性、疲憊,及精疲力竭之其中一者。
值得一提的是,步驟32包含以下子步驟。
在子步驟321中,該處理裝置1根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度,及對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度之不同模糊語意的隸屬函數,模糊化該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度,以產生多個對應該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度的模糊集合。
在本實施例中,對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度之模糊語意皆為包含一語意為「高」的模糊語意,及一語意為「低」的模糊語意,對應情緒狀態之模糊語意包含一語意為「愉快」的模糊語意、一語意為「有信心」的模糊語意、一語意為「思考」的模糊語意、一語意為「專注」的模糊語意、一語意為「驚訝」的模糊語意、一語意為「平淡」的模糊語意、一語意為「緊張」的模糊語意、一語意為「放鬆」的模糊語意、一語意為「沒耐性」的模糊語意、一語意為「疲憊」的模糊語意,及一語意為「精疲力竭」的模糊語意,每一模糊語意所對應之隸屬函數
可被表示為以下公式(1)。
…(1)
表1示例了對應左腦激活度之不同模糊語意的隸屬函數。表2示例了對應右腦激活度之不同模糊語意的隸屬函數。表3示例了對應專注程度之不同模糊語意的隸屬函數。表4示例了對應壓力程度之不同模糊語意的隸屬函數。表5示例了對應疲勞程度之不同模糊語意的隸屬函數,表6示例了對應情緒狀態之不同模糊語意的隸屬函數。
表1
表2
表3
表4
表5
表6
對應左腦激活度之隸屬函數 | |
模糊語意 | 模糊數 |
低 | [BS=0,BC=3, EC=3, ES=6] |
高 | [BS=4,BC=7, EC=7, ES=10] |
對應右腦激活度之隸屬函數 | |
模糊語意 | 模糊數 |
低 | [BS=0,BC=3, EC=3, ES=6] |
高 | [BS=4,BC=7, EC=7, ES=10] |
對應專注程度之隸屬函數 | |
模糊語意 | 模糊數 |
低 | [BS=0,BC=3, EC=3, ES=6] |
高 | [BS=4,BC=7, EC=7, ES=10] |
對應壓力程度之隸屬函數 | |
模糊語意 | 模糊數 |
低 | [BS=0,BC=3, EC=3, ES=6] |
高 | [BS=4,BC=7, EC=7, ES=10] |
對應疲勞程度之隸屬函數 | |
模糊語意 | 模糊數 |
低 | [BS=0,BC=3, EC=3, ES=6] |
高 | [BS=4,BC=7, EC=7, ES=10] |
對應情緒狀態之隸屬函數 | |
模糊語意 | 模糊數 |
愉快 | [BS=0,BC=0.45, EC=0.45, ES=1] |
有信心 | [BS=0.8,BC=1.35, EC=1.35, ES=1.9] |
思考 | [BS=1.7,BC=2.25, EC=2.25, ES=2.8] |
專注 | [BS=2.6,BC=3.15, EC=3.15, ES=3.7] |
驚訝 | [BS=3.5,BC=4.05, EC=4.05, ES=4.6] |
平淡 | [BS=4.4,BC=4.95, EC=4.95, ES=5.5] |
緊張 | [BS=5.3,BC=5.85, EC=5.85, ES=6.4] |
放鬆 | [BS=6.2,BC=6.75, EC=6.75, ES=7.3] |
沒耐性 | [BS=7.1,BC=7.65, EC=7.65, ES=8.2] |
疲憊 | [BS=8,BC=8.55, EC=8.55, ES=9.1] |
精疲力竭 | [BS=8.9,BC=9.45, EC=9.45, ES=10] |
值得一提的是,每一組隸屬函數之模糊語意數量,及每一組隸屬函數之模糊數亦可視需求進行調整,並不以本實施例為限。
在子步驟322中,該處理裝置1根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度的模糊集合、對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度和情緒狀態之隸屬函數及該模糊規則庫,獲得該模糊規則庫中之每一條規則所對應的推論結果及啟動強度(firing strength)。
對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度的模糊語意皆具有低(Low)、高(High)二種語意項,因此,該模糊規則庫包含2×2×2×2×2=32條規則,表7示例了該等規則,該等規則亦可視需求進行調整,並不以本實施例為限。
表7
編號 | 輸入模糊變數 | 輸出模糊變數 | ||||
專注 程度 | 左腦 激活度 | 右腦 激活度 | 疲勞 程度 | 壓力 程度 | 情緒狀態 | |
1. | 低 | 低 | 低 | 低 | 低 | 精疲力竭 |
2. | 低 | 低 | 低 | 低 | 高 | 驚訝 |
3. | 低 | 低 | 低 | 高 | 低 | 疲憊 |
4. | 低 | 低 | 低 | 高 | 高 | 沒耐性 |
5. | 低 | 低 | 高 | 低 | 低 | 思考 |
6. | 低 | 低 | 高 | 低 | 高 | 思考 |
7. | 低 | 低 | 高 | 高 | 低 | 疲 憊 |
8. | 低 | 低 | 高 | 高 | 高 | 沒耐性 |
9. | 低 | 高 | 低 | 低 | 低 | 專注 |
10. | 低 | 高 | 低 | 低 | 高 | 專注 |
11. | 低 | 高 | 低 | 高 | 低 | 思考 |
12. | 低 | 高 | 低 | 高 | 高 | 思考 |
13. | 低 | 高 | 高 | 低 | 低 | 愉快 |
14. | 低 | 高 | 高 | 低 | 高 | 有信心 |
15. | 低 | 高 | 高 | 高 | 低 | 有信心 |
16. | 低 | 高 | 高 | 高 | 高 | 緊張 |
17. | 高 | 低 | 低 | 低 | 低 | 有信心 |
18. | 高 | 低 | 低 | 低 | 高 | 有信心 |
19. | 高 | 低 | 低 | 高 | 低 | 專注 |
20. | 高 | 低 | 低 | 高 | 高 | 平淡 |
21. | 高 | 低 | 高 | 低 | 低 | 愉快 |
22. | 高 | 低 | 高 | 低 | 高 | 有信心 |
23. | 高 | 低 | 高 | 高 | 低 | 思 考 |
24. | 高 | 低 | 高 | 高 | 高 | 平淡 |
25. | 高 | 高 | 低 | 低 | 低 | 有信心 |
26. | 高 | 高 | 低 | 低 | 高 | 緊張 |
27. | 高 | 高 | 低 | 高 | 低 | 專 注 |
28. | 高 | 高 | 低 | 高 | 高 | 專 注 |
29. | 高 | 高 | 高 | 低 | 低 | 思 考 |
30. | 高 | 高 | 高 | 低 | 高 | 思 考 |
31. | 高 | 高 | 高 | 高 | 低 | 疲憊 |
32. | 高 | 高 | 高 | 高 | 高 | 放鬆 |
在子步驟324中,該處理裝置1根據該明確數值,獲得並傳送該使用者的該情緒狀態至該機器人3。在本實施例中,該處理裝置1係根據該明確數值,及一如下表8所示的情緒匹配表,來獲得該使用者的該情緒狀態。
表8
明確數值範圍 | 情緒狀態 |
0.9>x≦1 | 愉快 |
0.8>x≦0.9 | 有信心 |
0.7>x≦0.8 | 思考 |
0.6>x≦0.7 | 專注 |
0.55>x≦0.6 | 驚訝 |
0.5>x≦0.55 | 平淡 |
0.4>x≦0.5 | 緊張 |
0.3>x≦0.4 | 放鬆 |
0.2>x≦0.3 | 沒耐性 |
0.1>x≦0.2 | 疲憊 |
0>x≦0.1 | 精疲力竭 |
在步驟33中,該機器人3根據該情緒狀態,產生並輸出一輸出訊息。在本實施例中,該機器人3係根據該情緒狀態,獲得一用於呈現該情緒狀態的表情輸出,並根據該情緒狀態及如下表9所示的該情緒用語匹配表,產生一語音訊息,且輸出包含該表情輸出與該語音訊息的該輸出訊息。
表9
明確數值範圍 | 情緒狀態 | 語音訊息 |
0.9>x≦1 | 愉快 | 太棒了 |
0.8>x≦0.9 | 有信心 | 我很有信心 |
0.7>x≦0.8 | 思考 | 我正在思考 |
0.6>x≦0.7 | 專注 | 我很認真專注 |
0.55>x≦0.6 | 驚訝 | 怎麼會這樣呢 |
0.5>x≦0.55 | 平淡 | 加油 |
0.4>x≦0.5 | 緊張 | 我有點緊張 |
0.3>x≦0.4 | 放鬆 | 提起精神振作點吧 |
0.2>x≦0.3 | 沒耐性 | 加油再撐會兒 |
0.1>x≦0.2 | 疲憊 | 我累了 |
0>x≦0.1 | 精疲力竭 | 我撐不住了 |
綜上所述,本發明情緒評估方法,藉由該處理裝置1根據該使用者之該左腦激活度、該右腦激活度、該專注程度、該壓力程度,及該疲勞程度來推論出該使用者的該情緒狀態,以獲得該使用者的真實情緒,以避免習知因該使用者試圖壓抑而不流露於表情即誤判該使用者之情緒的情況,故確實能達成本發明的目的。
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。
1:處理裝置
2:感測裝置
3:機器人
31~33:步驟
321~324:子步驟
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:
圖1是一方塊圖,說明實施本發明情緒評估方法之實施例的一處理裝置連接一感測裝置及一機器人;
圖2是一流程圖,說明本發明情緒評估方法之實施例;及
圖3是一流程圖,說明該處理裝置推論出一使用者之一情緒狀態的細部流程。
31~33:步驟
Claims (7)
- 一種情緒評估方法,適用於評估一使用者之情緒,並藉由一處理裝置來實施,該處理裝置電連接一感測裝置,該感測裝置用於感測該使用者之腦波訊號,並將該腦波訊號轉換為指示出該使用者之生理狀態的一組生理參數,該情緒評估方法包含以下步驟:(A)獲得指示出該使用者之生理狀態的該組生理參數,該組生理參數包含一指示出該使用者之左腦激活狀況的左腦激活度、一指示出該使用者之右腦激活狀況的右腦激活度、一指示出該使用者之注意力狀況的專注程度、一指示出該使用者之壓力狀況的壓力程度,及一指示出該使用者之疲倦狀況的疲勞程度;及(B)根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度、一包含對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度和情緒狀態之不同模糊語意之隸屬函數的知識庫,及一包含多條規則的模糊規則庫,利用一模糊推論演算法推論出該使用者的一情緒狀態,其中,步驟(B)包含以下子步驟(B-1)根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度,及對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度之不同模糊語意的隸屬函數,模糊化該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度,以產生多個對應該左腦激活度、該右腦激活度、該專 注程度、該壓力程度、該疲勞程度的模糊集合,(B-2)根據該左腦激活度、該右腦激活度、該專注程度、該壓力程度、該疲勞程度的模糊集合、對應左腦激活度、右腦激活度、專注程度、壓力程度、疲勞程度和情緒狀態之不同模糊語意的隸屬函數及該模糊規則庫,獲得該模糊規則庫中之每一條規則所對應的推論結果及啟動強度,(B-3)根據每一條規則所對應的推論結果及啟動強度,進行解模糊化以獲得一相關於該情緒狀態的明確數值,及(B-4)根據該明確數值,獲得該使用者的該情緒狀態。
- 如請求項1所述的情緒評估方法,其中,該情緒狀態指示出該使用者處於愉快、有信心、思考、專注、驚訝、平淡、緊張、放鬆、沒耐性、疲憊,及精疲力竭之其中一者。
- 如請求項1所述的情緒評估方法,該處理裝置還電連接一機器人,該情緒評估方法在步驟(B)之後,還包含以下步驟:(C)將該情緒狀態傳送至該機器人,以使該機器人根據該情緒狀態,產生並輸出一輸出訊息。
- 如請求項5所述的情緒評估方法,其中,在該步驟(C)中,該輸出訊息包含一用於呈現該情緒狀態的表情輸出。
- 如請求項5所述的情緒評估方法,其中,在該步驟(C)中,該輸出訊息包含一用於表達該情緒狀態的語音訊息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108127485A TWI699186B (zh) | 2019-08-02 | 2019-08-02 | 情緒評估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108127485A TWI699186B (zh) | 2019-08-02 | 2019-08-02 | 情緒評估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI699186B true TWI699186B (zh) | 2020-07-21 |
TW202106230A TW202106230A (zh) | 2021-02-16 |
Family
ID=72603238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108127485A TWI699186B (zh) | 2019-08-02 | 2019-08-02 | 情緒評估方法 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI699186B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201607511A (zh) * | 2014-08-29 | 2016-03-01 | 國立臺中教育大學 | 多生理訊號之情感運算引擎系統及方法 |
CN105997062A (zh) * | 2016-06-16 | 2016-10-12 | 张海峰 | 一种脑电采集器及脑电采集处理调节系统及方法 |
TWI658377B (zh) * | 2018-02-08 | 2019-05-01 | 佳綸生技股份有限公司 | 機器人輔助互動系統及其方法 |
-
2019
- 2019-08-02 TW TW108127485A patent/TWI699186B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201607511A (zh) * | 2014-08-29 | 2016-03-01 | 國立臺中教育大學 | 多生理訊號之情感運算引擎系統及方法 |
CN105997062A (zh) * | 2016-06-16 | 2016-10-12 | 张海峰 | 一种脑电采集器及脑电采集处理调节系统及方法 |
TWI658377B (zh) * | 2018-02-08 | 2019-05-01 | 佳綸生技股份有限公司 | 機器人輔助互動系統及其方法 |
Non-Patent Citations (1)
Title |
---|
M.Murugappan,M.Rizon, RNagarajan, S.Yaacob, I.Zunaidi, and D.Hazry , "EEG Feature Extraction for Classifying Emotions using FCM and FKM", INTERNATIONAL JOURNAL OF COMPUTERS AND COMMUNICATIONS Issue 2, Volume 1, 2007 ,page 21-25. * |
Also Published As
Publication number | Publication date |
---|---|
TW202106230A (zh) | 2021-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Trusting virtual agents: The effect of personality | |
US20240005205A1 (en) | Iterative Attention-based Neural Network Training and Processing | |
Overmann et al. | Materiality and human cognition | |
PS et al. | Emotion models: a review | |
Zhang et al. | Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot | |
Kiesler et al. | Anthropomorphic interactions with a robot and robot–like agent | |
Block | Troubles with functionalism | |
Nunamaker et al. | Embodied conversational agent-based kiosk for automated interviewing | |
Li et al. | Dynamic domain adaptation for class-aware cross-subject and cross-session EEG emotion recognition | |
Caldwell-Harris et al. | Do more, say less: Saying “I love you” in Chinese and American cultures | |
Hirschfeld | The child’s representation of human groups | |
US20240185103A1 (en) | Reinforcement Learning-Based Semantic Method and System | |
White | A model of the layperson as pragmatist | |
Spaulding et al. | Frustratingly easy personalization for real-time affect interpretation of facial expression | |
TWI699186B (zh) | 情緒評估方法 | |
CN113345590B (zh) | 一种基于异质图的用户心理健康监测方法及系统 | |
Tan et al. | The transfer of dry-land strength & power into thrust in competitive swimming | |
Wu et al. | Detecting malicious social robots with generative adversarial networks | |
Castro-Garcia et al. | Emergent multilingual language acquisition using developmental networks | |
WO2019146422A1 (ja) | 情報処理装置、情報処理方法、プログラムおよびロボット | |
Choube et al. | Predicting Modalities of Dyslexic Students using Neuro-Linguistic Programming to Enhance Learning Method | |
Bayer | A role for abstractionism in a direct realist foundationalism | |
Dykhuizen | Training in culture: the case of aikido education and meaning-making outcomes in Japan and the United States | |
Kroeger | Folk definitions of Korean ideophones | |
Ban et al. | Non-verbal communication-a study on engineering students |