JP2021514514A - 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 - Google Patents
感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 Download PDFInfo
- Publication number
- JP2021514514A JP2021514514A JP2020562804A JP2020562804A JP2021514514A JP 2021514514 A JP2021514514 A JP 2021514514A JP 2020562804 A JP2020562804 A JP 2020562804A JP 2020562804 A JP2020562804 A JP 2020562804A JP 2021514514 A JP2021514514 A JP 2021514514A
- Authority
- JP
- Japan
- Prior art keywords
- emotional
- user
- emotion
- interaction
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 340
- 238000000034 method Methods 0.000 title claims description 91
- 230000002996 emotional effect Effects 0.000 claims abstract description 581
- 230000008451 emotion Effects 0.000 claims abstract description 306
- 238000004364 calculation method Methods 0.000 claims abstract description 147
- 230000014509 gene expression Effects 0.000 claims description 99
- 230000008909 emotion recognition Effects 0.000 claims description 81
- 230000002452 interceptive effect Effects 0.000 claims description 81
- 230000015572 biosynthetic process Effects 0.000 claims description 43
- 238000013480 data collection Methods 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 9
- 230000008569 process Effects 0.000 description 58
- 230000008921 facial expression Effects 0.000 description 42
- 238000004891 communication Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 30
- 239000011159 matrix material Substances 0.000 description 26
- 238000010586 diagram Methods 0.000 description 18
- 241000282414 Homo sapiens Species 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000004927 fusion Effects 0.000 description 10
- 238000013507 mapping Methods 0.000 description 9
- 238000013481 data capture Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 8
- 206010016256 fatigue Diseases 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 206010019233 Headaches Diseases 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 231100000869 headache Toxicity 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 206010048909 Boredom Diseases 0.000 description 3
- 206010040914 Skin reaction Diseases 0.000 description 3
- 230000019771 cognition Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000035483 skin reaction Effects 0.000 description 3
- 231100000430 skin reaction Toxicity 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 125000002015 acyclic group Chemical group 0.000 description 2
- 238000000540 analysis of variance Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006397 emotional response Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000003403 autonomic nervous system Anatomy 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 210000003169 central nervous system Anatomy 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002107 myocardial effect Effects 0.000 description 1
- 229920002239 polyacrylonitrile Polymers 0.000 description 1
- 201000006292 polyarteritis nodosa Diseases 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
(2)画像、テクスチャー及び深度情報を用いて顔の全体的な特徴を表現する。
(3)ランドマーク点に隣接する周辺領域の幾何学的情報(例えば、深度パッチ1412)を用いる。
(4)身分識別と顔面表情認識との間においてマルチタスキング対抗関係を構築することによって表情特徴を洗練する。
・感情状態1218A:中立(0.1)、疲労(0.5)、悲しい(0.4)
・焦点1220A:会議(0.1)、音楽再生(0.5)、頭痛(0.4)
・感情意図のインタラティブ文脈1222A:(null)
・語義データ1224A:今日、会議、頭痛及び音楽再生
・場面内容1226A:時間(6:50)及び場所(事務室)
・インタラクション意図のインタラクティブ文脈1228A:(null)。
P(明るい音楽を再生)=(P(慰め、音楽再生/明るい音楽を再生)×P(慰め)+P(励まし、音楽再生/明るい音楽を再生)×P(励まし))×P(音楽再生)=(0.1×0.8+0.9×0.2)×0.8=0.208。
P(明るい音楽を再生)=(P(慰め、音楽再生/明るい音楽を再生)×P(慰め)+P(励まし、音楽再生/明るい音楽を再生)×P(励まし)×P(音楽再生)=(0.1×0.8+0.9×0.2)×1=0.26。
・感情状態1218B:中立(0.1)、疲労(0.5)、悲しい(0.4)
・焦点1220B:睡眠(0.2)、音楽変更(0.6)、残業(0.2)
・感情意図のインタラクティブ文脈1222B:慰め(0.8)及び励まし(0.2)
・語義データ1224B:睡眠、ダメ、音楽変更、残業
・場面内容1226B:時間(6:50)、場所(事務室)
・インタラクション意図のインタラクティブ文脈1228B:音楽再生(0.8)及び休憩(0.2)。
・感情状態1218C:中立(0.2)、楽しい(0.7)、退屈(0.1)
・焦点1220C:素敵(0.2)、30分(0.6)、出かける(0.2)
・感情意図に対応するインタラクティブ文脈1222C:慰め(0.3)、励まし(0.7)
・語義データ1224C:この、素敵、30分、出かけるリマインド
・場面内容1226C:時間(7:00)、場所(事務室)
・インタラクション意図に対応するインタラクティブ文脈1228C:音楽再生(0.9)、休憩(0.1)。
Claims (20)
- ユーザ意図計算ユニットを備える感性的インタラクション計算モジュールを備え、
前記ユーザ意図計算ユニットは、感情関連データ及びユーザの感情状態を受信し、前記感情関連データ及び前記感情状態に基づいてユーザ意図を認識し、
前記ユーザ意図は感情意図及び/又はインタラクション意図を含み、前記感情意図は前記感情状態に対応し且つ前記感情状態の感情ニーズを含み、前記インタラクション意図は1つ又は複数のトランザクション意図を含む
ことを特徴とする感性的インタラクション装置。 - 前記感情意図は、
前記感情状態の感情ニーズと、
前記インタラクション意図と前記感情ニーズとの関係と、を更に含む
ことを特徴とする請求項1に記載の感性的インタラクション装置。 - 前記ユーザ意図計算ユニットは、
インタラクティブ文脈情報を受信し、
前記感情関連データの時間シーケンスを取得し、
前記時間シーケンス、前記感情状態及び前記インタラクティブ文脈情報に基づいて、前記ユーザ意図を認識し、
前記インタラクティブ文脈情報は、前記インタラクティブ文脈情報に対応するインタラクティブ文脈における感情状態及びユーザ意図を含む
ことを特徴とする請求項1に記載の感性的インタラクション装置。 - ユーザ意図計算ユニットは、
前記感情関連データ、前記感情状態及びインタラクティブ文脈情報に基づいて、ベイジアンネットワークを用いて前記ユーザ意図を認識するか、又は、
前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報を、感情語義データベースにおける予め設定されたユーザ意図にマッチングすることによって、前記ユーザ意図を認識するか、又は、
前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報に基づいて、1つ又は複数のユーザ意図を含んでいる意図ライブラリにおいて検索することによって、前記ユーザ意図を認識し、
前記インタラクティブ文脈情報は、前記インタラクティブ文脈情報に対応するインタラクティブ文脈における感情状態及びユーザ意図を含む
ことを特徴とする請求項1に記載の感性的インタラクション装置。 - 前記感性的インタラクション計算モジュールは、前記ユーザ意図計算ユニットに接続される感情戦略形成ユニットを更に備え、
前記感情戦略形成ユニットは、前記感情状態及び前記ユーザ意図に基づいて感性的命令を生成し、
前記感性的命令は実行可能な指令を含み、
前記実行可能な指令は、前記ユーザ意図に対応する1つ又は複数のモダリティによって感情表出を生成するために用いられる
ことを特徴とする請求項1に記載の感性的インタラクション装置。 - 前記感情戦略形成ユニットは、
以前の感性的インタラクション会話において生成された他の1つの感性的命令が既に遂行された場合、前記感情状態及び前記ユーザ意図に基づいて前記感性的命令を生成するか、又は、
前記感情状態の変化が予め設定された閾値を超えた場合、動的に変化した前記感情状態に対応する前記ユーザ意図に基づいて前記感性的命令を生成するか、又は、
前記感情状態が動的に変化している場合、予め設定された時間間隔内の前記感情状態に基づいて前記感性的命令を生成する
ことを特徴とする請求項5に記載の感性的インタラクション装置。 - 前記感性的命令は、
前記ユーザに対して表される前記感情表出の感情モダリティと、前記ユーザに対して表される前記感情表出の出力感情状態と、前記ユーザに対して表される前記感情表出の感情強度と、のうちの少なくとも1つを更に含み、
前記感情モダリティは、前記ユーザのデータの1つ又は複数のモダリティによって決められる
ことを特徴とする請求項5に記載の感性的インタラクション装置。 - 感性的インタラクション計算モジュールに接続されるマルチチャンネルフロントエンド端末と、前記感性的インタラクション計算モジュールにおける感情認識部と、を更に備え、
前記マルチチャンネルフロントエンド端末はデータ収集部を備え、前記データ収集部は前記ユーザから前記感情関連データを受信し、
前記感情認識部は前記データ収集部と前記ユーザ意図計算ユニットとのそれぞれに接続されて、前記感情関連データを受信し、前記感情関連データに基づいて前記感情状態を認識する
ことを特徴とする請求項1に記載の感性的インタラクション装置。 - ユーザからの感情関連データ及び感情状態をユーザ意図計算ユニットによって受信するステップと、
前記感情関連データ及び前記感情状態に基づいてユーザ意図を認識するステップと、を含み、
前記ユーザ意図は感情意図及び/又はインタラクション意図を含み、
前記感情意図は前記感情状態に対応し且つ前記感情状態に対応する感情ニーズを含み、
前記インタラクション意図は1つ又は複数のトランザクション意図を含む
ことを特徴とする感性的インタラクション方法。 - 前記感情意図は、
前記感情状態の前記感情ニーズと、
前記インタラクション意図と前記感情ニーズとの関係と、を更に含む
ことを特徴とする請求項9に記載の方法。 - インタラクティブ文脈情報を受信するステップと、
前記感情関連データの時間シーケンスを取得するステップと、
前記時間シーケンス、前記感情状態及び前記インタラクティブ文脈情報に基づいて前記ユーザ意図を認識するステップと、を更に含み、
前記インタラクティブ文脈情報は、前記インタラクティブ文脈情報に対応するインタラクティブ文脈における感情状態及びユーザ意図を含む
ことを特徴とする請求項9に記載の方法。 - 前記感情関連データ、前記感情状態及びインタラクティブ文脈情報に基づいて、ベイジアンネットワークを用いて前記ユーザ意図を認識するステップ、又は
前記感情関連データ、前記感情状態及び前記インタラクティブ文脈を、感情語義データベースにおける予め設定されたユーザ意図にマッチングすることによって、前記ユーザ意図を認識するステップ、又は
前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報に基づいて、1つ又は複数のユーザ意図を含んでいる意図ライブラリにおいて検索することによって前記ユーザ意図を認識するステップ、を更に含み、
前記インタラクティブ文脈情報は、前記インタラクティブ文脈情報に対応するインタラクティブ文脈における感情状態及びユーザ意図を含む
ことを特徴とする請求項9に記載の方法。 - 前記感情状態及び前記ユーザ意図に基づいて、前記ユーザ意図計算ユニットに接続される感情戦略形成ユニットによって、感性的命令を生成するステップ、を更に含み、
前記感性的命令は実行可能な指令を含み、
前記実行可能な指令は、前記ユーザ意図に対応する1つ又は複数のモダリティによって感情表出を生成することを指示する
ことを特徴とする請求項9に記載の方法。 - 前記感性的命令を生成する前記ステップは、
以前の感性的インタラクション会話において生成された他の1つの感性的命令が既に遂行された場合、前記感情状態及び前記ユーザ意図に基づいて前記感性的命令を生成するステップ、又は、
前記感情状態の変化が予め設定された閾値を超えた場合、動的に変化した前記感情状態に対応する前記ユーザ意図に基づいて前記感性的命令を生成するステップ、又は、
前記感情状態が動的に変化している場合、予め設定された時間間隔内の前記感情状態に基づいて前記感性的命令を生成するステップ、を含む
ことを特徴とする請求項13に記載の方法。 - 前記感性的命令は、
前記ユーザに対して表される前記感情表出の感情モダリティと、前記ユーザに対して表される前記感情表出の出力感情状態と、前記ユーザに対して表される前記感情表出の感情強度と、のうちの少なくとも1つを更に含み、
前記感情モダリティは、前記ユーザのデータの1つ又は複数のモダリティによって決められる
ことを特徴とする請求項13に記載の方法。 - 前記ユーザ意図を認識する前記ステップは、
1つの感性的インタラクション会話において先に認識された意図に基づいて将来のインタラクション意図及び/又は将来の感情意図のトレンドを予測するか、又は過去の感性的インタラクション会話の履歴データに基づいて感性的インタラクション会話におけるインタラクション意図及び/又は感情意図のトレンドを予測するために、インタラクションシーケンスを分析するステップと、
前記感情関連データにおける情報の重みを確定して最大重みを有する情報を抽出するために、前記感情関連データから注目される焦点を抽出するステップと、
語義規則に基づいて語義情報を抽出して感情関連データの語義を取得するステップと、を含む
ことを特徴とする請求項9に記載の方法。 - 感性的インタラクション計算モジュールを備え、
前記感性的インタラクション計算モジュールは、ユーザ意図計算ユニットと、前記ユーザ意図計算ユニットに接続される感情戦略形成ユニットと、を備え、
前記ユーザ意図計算ユニットは、感情関連データ及びユーザの感情状態を受信し、前記感情関連データ及び前記感情状態に基づいてユーザ意図を認識し、
前記ユーザ意図は感情意図及び/又はインタラクション意図を含み、前記感情意図は前記感情状態に対応し且つ前記感情状態の感情ニーズを含み、前記インタラクション意図は1つ又は複数のトランザクション意図を含み、
前記感情戦略形成ユニットは、前記感情状態及び前記ユーザ意図に基づいて感性的命令を生成し、
前記感性的命令は実行可能な指令を含み、前記実行可能な指令は、前記ユーザ意図に対応する1つ又は複数のモダリティによって感情表出を生成するために用いられる
ことを特徴とする感性的インタラクションシステム。 - データ収集部を備えるマルチチャンネルフロントエンド端末と、前記感性的インタラクション計算モジュールにおける感情認識部と、を更に備え、
前記データ収集部は、前記ユーザから1つ又は複数のモダリティを有する前記感情関連データを捕獲し、
前記感情認識部は前記データ収集部に接続され、前記感情関連データを受信し、さらに前記感情関連データに基づいて感情状態を認識し、
感情状態は離散的な感情分類及び/又は次元における感情数値を含む
ことを特徴とする請求項17に記載の感性的インタラクションシステム。 - 前記マルチチャンネルフロントエンド端末は、前記感情戦略形成ユニットに接続される感情計算表出生成部を更に備え、
前記感情計算表出生成部は、前記感性的命令に基づいて前記感情表出を生成し、さらに生成した前記感情表出を前記ユーザに伝える
ことを特徴とする請求項18に記載の感性的インタラクションシステム。 - 前記ユーザ意図計算ユニットに接続されて場面内容を提供する場面内容分析部と、
前記ユーザ意図計算ユニットに接続されてインタラクティブ文脈情報を提供するインタラクティブ文脈分析部と、
前記ユーザ意図計算ユニットに接続され、前記ユーザ意図計算ユニットが前記ユーザからの入力の意味を理解するよう、語義データを提供する語義データベースと、
前記ユーザ意図計算ユニットに接続され、前記ユーザとインタラクション会話を行うときに前記ユーザ意図計算ユニットが基本的な事実情報を理解するよう、一般知識データを提供する一般知識データベースと、
前記ユーザ意図計算ユニットに接続され、特定のビジネス分野のビジネスロジックを含んだ分野知識データを提供する分野知識データベースと、を更に備え、
前記場面内容は、感性的インタラクションが発生する場面に関する情報を含み、
前記インタラクティブ文脈情報は、前記インタラクティブ文脈情報に対応するインタラクティブ文脈における感情状態及びユーザ意図を含み、
前記ユーザ意図計算ユニットは、前記場面内容と、前記インタラクティブ文脈情報と、前記語義データと、前記一般知識データと、前記分野知識データとのうちの少なくとも1つに基づいて、ユーザ意図を認識する
ことを特徴とする請求項17に記載の感性的インタラクションシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810079432.4 | 2018-01-26 | ||
CN201810077175.0 | 2018-01-26 | ||
CN201810078132.4 | 2018-01-26 | ||
CN201810077175.0A CN108334583B (zh) | 2018-01-26 | 2018-01-26 | 情感交互方法及装置、计算机可读存储介质、计算机设备 |
CN201810079432.4A CN108227932B (zh) | 2018-01-26 | 2018-01-26 | 交互意图确定方法及装置、计算机设备及存储介质 |
CN201810078132.4A CN110110169A (zh) | 2018-01-26 | 2018-01-26 | 人机交互方法及人机交互装置 |
PCT/CN2018/088389 WO2019144542A1 (en) | 2018-01-26 | 2018-05-25 | Affective interaction systems, devices, and methods based on affective computing user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021514514A true JP2021514514A (ja) | 2021-06-10 |
JP7199451B2 JP7199451B2 (ja) | 2023-01-05 |
Family
ID=67395738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562804A Active JP7199451B2 (ja) | 2018-01-26 | 2018-05-25 | 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11226673B2 (ja) |
JP (1) | JP7199451B2 (ja) |
WO (1) | WO2019144542A1 (ja) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188840B1 (en) * | 2017-12-29 | 2021-11-30 | Intuit, Inc. | Machine-learning models to facilitate user retention for software applications |
US11551042B1 (en) * | 2018-08-27 | 2023-01-10 | Snap Inc. | Multimodal sentiment classification |
KR102252195B1 (ko) * | 2018-09-14 | 2021-05-13 | 엘지전자 주식회사 | 감성 인식기 및 이를 포함하는 로봇, 서버 |
WO2020117358A2 (en) * | 2018-09-27 | 2020-06-11 | Brown University | Systems and methods for operating robots using object-oriented partially observable markov decision processes |
JP6993314B2 (ja) * | 2018-11-09 | 2022-01-13 | 株式会社日立製作所 | 対話システム、装置、及びプログラム |
US11557297B2 (en) | 2018-11-09 | 2023-01-17 | Embodied, Inc. | Systems and methods for adaptive human-machine interaction and automatic behavioral assessment |
US20200160176A1 (en) * | 2018-11-16 | 2020-05-21 | Royal Bank Of Canada | System and method for generative model for stochastic point processes |
US11037365B2 (en) | 2019-03-07 | 2021-06-15 | Alibaba Group Holding Limited | Method, apparatus, medium, terminal, and device for processing multi-angle free-perspective data |
US11842729B1 (en) * | 2019-05-08 | 2023-12-12 | Apple Inc. | Method and device for presenting a CGR environment based on audio data and lyric data |
WO2020230458A1 (ja) * | 2019-05-16 | 2020-11-19 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2021068065A (ja) * | 2019-10-18 | 2021-04-30 | 富士ゼロックス株式会社 | クエリ生成システム、検索システム及びプログラム |
CN110827312B (zh) * | 2019-11-12 | 2023-04-28 | 北京深境智能科技有限公司 | 一种基于协同视觉注意力神经网络的学习方法 |
WO2021092935A1 (zh) * | 2019-11-15 | 2021-05-20 | 深圳海付移通科技有限公司 | 基于图像数据的消息推送方法、设备及计算机存储介质 |
US11429869B2 (en) * | 2019-11-21 | 2022-08-30 | International Business Machines Corporation | Artificially intelligent interaction agent |
JP7123028B2 (ja) * | 2019-11-27 | 2022-08-22 | Tis株式会社 | 情報処理システム、情報処理方法、及びプログラム |
WO2021134277A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市优必选科技股份有限公司 | 情感识别方法、智能装置和计算机可读存储介质 |
US11386712B2 (en) * | 2019-12-31 | 2022-07-12 | Wipro Limited | Method and system for multimodal analysis based emotion recognition |
JP7413055B2 (ja) * | 2020-02-06 | 2024-01-15 | 本田技研工業株式会社 | 情報処理装置、車両、プログラム、及び情報処理方法 |
US11335342B2 (en) * | 2020-02-21 | 2022-05-17 | International Business Machines Corporation | Voice assistance system |
EP4111354A4 (en) | 2020-02-29 | 2024-04-03 | Embodied, Inc. | SYSTEMS AND METHODS FOR MANAGING SHORT AND LONG TERM DIALOGUE BETWEEN A ROBOTIC COMPUTER DEVICE/DIGITAL COMPANION AND A USER |
CN115461198A (zh) * | 2020-02-29 | 2022-12-09 | 具象有限公司 | 管理用户与机器人之间的会话 |
EP4111332A4 (en) | 2020-02-29 | 2024-05-01 | Embodied, Inc. | SYSTEMS AND METHODS FOR CREATING AND MODIFYING PRESENTATION CONVERSATION FILES FOR MULTIMODAL INTERACTIVE COMPUTING DEVICES / ARTIFICIAL COMPANIONS |
CN111274490B (zh) * | 2020-03-26 | 2024-01-19 | 北京百度网讯科技有限公司 | 咨询信息的处理方法和装置 |
WO2021218614A1 (zh) * | 2020-04-30 | 2021-11-04 | 陈永聪 | 通用人工智能的体系建立 |
US20220036554A1 (en) * | 2020-08-03 | 2022-02-03 | Healthcare Integrated Technologies Inc. | System and method for supporting the emotional and physical health of a user |
CN111859925B (zh) * | 2020-08-06 | 2023-08-08 | 东北大学 | 一种基于概率情感词典的情感分析系统及方法 |
CN112348640B (zh) * | 2020-11-12 | 2021-08-13 | 北京科技大学 | 一种基于面部情感状态分析的在线购物系统及方法 |
CN113014471B (zh) * | 2021-01-18 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 会话处理方法,装置、终端和存储介质 |
CN113095185B (zh) * | 2021-03-31 | 2024-09-10 | 新疆爱华盈通信息技术有限公司 | 人脸表情识别方法、装置、设备及存储介质 |
CN113127708B (zh) * | 2021-04-20 | 2024-06-07 | 中国科学技术大学 | 信息交互方法、装置、设备及存储介质 |
GB2620893A (en) * | 2021-05-06 | 2024-01-24 | Optimum Health Ltd | Systems and methods for real-time determinations of mental health disorders using multi-tier machine learning models based on user interactions with computer |
CN113331839A (zh) * | 2021-05-28 | 2021-09-03 | 武汉科技大学 | 一种基于多源信息融合的网络学习注意力监测方法及系统 |
CN113239693B (zh) * | 2021-06-01 | 2023-10-27 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、设备及存储介质 |
US20220391732A1 (en) * | 2021-06-04 | 2022-12-08 | International Business Machines Corporation | Continuous optimization of human-algorithm collaboration performance |
CN113435518B (zh) * | 2021-06-29 | 2024-03-22 | 青岛海尔科技有限公司 | 特征融合基于多模态的交互方法及装置 |
CN113421546B (zh) * | 2021-06-30 | 2024-03-01 | 平安科技(深圳)有限公司 | 基于跨被试多模态的语音合成方法及相关设备 |
CN113421594B (zh) * | 2021-06-30 | 2023-09-22 | 平安科技(深圳)有限公司 | 语音情感识别方法、装置、设备及存储介质 |
US20230008868A1 (en) * | 2021-07-08 | 2023-01-12 | Nippon Telegraph And Telephone Corporation | User authentication device, user authentication method, and user authentication computer program |
CN113268994B (zh) * | 2021-07-16 | 2021-10-01 | 中国平安人寿保险股份有限公司 | 基于胶囊网络的意图识别方法及装置 |
CN113593521B (zh) * | 2021-07-29 | 2022-09-20 | 北京三快在线科技有限公司 | 语音合成方法、装置、设备及可读存储介质 |
CN113749656B (zh) * | 2021-08-20 | 2023-12-26 | 杭州回车电子科技有限公司 | 基于多维生理信号的情感识别方法和装置 |
CN113722505B (zh) * | 2021-08-30 | 2023-04-18 | 海南大学 | 面向dikw资源的情感表达映射、度量与优化传输系统 |
CN113705732B (zh) * | 2021-09-26 | 2024-02-02 | 华东理工大学 | 基于通用模型的减少p300训练时间的方法及装置 |
CN114035686B (zh) * | 2021-11-10 | 2024-04-16 | 浙江大学 | 融合触觉的多模态微动效广告情境构建方法 |
CN114093028A (zh) * | 2021-11-19 | 2022-02-25 | 济南大学 | 一种基于意图分析的人机协同方法、系统及机器人 |
CN114374664B (zh) * | 2021-12-15 | 2022-09-23 | 海南大学 | 基于公平性导向的情感内容dikw化映射与传输方法 |
CN113946673B (zh) * | 2021-12-20 | 2022-04-08 | 深圳市一号互联科技有限公司 | 一种基于语义的客服智能路由处理方法和装置 |
CN114357135A (zh) * | 2021-12-31 | 2022-04-15 | 科大讯飞股份有限公司 | 交互方法、交互装置、电子设备以及存储介质 |
CN114418767A (zh) * | 2022-01-25 | 2022-04-29 | 支付宝(杭州)信息技术有限公司 | 一种交易意图识别方法及装置 |
CN117648411A (zh) * | 2022-08-19 | 2024-03-05 | 华为技术有限公司 | 一种表情生成方法以及装置 |
EP4375156A1 (en) * | 2022-11-22 | 2024-05-29 | Toyota Jidosha Kabushiki Kaisha | Method and data processing device for controlling a device based on a state of its user |
CN116271786B (zh) * | 2023-02-08 | 2023-10-13 | 广州市邦杰软件科技有限公司 | 一种动漫游戏机的界面交互控制方法及装置 |
CN115793865B (zh) * | 2023-02-09 | 2023-04-14 | 中用科技有限公司 | 一种减少计算阻塞的人工智能交互方法 |
CN117575013B (zh) * | 2023-09-12 | 2024-08-06 | 田帅领 | 应用于网络安全平台的交互挖掘方法及人工智能预测系统 |
CN117972160B (zh) * | 2024-02-21 | 2024-09-06 | 暗物智能科技(广州)有限公司 | 一种多模态信息处理方法及装置 |
CN117852553B (zh) * | 2024-03-07 | 2024-05-10 | 深圳华强电子网集团股份有限公司 | 基于聊天记录提取元器件交易场景信息的语言处理系统 |
CN117933269B (zh) * | 2024-03-22 | 2024-06-18 | 合肥工业大学 | 一种基于情感分布的多模态深度模型构建方法及系统 |
CN118446230B (zh) * | 2024-07-02 | 2024-09-27 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种捕捉情感支持对话中动态因果关系的方法 |
CN118467848B (zh) * | 2024-07-10 | 2024-09-10 | 山东亚微软件股份有限公司 | 基于情境识别的用户类型识别与交互系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
WO1999063425A1 (fr) * | 1998-06-02 | 1999-12-09 | Sony Corporation | Procede et appareil de traitement d'informations et support de fourniture d'informations |
JP2005346471A (ja) * | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2014174988A (ja) * | 2013-03-11 | 2014-09-22 | Immersion Corp | 自動ハプティック効果調整システム |
JP2017156854A (ja) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130084543A (ko) | 2012-01-17 | 2013-07-25 | 삼성전자주식회사 | 사용자 인터페이스 제공 장치 및 방법 |
US20150278783A1 (en) * | 2014-03-31 | 2015-10-01 | Comr.Se Corp. | Native e-commerce transactables for familiar user environments |
US9978362B2 (en) * | 2014-09-02 | 2018-05-22 | Microsoft Technology Licensing, Llc | Facet recommendations from sentiment-bearing content |
US10334158B2 (en) * | 2014-11-03 | 2019-06-25 | Robert John Gove | Autonomous media capturing |
CN105843381B (zh) | 2016-03-18 | 2020-07-28 | 北京光年无限科技有限公司 | 用于实现多模态交互的数据处理方法及多模态交互系统 |
CN105843118B (zh) | 2016-03-25 | 2018-07-27 | 北京光年无限科技有限公司 | 一种机器人交互方法及机器人系统 |
CN107291654A (zh) * | 2016-03-31 | 2017-10-24 | 深圳光启合众科技有限公司 | 机器人的智能决策系统和方法 |
WO2018000259A1 (zh) | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106773923B (zh) | 2016-11-30 | 2020-04-21 | 北京光年无限科技有限公司 | 面向机器人的多模态情感数据交互方法及装置 |
CN106683672B (zh) | 2016-12-21 | 2020-04-03 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN106649762A (zh) * | 2016-12-27 | 2017-05-10 | 竹间智能科技(上海)有限公司 | 基于追问问题与反馈信息的意图识别方法、系统 |
CN107562816B (zh) | 2017-08-16 | 2021-02-09 | 苏州狗尾草智能科技有限公司 | 用户意图自动识别方法及装置 |
-
2018
- 2018-05-25 JP JP2020562804A patent/JP7199451B2/ja active Active
- 2018-05-25 WO PCT/CN2018/088389 patent/WO2019144542A1/en active Application Filing
- 2018-05-25 US US16/080,301 patent/US11226673B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
WO1999063425A1 (fr) * | 1998-06-02 | 1999-12-09 | Sony Corporation | Procede et appareil de traitement d'informations et support de fourniture d'informations |
JP2005346471A (ja) * | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2014174988A (ja) * | 2013-03-11 | 2014-09-22 | Immersion Corp | 自動ハプティック効果調整システム |
JP2017156854A (ja) * | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7199451B2 (ja) | 2023-01-05 |
US20210191506A1 (en) | 2021-06-24 |
US11226673B2 (en) | 2022-01-18 |
WO2019144542A1 (en) | 2019-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7199451B2 (ja) | 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 | |
CN111459290B (zh) | 交互意图确定方法及装置、计算机设备及存储介质 | |
US10748644B2 (en) | Systems and methods for mental health assessment | |
CN108334583B (zh) | 情感交互方法及装置、计算机可读存储介质、计算机设备 | |
US20210081056A1 (en) | Vpa with integrated object recognition and facial expression recognition | |
Zhang et al. | Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot | |
Vinola et al. | A survey on human emotion recognition approaches, databases and applications | |
CN110110169A (zh) | 人机交互方法及人机交互装置 | |
Sheth et al. | Cognitive services and intelligent chatbots: current perspectives and special issue introduction | |
Griol et al. | Mobile conversational agents for context-aware care applications | |
Pan et al. | A review of multimodal emotion recognition from datasets, preprocessing, features, and fusion methods | |
KR102528953B1 (ko) | 원격재가훈련이 가능한 치매예방 인지기능 훈련 서비스 제공 방법 | |
Griol et al. | Modeling the user state for context-aware spoken interaction in ambient assisted living | |
Zhu et al. | Emotion recognition based on brain-like multimodal hierarchical perception | |
Churamani et al. | Affect-driven learning of robot behaviour for collaborative human-robot interactions | |
Allwood et al. | The analysis of embodied communicative feedback in multimodal corpora: a prerequisite for behavior simulation | |
Roudposhti et al. | A multilevel body motion-based human activity analysis methodology | |
Pei et al. | Affective Computing: Recent Advances, Challenges, and Future Trends | |
Marcos et al. | Emotional AI in Healthcare: a pilot architecture proposal to merge emotion recognition tools | |
Garay-Vitoria et al. | Application of an ontology-based platform for developing affective interaction systems | |
Hao et al. | Proposal of initiative service model for service robot | |
Wang et al. | Touch-text answer for human-robot interaction via supervised adversarial learning | |
Weichbroth et al. | A note on the affective computing systems and machines: a classification and appraisal | |
Kalateh et al. | A Systematic Review on Multimodal Emotion Recognition: Building Blocks, Current State, Applications, and Challenges | |
KR102314332B1 (ko) | 머신러닝 자연어 처리를 활용한 의사-환자의 진료상담 지원 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |