JP7120060B2 - 音声対話装置、音声対話装置の制御装置及び制御プログラム - Google Patents
音声対話装置、音声対話装置の制御装置及び制御プログラム Download PDFInfo
- Publication number
- JP7120060B2 JP7120060B2 JP2019019745A JP2019019745A JP7120060B2 JP 7120060 B2 JP7120060 B2 JP 7120060B2 JP 2019019745 A JP2019019745 A JP 2019019745A JP 2019019745 A JP2019019745 A JP 2019019745A JP 7120060 B2 JP7120060 B2 JP 7120060B2
- Authority
- JP
- Japan
- Prior art keywords
- engagement level
- question
- subject
- target person
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000003993 interaction Effects 0.000 claims description 102
- 230000004044 response Effects 0.000 claims description 57
- 230000009471 action Effects 0.000 claims description 37
- 230000006399 behavior Effects 0.000 claims description 15
- 230000008921 facial expression Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 210000001508 eye Anatomy 0.000 description 6
- 235000002673 Dioscorea communis Nutrition 0.000 description 5
- 241000544230 Dioscorea communis Species 0.000 description 5
- 208000035753 Periorbital contusion Diseases 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 230000002596 correlated effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000000474 nursing effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003287 bathing Methods 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Social Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Description
エンゲージメントレベルが第2の閾値以上で、対象者が対話の継続に非常に積極的である場合、対象者は音声対話装置の問いかけの意味が分からなかった可能性がある。このような場合、音声対話装置は、対象者に対し、前回の問いかけと同じ表現で再度問いかけを行うようにする。一方、エンゲージメントレベルが第1の閾値以上で第2の閾値未満であり、対象者が、対話の継続を望んでいない訳ではないが、対話の継続に非常に積極的という程ではないという場合、対象者に対し、前回の問いかけとは表現を変えて再度問いかけを行う。例えば、再度の問いかけでは、前回の問いかけに対して、より対象者の興味をそそる表現に変える。このようにすることで、効率的に対象者が推奨される行動を行うよう促すことができる。
音声対話装置との対話を適切に行うために、対象者は、対象者と音声対話装置との距離が推奨距離以内になるように音声対話装置に近づいて対話を行う必要がある。このため、音声対話装置の問いかけに対して、対象者が音声対話装置との対話の継続に積極的である場合には、音声対話装置に近づいて応答を行うと考えられる。つまり、対象者と音声対話装置との距離が、短い場合には長い場合よりもエンゲージメントレベルが高くなると考えられる。このように、対象者と音声対話装置との距離と、エンゲージメントレベルと、の間には相関があるので、音声対話装置の問いかけに対して、対象者が応答を行ったときの、対象者と音声対話装置との距離に応じてエンゲージメントレベルを算出することができる。このようにすることで、エンゲージメントレベルの算出を精度良く行うことができる。
外部装置は、音声対話装置よりも設置の自由度が高い。例えば外部装置を居室の天井に設置すれば、外部装置に設置されたカメラは居室内の広い範囲の撮像が可能になる。このため、音声対話装置のカメラよりも、対象者と音声対話装置との位置関係を精度良く把握することができる。つまり、対象者と音声対話装置との距離の算出を、音声対話装置の外部にある外部装置に設置されたカメラによる撮像画像に基づいて行うことで、対象者と音声対話装置との距離の算出の精度をより向上させることができる。これにより、エンゲージメントレベルの算出を精度良く行うことができる。
以下、図面を参照して本発明の実施の形態1について説明する。
図1は、実施の形態1に係る音声対話装置100の概観図である。音声対話装置100は、対象者(ユーザ)に対して問いかけを行い、対象者が推奨される行動を行うように促すロボットである。音声対話装置100は、キャラクターを具現化したキャラクター装置であり、対話に合わせて眼の表情や視線方向が変化する。
図3及び図4は、音声対話装置100における対象者に対し声かけする処理の流れを示すフローチャートである。図3には、対象者に対して音声対話装置に注意を向けさせるための問いかけを行うまでの処理(ステップS101からステップS108)を示す。図4には、対象者に対して音声対話装置に注意を向けさせるための問いかけを行った後の処理(ステップS110からステップS115)を示す。
図5は、図4に示すフローチャートにおけるステップS110の処理について具体的に説明する模式図である。図5に示すように、対象者Tに対して、音声対話装置100が、例えば「15:00からのレクリエーションに参加しませんか?」といった、推奨される行動を実行するよう対象者に促す“問いかけ”を行ったとする。
図6は、図4に示すフローチャートにおけるステップS111及びステップS112の処理について具体的に説明する模式図である。図6に示すように、エンゲージメントレベルは、対象者Tと音声対話装置100との距離Lによって判定する。ここで、対象者Tと音声対話装置100との距離Lは、顔認識部202において、カメラ102から受け取った画像信号を解析することにより算出する。
図7は、図4に示すフローチャートにおけるステップS113の処理について具体的に説明する模式図である。ここで、第1の閾値に対応する、対象者Tと音声対話装置100との距離Lを第1の距離L1、第1の閾値よりも高い第2の閾値に対応する、対象者Tと音声対話装置100との距離Lを第2の距離L2とする。
図2に示す顔認識部202における、対象者Tと音声対話装置100との距離Lの算出は、音声対話装置100の外部にある外部装置に設置されたカメラによる撮像画像に基づいて行うようにしてもよい。図8は、外部装置500の構成の一例を示す模式図である。図8に示すように、外部装置500は居室の天井に設置されている。外部装置500には、カメラ510が設置されている。また、外部装置500と音声対話装置100とは、無線通信を行うための無線ルータ520、530を介して接続されている。カメラ510は、撮影した画像を画像信号に変換し、無線ルータ520、530を介して画像データを音声対話装置100(具体的には、図2に示す制御部200の顔認識部202)へ引き渡す。外部装置500は、音声対話装置100よりも設置の自由度が高い。例えば外部装置500を居室の天井に設置すれば、カメラ510は居室内の広い範囲の撮像が可能になる。このため、カメラ510により撮像された画像により、対象者Tと音声対話装置100との位置関係を精度良く把握することができる。このため、対象者Tと音声対話装置100との距離Lの算出を、音声対話装置100の外部にある外部装置に設置されたカメラによる撮像画像に基づいて行うことで、対象者Tと音声対話装置100との距離Lの算出の精度をより向上させることができる。
以下、図面を参照して本発明の実施の形態2について説明する。
図9は、実施の形態2に係る制御装置300の構成について説明するブロック図である。図9には制御装置300の制御対象である音声対話装置400の構成も示されている。音声対話装置400は、制御部450において、注視判定部、注意喚起部、応答内容判定部及びエンゲージメントレベル判定部の機能ブロックを備えていない点のみが、図2に示す実施の形態1に係る音声対話装置100との相違点である。実施の形態2に係る制御装置300は、制御部350において、これらの機能ブロック、すなわち、注視判定部209、注意喚起部210、応答内容判定部211及びエンゲージメントレベル判定部212を備えている。制御部300は、例えばCPUによって構成される。音声対話装置400は、制御装置300の制御により、図3及び図4を参照して説明した、対象者に対し声かけする処理を実現する。このような構成によれば、対象者を不快にさせてしまったりする可能性を低減しつつ、効率的に対象者が推奨される行動を行うよう促すことができる。
101 マイク
102、510 カメラ
106 表示パネル
109 スピーカ
110 胴体部
111 モータ
120 頭部
122 眼球部
161 黒目画像
200、450 制御部
201 発話認識部
202 顔認識部
203 視線制御部
204 表示制御部
205 モータ制御部
206 音声選択部
207 発話制御部
208 視線検知部
209 注視判定部
210 注意喚起部
211 応答内容判定部
212 エンゲージメントレベル判定部
300 制御装置
500 外部装置
520、530 無線ルータ
Claims (7)
- 対象者に対し、前記対象者が推奨される行動を行うように促すための問いかけを行う音声対話装置であって、
前記問いかけをした際に、前記問いかけに対して前記対象者より予め想定された応答があったかどうかを判定し、前記対象者より予め想定された応答があったと判定された場合には前記対象者への問いかけを終了する応答内容判定部と、
前記応答内容判定部において、前記対象者より予め想定された応答がなかったと判定された場合に前記対象者がどの程度対話の継続に積極的であるかを表す指標であるエンゲージメントレベルを算出し、算出した前記エンゲージメントレベルが、第1の閾値以上の場合には前記対象者に再度問いかけを行うようにし、前記第1の閾値未満の場合には前記対象者への問いかけを終了するエンゲージメントレベル判定部と、を備え、
前記エンゲージメントレベル判定部において、算出した前記エンゲージメントレベルが、前記第1の閾値よりも高い第2の閾値以上である場合には前回の問いかけと同じ表現で再度問いかけを行い、前記第1の閾値以上で前記第2の閾値未満である場合には前回の問いかけとは表現を変えて再度問いかけを行うようにする、音声対話装置。 - 前記エンゲージメントレベル判定部において、前記エンゲージメントレベルを前記対象者と前記音声対話装置との距離に応じて算出する、請求項1に記載の音声対話装置。
- 前記対象者と前記音声対話装置との距離の算出は、前記音声対話装置の外部にある外部装置に設置されたカメラによる撮像画像に基づいて行う、請求項2に記載の音声対話装置。
- 前記エンゲージメントレベル判定部において、前記エンゲージメントレベルを、前記問いかけに対する前記対象者の応答内容を考慮して算出する、請求項1または2に記載の音声対話装置。
- 前記エンゲージメントレベル判定部において、前記エンゲージメントレベルを、前記問いかけに対する前記対象者の顔の表情や挙動を考慮して算出する、請求項1または2に記載の音声対話装置。
- 対象者に対し、前記対象者が推奨される行動を行うように促すための問いかけを行う音声対話装置の制御装置であって、
前記音声対話装置により前記問いかけをした際に、前記問いかけに対して前記対象者より予め想定された応答があったかどうかを判定し、予め想定された応答があったと判定された場合には前記対象者への問いかけを終了するよう前記音声対話装置に指示する応答内容判定部と、
前記応答内容判定部において、前記対象者より予め想定された応答がなかったと判定された場合に前記対象者がどの程度対話の継続に積極的であるかを表す指標であるエンゲージメントレベルを算出し、算出した前記エンゲージメントレベルが、第1の閾値以上の場合には前記対象者に再度問いかけを行うよう前記音声対話装置に指示し、前記第1の閾値未満の場合には前記対象者への問いかけを終了するよう前記音声対話装置に指示するエンゲージメントレベル判定部と、を備え、
前記エンゲージメントレベル判定部において、算出した前記エンゲージメントレベルが、前記第1の閾値よりも高い第2の閾値以上である場合には前回の問いかけと同じ表現で再度問いかけを行い、前記第1の閾値以上で前記第2の閾値未満である場合には前回の問いかけとは表現を変えて再度問いかけを行うよう前記音声対話装置に指示する、音声対話装置の制御装置。 - 対象者に対し、前記対象者が推奨される行動を行うように促すための問いかけを行う音声対話装置の制御プログラムであって、
前記問いかけをした際に、前記問いかけに対して前記対象者より予め想定された応答があったかどうかを判定し、予め想定された応答があったと判定された場合には前記対象者への問いかけを終了する第1のステップと、
前記第1のステップにおいて、前記対象者より予め想定された応答がなかったと判定された場合に前記対象者がどの程度対話の継続に積極的であるかを表す指標であるエンゲージメントレベルを算出し、算出した前記エンゲージメントレベルが、第1の閾値以上の場合には前記対象者に再度問いかけを行うようにし、前記第1の閾値未満の場合には前記対象者への問いかけを終了する第2のステップと、
前記第2のステップにおいて、算出した前記エンゲージメントレベルが、前記第1の閾値よりも高い第2の閾値以上である場合には前回の問いかけと同じ表現で再度問いかけを行い、前記第1の閾値以上で前記第2の閾値未満である場合には前回の問いかけとは表現を変えて再度問いかけを行うようにする第3のステップと、を前記音声対話装置のコンピュータに実行させる制御プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019019745A JP7120060B2 (ja) | 2019-02-06 | 2019-02-06 | 音声対話装置、音声対話装置の制御装置及び制御プログラム |
CN202010036348.1A CN111540383A (zh) | 2019-02-06 | 2020-01-14 | 语音会话装置及其控制装置、控制程序以及控制方法 |
US16/781,651 US11682389B2 (en) | 2019-02-06 | 2020-02-04 | Voice conversation system, control system for voice conversation system, and control program, and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019019745A JP7120060B2 (ja) | 2019-02-06 | 2019-02-06 | 音声対話装置、音声対話装置の制御装置及び制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126195A JP2020126195A (ja) | 2020-08-20 |
JP7120060B2 true JP7120060B2 (ja) | 2022-08-17 |
Family
ID=71836090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019019745A Active JP7120060B2 (ja) | 2019-02-06 | 2019-02-06 | 音声対話装置、音声対話装置の制御装置及び制御プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11682389B2 (ja) |
JP (1) | JP7120060B2 (ja) |
CN (1) | CN111540383A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7331025B2 (ja) * | 2021-02-05 | 2023-08-22 | Necパーソナルコンピュータ株式会社 | 学習支援システム、学習支援方法、及びプログラム |
CN112949551A (zh) * | 2021-03-19 | 2021-06-11 | 科大讯飞股份有限公司 | 一种眼部关键信息确定方法、装置、设备及存储介质 |
WO2022215104A1 (ja) * | 2021-04-05 | 2022-10-13 | 三菱電機株式会社 | 音声対話装置および音声対話方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013154458A (ja) | 2012-01-31 | 2013-08-15 | Fujitsu Ltd | 対話装置、対話プログラムおよび対話方法 |
JP2016076007A (ja) | 2014-10-03 | 2016-05-12 | 株式会社Nttドコモ | 対話装置および対話方法 |
JP2017073125A (ja) | 2015-09-14 | 2017-04-13 | 富士通株式会社 | 行動推奨のための会話生成 |
JP2018049132A (ja) | 2016-09-21 | 2018-03-29 | トヨタ自動車株式会社 | 音声対話システムおよび音声対話方法 |
WO2018105373A1 (ja) | 2016-12-05 | 2018-06-14 | ソニー株式会社 | 情報処理装置、情報処理方法、および情報処理システム |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252458A (ja) * | 2005-03-14 | 2006-09-21 | Yamaha Corp | 複数話者の音声信号を処理する音声信号処理装置およびプログラム |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
US20180144649A1 (en) * | 2010-06-07 | 2018-05-24 | Affectiva, Inc. | Smart toy interaction using image analysis |
US10796176B2 (en) * | 2010-06-07 | 2020-10-06 | Affectiva, Inc. | Personal emotional profile generation for vehicle manipulation |
CA2814426A1 (en) * | 2010-10-15 | 2012-04-19 | Intelligent Mechatronic Systems Inc. | Implicit association and polymorphism driven human machine interaction |
US9727885B1 (en) * | 2012-07-12 | 2017-08-08 | Benovate Inc. | Systems and methods for producing personalized health recommendation data |
WO2014038788A1 (ko) * | 2012-09-04 | 2014-03-13 | 에스케이플래닛 주식회사 | 그룹 스케줄 관리 시스템 및 방법 |
US9536049B2 (en) * | 2012-09-07 | 2017-01-03 | Next It Corporation | Conversational virtual healthcare assistant |
US20170206064A1 (en) * | 2013-03-15 | 2017-07-20 | JIBO, Inc. | Persistent companion device configuration and deployment platform |
US9808709B2 (en) * | 2013-09-27 | 2017-11-07 | PlayNovation LLC | System and methods for biometric detection of play states, intrinsic motivators, play types/patterns and play personalities |
JP2015132878A (ja) | 2014-01-09 | 2015-07-23 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10311694B2 (en) * | 2014-02-06 | 2019-06-04 | Empoweryu, Inc. | System and method for adaptive indirect monitoring of subject for well-being in unattended setting |
EP2933070A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Methods and systems of handling a dialog with a robot |
US9715875B2 (en) * | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
WO2015198317A1 (en) * | 2014-06-23 | 2015-12-30 | Intervyo R&D Ltd. | Method and system for analysing subjects |
US9375845B1 (en) * | 2014-09-30 | 2016-06-28 | Sprint Communications Company, L.P. | Synchronizing robot motion with social interaction |
US10223442B2 (en) * | 2015-04-09 | 2019-03-05 | Qualtrics, Llc | Prioritizing survey text responses |
US10324979B2 (en) * | 2015-06-01 | 2019-06-18 | AffectLayer, Inc. | Automatic generation of playlists from conversations |
US9724824B1 (en) * | 2015-07-08 | 2017-08-08 | Sprint Communications Company L.P. | Sensor use and analysis for dynamic update of interaction in a social robot |
US11064952B2 (en) * | 2015-12-30 | 2021-07-20 | Zoll Medical Corporation | External medical device that identifies a response activity |
US9921574B1 (en) * | 2016-03-03 | 2018-03-20 | Sprint Communications Company L.P. | Dynamic interactive robot dialogue creation incorporating disparate information sources and collective feedback analysis |
US10714081B1 (en) * | 2016-03-07 | 2020-07-14 | Amazon Technologies, Inc. | Dynamic voice assistant interaction |
WO2018022808A1 (en) * | 2016-07-27 | 2018-02-01 | Warner Bros. Entertainment Inc. | Control of social robot based on prior character portrayal in fiction or performance |
US20190043623A1 (en) * | 2017-08-04 | 2019-02-07 | Thomas W. WATLINGTON, IV | System and method for physiological and psychological support in home healthcare |
US20190068526A1 (en) * | 2017-08-25 | 2019-02-28 | Facebook, Inc. | Methods and systems for helper bot platform assistance |
WO2019044485A1 (ja) * | 2017-08-28 | 2019-03-07 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
JP3224675U (ja) * | 2017-12-05 | 2020-01-16 | ユエン リー ヴィオラ ラム, | 瞳孔反応、顔追跡、及び感情検出を使用した対話型・適応型学習、神経認知障害診断、並びに非追随性検出のシステム |
US20190190874A1 (en) * | 2017-12-15 | 2019-06-20 | Facebook, Inc. | People Matching for Social Activities on an Online Social Network |
US11221669B2 (en) * | 2017-12-20 | 2022-01-11 | Microsoft Technology Licensing, Llc | Non-verbal engagement of a virtual assistant |
US11900928B2 (en) * | 2017-12-23 | 2024-02-13 | Soundhound Ai Ip, Llc | System and method for adapted interactive experiences |
CN108510986A (zh) * | 2018-03-07 | 2018-09-07 | 北京墨丘科技有限公司 | 语音交互方法、装置、电子设备及计算机可读存储介质 |
US11279041B2 (en) * | 2018-10-12 | 2022-03-22 | Dream Face Technologies, Inc. | Socially assistive robot |
-
2019
- 2019-02-06 JP JP2019019745A patent/JP7120060B2/ja active Active
-
2020
- 2020-01-14 CN CN202010036348.1A patent/CN111540383A/zh active Pending
- 2020-02-04 US US16/781,651 patent/US11682389B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013154458A (ja) | 2012-01-31 | 2013-08-15 | Fujitsu Ltd | 対話装置、対話プログラムおよび対話方法 |
JP2016076007A (ja) | 2014-10-03 | 2016-05-12 | 株式会社Nttドコモ | 対話装置および対話方法 |
JP2017073125A (ja) | 2015-09-14 | 2017-04-13 | 富士通株式会社 | 行動推奨のための会話生成 |
JP2018049132A (ja) | 2016-09-21 | 2018-03-29 | トヨタ自動車株式会社 | 音声対話システムおよび音声対話方法 |
WO2018105373A1 (ja) | 2016-12-05 | 2018-06-14 | ソニー株式会社 | 情報処理装置、情報処理方法、および情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN111540383A (zh) | 2020-08-14 |
US11682389B2 (en) | 2023-06-20 |
US20200251110A1 (en) | 2020-08-06 |
JP2020126195A (ja) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11017779B2 (en) | System and method for speech understanding via integrated audio and visual based speech recognition | |
JP6841167B2 (ja) | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム | |
JP7120060B2 (ja) | 音声対話装置、音声対話装置の制御装置及び制御プログラム | |
US20200027455A1 (en) | Dialog system, dialog method, dialog apparatus and program | |
JP2004310034A (ja) | 対話エージェントシステム | |
US11222634B2 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
WO2019161193A2 (en) | System and method for adaptive detection of spoken language via multiple speech models | |
JP5294315B2 (ja) | 対話活性化ロボット | |
US20220101856A1 (en) | System and method for disambiguating a source of sound based on detected lip movement | |
JP2006071936A (ja) | 対話エージェント | |
CN111002303B (zh) | 识别装置、机器人、识别方法和存储介质 | |
JP6583765B2 (ja) | エージェント対話システムおよびプログラム | |
JP2008509455A (ja) | ユーザとシステムとの間の通信方法及びシステム | |
JP6992957B2 (ja) | エージェント対話システム | |
Matsusaka et al. | Conversation robot participating in group conversation | |
JP2020113197A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2018062042A (ja) | コミュニケーション装置 | |
JP5223605B2 (ja) | ロボットシステム、コミュニケーション活性化方法及びプログラム | |
JP2023055910A (ja) | ロボット、対話システム、情報処理方法及びプログラム | |
JP2020091636A (ja) | 音声対話装置の制御方法 | |
WO2020175969A1 (ko) | 감정 인식 장치 및 감정 인식 방법 | |
JP2018149625A (ja) | コミュニケーションロボット、プログラム及びシステム | |
KR102051217B1 (ko) | 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법 | |
JP6647636B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JPH09269889A (ja) | 対話装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7120060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |