JP2024083068A - Information processing method and information processing device - Google Patents
Information processing method and information processing device Download PDFInfo
- Publication number
- JP2024083068A JP2024083068A JP2022197371A JP2022197371A JP2024083068A JP 2024083068 A JP2024083068 A JP 2024083068A JP 2022197371 A JP2022197371 A JP 2022197371A JP 2022197371 A JP2022197371 A JP 2022197371A JP 2024083068 A JP2024083068 A JP 2024083068A
- Authority
- JP
- Japan
- Prior art keywords
- user
- users
- agent device
- emotion
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 102
- 238000003672 processing method Methods 0.000 title claims abstract description 34
- 230000008451 emotion Effects 0.000 claims abstract description 197
- 238000000034 method Methods 0.000 claims abstract description 145
- 230000008569 process Effects 0.000 claims abstract description 123
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 230000000694 effects Effects 0.000 claims description 18
- 230000009471 action Effects 0.000 claims description 10
- 230000007613 environmental effect Effects 0.000 claims description 4
- 239000003795 chemical substances by application Substances 0.000 description 331
- 230000008921 facial expression Effects 0.000 description 42
- 238000012545 processing Methods 0.000 description 37
- 238000004891 communication Methods 0.000 description 27
- 230000006399 behavior Effects 0.000 description 26
- 230000014509 gene expression Effects 0.000 description 21
- 206010008531 Chills Diseases 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000008094 contradictory effect Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000036760 body temperature Effects 0.000 description 5
- 210000004243 sweat Anatomy 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 206010009866 Cold sweat Diseases 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000035900 sweating Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002889 sympathetic effect Effects 0.000 description 2
- 206010015535 Euphoric mood Diseases 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】他のユーザに対して特定の感情が生じたユーザに対して適切なフォローをして機器の使い易さを高める。【解決手段】ユーザU1、U2に対する複数の処理を実行可能なエージェント機器200を制御する情報処理方法である。この情報処理方法は、複数のユーザU1、U2が存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザU1、U2のうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザU2を検出する検出処理(ステップS506)と、ユーザU2が検出された場合には、ユーザU2以外のユーザU1に知覚され難い態様で、ユーザU2に対して特定感情を緩和させる演出をエージェント機器200に実行させる制御処理(ステップS509、S511)とを含む。【選択図】図7[Problem] To improve the ease of use of a device by providing appropriate support to a user who has developed a specific emotion toward another user. [Solution] An information processing method for controlling an agent device 200 capable of executing multiple processes for users U1 and U2. When a predetermined process is selected from multiple processes in a state where multiple users U1 and U2 exist, this information processing method includes a detection process (step S506) for detecting a user U2 from among the multiple users U1 and U2 who has developed a specific emotion including at least one of a debt emotion and a gain emotion resulting from the selection, and a control process (steps S509, S511) for causing the agent device 200 to perform a performance for alleviating the specific emotion for user U2 in a manner that is difficult to perceive by users U1 other than user U2 when user U2 is detected. [Selected Figure] FIG.
Description
本発明は、ユーザに対する複数の処理を実行可能な機器を制御する情報処理方法及び情報処理装置に関する。 The present invention relates to an information processing method and an information processing device that controls a device capable of performing multiple processes for a user.
従来、ユーザに対する複数の処理を実行可能な機器が存在する。例えば、戸を開閉した後のエレベータ内の利用者数が戸開前の利用者数よりも増加していたと判断した場合に、利用者の乗車協力に対する謝意を示す情報をエレベータ内の出力装置から出力させる技術が提案されている(例えば、特許文献1参照)。 Conventionally, there are devices that can execute multiple processes for users. For example, a technology has been proposed that, if it is determined that the number of users in an elevator after the doors have been opened and closed is greater than the number of users before the doors were opened, output information from an output device in the elevator expressing gratitude to the users for their cooperation in boarding the elevator (see, for example, Patent Document 1).
上述した従来技術では、謝意を示す情報がエレベータ内の出力装置から出力されるため、エレベータに新たに乗った人と、エレベータに元々乗っている人との双方にその情報が伝わる。この場合に、勝手に自分たちの気持ちを新たに乗った人に聞こえるように伝えてほしくないと、エレベータに元々乗っていた人が考えることも想定される。一方、エレベータに新たに乗った人がその情報を聞くと、気まずい気持ち、その場にいることに耐えがたい気持、申し訳ない気持ちになることも想定される。すなわち、謝意を示す情報が出力されることにより、エレベータに新たに乗った人には、エレベータに元々乗っていた人に対して、申し訳ない気持ち等の特定の感情が生じ得る。 In the above-mentioned conventional technology, the information indicating gratitude is output from an output device in the elevator, so that the information is conveyed to both the new person in the elevator and the person originally in the elevator. In this case, it is conceivable that the person originally in the elevator would not want their feelings to be conveyed audibly to the new person. On the other hand, it is conceivable that when the new person in the elevator hears the information, they may feel awkward, unable to bear being in the situation, or feel sorry. In other words, the output of the information indicating gratitude may cause the new person in the elevator to have certain feelings, such as a sense of guilt, toward the person originally in the elevator.
本発明は、他のユーザに対して特定の感情が生じたユーザに対して適切なフォローをして機器の使い易さ(ユーザビリティ)を高めることを目的とする。 The present invention aims to improve the ease of use (usability) of devices by providing appropriate follow-up to users who have specific feelings toward other users.
本発明の一態様は、ユーザに対する複数の処理を実行可能な機器を制御する情報処理方法である。この情報処理方法は、複数のユーザが存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザのうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザ(第1ユーザ)を検出する検出処理と、第1ユーザが検出された場合には、第1ユーザ以外のユーザ(第2ユーザ)に知覚され難い態様で、第1ユーザに対して特定感情を緩和させる演出を機器に実行させる制御処理とを含む。 One aspect of the present invention is an information processing method for controlling a device capable of executing multiple processes for a user. This information processing method includes a detection process for detecting a user (first user) from among the multiple users who has experienced a specific emotion including at least one of a debt emotion and a gain emotion resulting from a selection of a specific process when multiple users are present, and a control process for causing the device to execute a performance that alleviates the specific emotion for the first user in a manner that is difficult to perceive by users other than the first user (second user) when the first user is detected.
本発明によれば、他のユーザに対して特定の感情が生じたユーザに対して適切なフォローをして機器の使い易さを高めることができる。 According to the present invention, it is possible to improve the usability of a device by providing appropriate support to a user who has developed a particular emotion toward another user.
以下、添付図面を参照しながら本発明の実施形態について説明する。 The following describes an embodiment of the present invention with reference to the attached drawings.
[エージェント機器の設置例]
図1は、車両C1の車室内の構成例を簡略化して示す図である。なお、図1では、運転席、助手席(図示省略)よりも前側を、車両C1の後ろ側から見た場合の外観構成例を示す。また、図1では、説明を容易にするため、ダッシュボード2、ステアリングホイール3、フロントウインド4、バックミラー5、カメラ101、エージェント機器200以外の図示は省略する。
[Agent device installation example]
Fig. 1 is a simplified diagram showing an example of the configuration of the interior of a vehicle C1. Fig. 1 shows an example of the exterior configuration when the area in front of the driver's seat and passenger seat (not shown) is viewed from the rear of the vehicle C1. To facilitate explanation, Fig. 1 omits the illustration of anything other than a
エージェント機器200は、車両C1のダッシュボード2上に設置される小型のロボットである。本実施形態では、人間を模したロボットをエージェント機器200とする例を示す。なお、図1では、ダッシュボード2上にエージェント機器200を設置する例を示すが、これに限定されない。例えば、フロントウインド4の上部にエージェント機器200を設置してもよい。また、図1では、人間の顔を模したロボットをエージェント機器200とする例を示すが、これに限定されない。例えば、人間の全身を模したロボット、ウサギ、豚等のような動物を模したロボット、仮想物の生物(例えばアニメのキャラクターの顔)を模したロボット、他の物体(例えばテレビ型の機器、ラジオ型の機器)を模したロボットをエージェント機器200としてもよい。このように、擬生物化されたエージェントをエージェント機器200とすることが可能である。
The
エージェント機器200は、情報処理装置110(図4参照)からの指示に基づいて各種の動作を実行する。例えば、エージェント機器200は、情報処理装置110の制御に基づいて、ユーザU1が運転操作をする際における運転支援、周囲の施設等に関する各種情報を出力する。この運転支援として、前方又は後方の動体の報知等が想定される。例えば、前方の動体の報知として、「この先踏切だから気を付けてよ」と音声出力したり、「前方に人がいるよ」と音声出力したりすることができる。このように、エージェント機器200は、運転支援を実行する。また、例えば、エージェント機器200は、情報処理装置110の制御に基づいて、各種処理を実行する。例えば、エージェント機器200は、ユーザU1からの指示に基づいて、その指示に応じた処理を実行する。なお、図1では、ユーザU1からの音声S1による指示「エアコンの温度を上げて」に基づいて、その指示に応じたエアコンの温度調整処理を実行する例を示す。この場合には、エージェント機器200は、その指示に応じてエアコンの温度調整を実行した旨を示す音声情報S2を出力する。
The
カメラ101は、車両C1の内部の天井に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成するものである。なお、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、フロントウインド4の上部、すなわち、バックミラー5の上側にカメラ101を設けることができる。なお、図1では、少なくとも1つのカメラ101を備える例を示すが、2以上の撮像装置を備え、これらの撮像装置のうちの全部又は一部の画像を用いてもよい。また、各撮像装置の設置場所については、図1に示す例に限定されず、適宜変更可能である。また、車両C1の全方位に存在する被写体と、車両C1の内部の被写体とを取得可能な1又は複数の機器、例えば、360度カメラを用いてもよい。
The
[エージェント機器に異なる指示が出された場合の例]
図2は、車両C1に乗車する2人のユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合の例を簡略化して示す図である。なお、図2に示す例は、図1に示す構成例においてユーザU2を追加したものであり、これら以外の部分については図1と共通する。
[Example of when different instructions are given to agent devices]
Fig. 2 is a simplified diagram showing an example of a case where two users U1 and U2 riding in a vehicle C1 give different, conflicting instructions to the
図2では、寒さに震えるユーザU2から「エアコンの温度を上げて」の音声S6が発せられ、暑さで汗をかいているユーザU1から「エアコンの温度を下げて」の音声S5が発せられた場合の例を示す。このように、ユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合には、エージェント機器200は、それらの各指示を略同時に実行することは不可能である。このため、エージェント機器200は、それらの各指示のうちの一方を選択して実行する。例えば、エージェント機器200は、車両C1の車室内の状況、ユーザU1、U2等をセンシングし、ユーザU1、U2からの各指示のうちから、適切な指示を選択して実行することが考えられる。
Figure 2 shows an example in which user U2, shivering from the cold, makes a speech S6 saying "Turn up the air conditioner temperature," and user U1, sweating from the heat, makes a speech S5 saying "Turn down the air conditioner temperature." In this way, when users U1 and U2 give conflicting instructions to the
[複数のユーザから相反する異なる指示が出された場合の指示の選択例]
ここで、複数のユーザのそれぞれから各指示が出された場合について説明する。なお、複数のユーザのそれぞれからの各指示が異なるタイミングで出された場合には、その各指示が出されたタイミングで各指示を実行することが可能である。そこで、ここでは、複数のユーザのそれぞれから各指示が略同じタイミングで出された場合について説明する。なお、略同じタイミングは、例えば、数秒程度の間隔を意味する。
[Example of instruction selection when conflicting instructions are given by multiple users]
Here, a case where each instruction is issued by each of a plurality of users will be described. If each instruction is issued by each of a plurality of users at different timings, each instruction can be executed at the timing at which the instruction was issued. Here, a case where each instruction is issued by each of a plurality of users at approximately the same timing will be described. Note that approximately the same timing means, for example, an interval of about several seconds.
例えば、複数のユーザのそれぞれから同じ内容の指示が略同じタイミングで出された場合には、エージェント機器200は、その指示を実行する。例えば、ユーザU1、U2が「エアコンの温度を上げて」又は「ラジオをかけて」等のように同じ内容の指示を同じタイミングで出した場合には、それらが同一の内容であるため、エージェント機器200は、その指示を実行することが可能である。
For example, if multiple users each issue an instruction with the same content at approximately the same time, the
また、例えば、複数のユーザのそれぞれから異なる内容の指示が略同じタイミングで出された場合において、それらの各指示が相反するものでなければ、エージェント機器200は、その各指示を、同時に、又は、順次、実行する。例えば、略同じタイミングで、ユーザU1が「エアコンの温度を上げて」の指示を出し、ユーザU2が「ラジオをかけて」の指示を出した場合を想定する。この場合には、複数のユーザのそれぞれから異なる内容の指示が略同じタイミングで出されているが、それらの各指示が相反するものでないため、エージェント機器200は、その各指示を、同時に、又は、順次、実行する。具体的には、エージェント機器200は、ユーザU1の指示「エアコンの温度を上げて」に基づいて、エアコンの温度設定を上げる制御を実行するとともに、ユーザU2の指示「ラジオをかけて」に基づいて、ラジオの電源をオンする制御を実行する。これらの各制御については、同時に実行してもよく、順次実行してもよい。
For example, when multiple users issue different instructions at approximately the same time, the
また、例えば、複数のユーザのそれぞれから異なる内容の指示が略同じタイミングで出され、かつ、それらの各指示が相反する場合を想定する。例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合には、各指示が相反することになる。また、例えば、略同じタイミングで、ユーザU1が「ラジオ局Aをかけて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合も、各指示が相反することになる。 Also, for example, consider a case where multiple users each issue different instructions at approximately the same time, and these instructions are contradictory. For example, if user U1 issues an instruction to "turn down the air conditioner temperature" and user U2 issues an instruction to "turn up the air conditioner temperature" at approximately the same time, the instructions will be contradictory. Also, for example, if user U1 issues an instruction to "play radio station A" and user U2 issues an instruction to "play radio station B" at approximately the same time, the instructions will be contradictory.
これらの場合には、エージェント機器200は、その相反する各指示を実行することができないため、何れかの指示を選択して実行することになる。例えば、図2に示すように、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合を想定する。この場合には、ユーザU1、U2から相反する異なる内容の指示が出されているため、それらの各指示を略同じタイミングで実行することは不可能である。そこで、このような場合には、エージェント機器200(又は、情報処理装置110)は、ユーザU1、U2に関する生体情報、ユーザU1、U2の発話内容、ユーザU1、U2の動作、ユーザU1、U2の周囲の環境等に基づいて、ユーザU1、U2から出された各指示のうちから適切な指示を選択する。
In these cases, the
例えば、ユーザU1が「暑い暑い」の声を連続して発し、かつ、ユーザU1が多量の汗をかき、上着のボタンを外していることが検出され、ユーザU2は通常の状態であると判定された場合を想定する。この場合には、エージェント機器200は、ユーザU1は暑さの限度を超えているが、ユーザU2は寒さに耐えられると判定し、ユーザU1の指示「エアコンの温度を下げて」を採用することを選択する。一方、ユーザU2が「寒い寒い」の声を連続して発し、かつ、ユーザU2の身体がブルブルと震え、上着を新たに着ていることが検出され、ユーザU1は通常の状態であると判定された場合を想定する。この場合には、エージェント機器200は、ユーザU2は寒さの限度を超えているが、ユーザU1は暑さに耐えられると判定し、ユーザU2の指示「エアコンの温度を上げて」を採用することを選択する。このように、ユーザU1、U2の健康に関する指示については、エージェント機器200は、各指示のうちから、各ユーザの生体状態等に最適な指示を選択して実行するようにする。すなわち、エージェント機器200は、ユーザU1、U2の声、動き、汗、体温等を参照して、どちらの体調が悪いかを総合的に判定して、最適な指示を選択して実行するようにする。言い換えると、エージェント機器200は、ユーザU1、U2をセンシングして、どちらが危機的な状況かを判定し、危機的な状況のユーザの指示を選択して実行するようにする。なお、各指示の緊急度、各指示に基づく実行時間、各指示に基づく処理の完了時間の長さ等に基づいて、最適な指示の処理を選択して実行してもよい。
For example, assume that user U1 continuously utters the voice "It's hot, it's hot" and that user U1 is sweating profusely and has unbuttoned his jacket, and that user U2 is determined to be in a normal state. In this case, the
なお、略同じタイミングで、ユーザU1が「ラジオ局Aをかけて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合を想定する。この場合には、ユーザU1、U2から相反する異なる内容の指示が出されているため、それらの各指示を略同じタイミングで実行することは不可能である。そこで、このような場合についても同様に、エージェント機器200は、ユーザU1、U2に関する生体情報、ユーザU1、U2の発話内容、ユーザU1、U2の動作、ユーザU1、U2の周囲の環境等に基づいて、ユーザU1、U2から出された各指示のうちから適切な指示を選択する。ただし、ラジオ局の選択の場合には、これらの各情報に基づいて適切な放送局を選択することが困難となることも想定される。そこで、このような指示については、予め設定されている選択基準に基づいて選択処理を実行してもよい。
Assume that user U1 issues the instruction "Play radio station A" and user U2 issues the instruction "Play radio station B" at approximately the same time. In this case, since users U1 and U2 issue conflicting instructions, it is impossible to execute these instructions at approximately the same time. In such a case, the
ここで、選択基準は、複数の相反する異なる指示が出された場合に、優先的に実行する指示を選択するための基準である。例えば、複数の相反する異なる指示のうち、出された指示の順番で優先的に選択する指示を決定してもよい。この場合には、最初に出された指示を選択することが可能である。 The selection criteria here are criteria for selecting an instruction to be executed with priority when multiple conflicting and different instructions are issued. For example, the instruction to be selected with priority among multiple conflicting and different instructions may be determined based on the order in which the instructions were issued. In this case, it is possible to select the instruction issued first.
また、例えば、複数の相反する異なる指示が出された場合において、指示を選択するユーザを順次変更してもよい。例えば、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザAから出された指示を選択する。この場合には、次のタイミングで、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザBから出された指示を選択する。また、次のタイミングで、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザCから出された指示を選択する。 In addition, for example, when multiple conflicting and different instructions are issued, the user from whom the instruction is selected may be changed sequentially. For example, when multiple conflicting and different instructions are issued from users A to C, the instruction issued by user A is selected. In this case, when multiple conflicting and different instructions are issued from users A to C at the next timing, the instruction issued by user B is selected. Also, when multiple conflicting and different instructions are issued from users A to C at the next timing, the instruction issued by user C is selected.
なお、優先すべき指示をユーザ毎に設定しておいてもよい。例えば、ユーザA乃至Cが存在する場合において、ユーザAの優先順位を1位とし、ユーザBの優先順位を2位とし、ユーザCの優先順位を3位とする。この場合において、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザAから出された指示を選択する。また、ユーザB、Cから複数の相反する異なる指示が出された場合には、ユーザBから出された指示を選択する。また、ユーザA、Cから複数の相反する異なる指示が出された場合には、ユーザAから出された指示を選択する。 Note that instructions to be prioritized may be set for each user. For example, if there are users A to C, the priority of user A may be set to 1st, that of user B to 2nd, and that of user C to 3rd. In this case, if multiple conflicting and different instructions are issued by users A to C, the instruction issued by user A is selected. Also, if multiple conflicting and different instructions are issued by users B and C, the instruction issued by user B is selected. Also, if multiple conflicting and different instructions are issued by users A and C, the instruction issued by user A is selected.
また、指示に基づく処理時間に基づいて、優先すべき指示を決定しておいてもよい。例えば、ユーザA乃至Cから複数の相反する異なる指示が出された場合において、ユーザAの指示に基づく処理時間が11分であり、ユーザBの指示に基づく処理時間が3分であり、ユーザCの指示に基づく処理時間が7分である場合を想定する。この場合には、ユーザBから出された指示を最初に選択して実行する。次に、ユーザCから出された指示を選択して実行し、最後に、ユーザBから出された指示を選択して実行する。 The instruction to be prioritized may also be determined based on the processing time required for the instruction. For example, assume that multiple conflicting instructions are issued by users A to C, and the processing time required for the instructions from user A is 11 minutes, the processing time required for the instructions from user B is 3 minutes, and the processing time required for the instructions from user C is 7 minutes. In this case, the instruction from user B is selected and executed first. Next, the instruction from user C is selected and executed, and finally the instruction from user B is selected and executed.
なお、相反する異なる指示については、指示情報DB132(図4参照)に格納しておくことが可能である。そして、相反する異なる指示が出された場合には、指示情報DB132(図4参照)に格納されている指示情報に基づいて、優先的に選択する指示を決定してもよい。 Note that conflicting instructions can be stored in the instruction information DB 132 (see FIG. 4). When conflicting instructions are issued, the instruction to be preferentially selected may be determined based on the instruction information stored in the instruction information DB 132 (see FIG. 4).
このように、複数のユーザから相反する異なる複数の指示が出された場合には、複数の指示のうちから選択された少なくとも1つの指示が実行されることになる。この場合には、指示が採用されたユーザは相対的に得をする立場となり、指示が採用されなかったユーザは相対的に損をする立場となることが多い。このような場合において、相対的に得する立場となったユーザには、相対的に損する立場となったユーザに対して、申し訳ない、心苦しい等の負債の感情が発生することが多い。このように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに生じる、申し訳ない、心苦しい等の負債の感情(又は負の感情)を、本実施形態では、負債感情と称して説明する。すなわち、負債感情は、得をしたときに負い目があるような感情を意味する。なお、負債感情は、特定感情の一例である。 In this way, when multiple users issue different and conflicting instructions, at least one instruction selected from the multiple instructions will be executed. In this case, the user whose instruction is adopted will be in a relatively advantageous position, and the user whose instruction is not adopted will often be in a relatively disadvantaged position. In such a case, the user who is in a relatively advantageous position will often feel a sense of indebtedness, such as guilt or remorse, toward the user who is in a relatively disadvantaged position. In this way, when there are multiple users, the feelings of indebtedness (or negative feelings), such as guilt or remorse, that arise in some users toward other users will be referred to as indebtedness feelings in this embodiment. In other words, indebtedness feelings refer to feelings of indebtedness when a gain is made. In addition, indebtedness feelings are an example of a specific emotion.
一方、相対的に損する立場となったユーザには、相対的に得する立場となったユーザに対する不満の感情が発生することが多い。このように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに生じる、不満の感情を、本実施形態では、不満感情と称して説明する。すなわち、不満感情は、損をしたことに不満があるような感情を意味する。なお、不満感情は、特定感情の一例である。 On the other hand, users who are relatively at a disadvantage often feel dissatisfied with users who are relatively at a disadvantage. In this embodiment, when there are multiple users, dissatisfaction felt by some users toward other users is referred to as dissatisfaction. In other words, dissatisfaction means a feeling of dissatisfaction at having suffered a disadvantage. Dissatisfaction is an example of a specific emotion.
このように、複数のユーザから相反する異なる複数の指示が出された場合において、指示が採用されたユーザには、他のユーザに対する負債感情が生じる可能性がある。この場合には、指示が採用されたユーザに対して、何らかのフォローをすることが考えられる。例えば、ユーザU1、U2からの相反する異なる複数の指示が出された場合において、ユーザU2の指示が採用された場合を想定する。この場合には、ユーザU2には、ユーザU1に対する負債感情が生じる可能性がある。そこで、エージェント機器200は、負債感情が生じたユーザU2に対して何らかのフォローをすることが考えられる。例えば、エージェント機器200が、負債感情が生じたユーザU2に対して、「だいじょうぶだよ」等の音声情報を発することが考えられる。しかし、エージェント機器200が、「だいじょうぶだよ」等の音声情報を発すると、この音声情報がユーザU1、U2の双方に伝わる。この場合には、ユーザU1は、ユーザU2に対するフォローの気持ちを勝手にユーザU2に聞こえるように伝えてほしくないと考えることも想定される。一方、ユーザU2がその音声情報を聞くと、気まずい気持ち、その場にいることに耐えがたい気持になることも想定される。すなわち、その音声情報が出力されることにより、ユーザU2には、ユーザU1に対する負債感情がさらに高まり、エージェント機器200の使用感が悪くなることも想定される。また、ユーザU2がさらに嫌な気持ちを持つことも想定される。
In this way, when multiple different and conflicting instructions are issued from multiple users, the user whose instructions are adopted may feel indebted to the other users. In this case, it is possible to provide some kind of follow-up to the user whose instructions are adopted. For example, assume that multiple different and conflicting instructions are issued from users U1 and U2, and the instruction from user U2 is adopted. In this case, user U2 may feel indebted to user U1. Therefore, it is possible for the
そこで、本実施形態では、ユーザU1に知覚され難い態様で、負債感情が生じたユーザU2に対して、その負債感情を緩和させる演出をエージェント機器200に実行させる。このように、負債感情が生じたユーザU2に対して適切なフォローをすることによりエージェント機器200の使い易さを高めることが可能である。また、ユーザU2の嫌な気持ちを解消することが可能である。なお、エージェント機器200に実行させる演出については、図5、図6等を参照して詳細に説明する。
In this embodiment, therefore, the
なお、相反する複数の異なる指示が出されていない場合についても本実施形態を適用可能である。例えば、あるユーザ(ユーザA)の指示に基づく実行が長時間となり、他のユーザ(ユーザB)の指示に基づく実行を待たせるような状況が発生することも想定される。例えば、略同じタイミングで、ユーザU1が「この近くの焼肉が美味しい店を教えて」の指示を出し、ユーザU2が「鎌倉幕府の歴史を教えて」の指示を出した場合を想定する。この場合には、ユーザU1、U2からは相反する内容の指示が出されているわけではないが、それらの各指示を略同じタイミングで実行することは不可能である。そこで、このような場合についても、上述したように、選択基準に基づいて、ユーザU1、U2から出された各指示のうちから適切な指示を実行する順序を選択する。この場合に、例えば、ユーザU2の指示が最初に選択され、「鎌倉幕府の歴史を教えて」に関する情報の出力時間が長くなることも想定される。この場合には、ユーザU1は、自己の指示が実行されるまでの間、待たされることになる。このため、指示が最初に採用されたユーザU2は相対的に得をする立場となり、指示が最初に採用されなかったユーザU1は相対的に損をする立場となる。この場合には、相対的に得する立場となったユーザU2には、相対的に損する立場となったユーザU1に対する負債感情が発生すると考えられる。そこで、このような場合についても、上述したように、ユーザU1に知覚され難い態様で、負債感情が生じたユーザU2に対して、その負債感情を緩和させる演出をエージェント機器200に実行させることが可能である。
This embodiment can also be applied to cases where multiple conflicting instructions are not issued. For example, it is assumed that a situation will occur in which execution based on an instruction from a certain user (user A) takes a long time, causing execution based on an instruction from another user (user B) to wait. For example, assume that user U1 issues an instruction "Tell me a restaurant nearby that serves delicious yakiniku" at approximately the same time, and user U2 issues an instruction "Tell me the history of the Kamakura Shogunate." In this case, although instructions with conflicting contents are not issued from users U1 and U2, it is impossible to execute each of these instructions at approximately the same time. Therefore, even in such a case, as described above, the order of execution of appropriate instructions is selected from among the instructions issued by users U1 and U2 based on the selection criteria. In this case, it is assumed that, for example, the instruction from user U2 is selected first, and the output time of information related to "Tell me the history of the Kamakura Shogunate" will be long. In this case, user U1 will be made to wait until his/her instruction is executed. As a result, user U2, whose instructions were adopted first, is in a position to relatively gain, while user U1, whose instructions were not adopted first, is in a position to relatively lose. In this case, user U2, who is in a relatively advantageous position, is likely to develop a feeling of indebtedness toward user U1, who is in a relatively disadvantaged position. Therefore, even in such a case, as described above, it is possible to cause the
なお、ユーザの損得に関する損得感情については、エージェント機器200に指示が採用されたか否かに基づいて推定が可能である。また、ユーザの損得に関する損得感情については、ユーザの生体情報(例えば、心拍、体温、顔の表面温度、血流、興奮度に関係する情報)と、ユーザの発話内容(例えば、寒いよね等の所定のキーワード)と、ユーザの動作(例えば、体の動きの大きさ、速さ、表情)と、のうちの少なくとも1つに基づいて推定が可能である。また、ユーザの負債感情、不満感情についても同様に、ユーザの生体情報と、ユーザの発話内容と、ユーザの動作と、のうちの少なくとも1つに基づいて推定が可能である。例えば、ユーザの表情、ユーザの動き、ユーザが発する声等に基づいて、ユーザの負債感情を検出することが可能である。なお、ユーザの表情、ユーザの動きについては、カメラ101により取得された画像に基づいて取得可能である。また、ユーザの表情には、ユーザの視線も含まれる。また、ユーザが発する声については、音声入力部103(図4参照)により取得された音声情報に基づいて取得可能である。なお、ユーザの損得感情、負債感情、不満感情の推定方法については、図4等を参照して詳細に説明する。
The user's feelings of gain or loss regarding gain or loss can be estimated based on whether or not the instruction was adopted by the
なお、本実施形態では、車両C1の乗員として運転席に乗車するユーザU1、U2を例にして説明する。ただし、車両C1に3人以上の乗員が乗車している場合についても本実施形態を適用可能である。 In this embodiment, the following description will be given using an example of users U1 and U2 who are occupants of the vehicle C1 and sit in the driver's seat. However, this embodiment can also be applied to a case where three or more occupants are in the vehicle C1.
[エージェント機器の外観構成例]
図3は、エージェント機器200の外観構成の一例を簡略化して示す正面図である。本実施形態では、エージェント機器200がオン状態であり、かつ、エージェント機器200が通常態様である場合には、表示部210(図4参照)に顔画像が表示される例を示す。なお、車両C1のオン操作に応じて、エージェント機器200をオン状態とすることが可能である。また、エージェント機器200に関するユーザ操作に応じて、エージェント機器200をオン状態とすることが可能である。なお、車両C1のオンオフ操作は、車両C1の起動又は停止に関するスタートキーのオン操作又はオフ操作を意味する。
[Example of agent device appearance]
3 is a front view showing a simplified example of the external configuration of the
図3(A)には、エージェント機器200の斜視図を示す。図3(B)には、エージェント機器200の正面図を示す。なお、図3(B)に示すエージェント機器200は、図1に示すエージェント機器200に対応する。図3(C)には、エージェント機器200の上面図を示す。図3(D)には、エージェント機器200の側面図を示す。また、図3(E)(F)には、エージェント機器200の動作態様として、負債感情を緩和させるための特定演出を実行する場合の外観構成例を示す。また、図3(G)には、エージェント機器200の動作態様として、困惑した表情の演出を実行する場合の外観構成例を示す。また、図3(H)には、エージェント機器200の動作態様として、負債感情が緩和した後の演出を実行する場合の外観構成例を示す。なお、負債感情を緩和させるための特定演出は、負債感情が生じたと判定されたタイミングで実行される。また、負債感情が緩和した後の演出は、特定演出の実行後に、負債感情が解消したと判定されたタイミングで実行される。
3A shows a perspective view of the
エージェント機器200は、略球状の本体部201から構成される機器であり、本体部201の表面には表示部210が設けられる。表示部210には、各種画像、例えば眼部E1、E2、口部M1が表示される。なお、本体部201の表面の全部に表示部210を設けてもよく、本体部201の表面のうちの一部に表示部210を設けてもよい。また、本体部201の表面のうちの一部に表示部210を設ける場合には、表示部210が設けられている部分以外の部分には、顔を構成する物理的な各部(例えば、耳、鼻)を設けてもよい。
The
本実施形態では、車両C1のダッシュボード2上に、眼部E1、E2が車内側を見る方向にエージェント機器200が設置される例を示す。このため、エージェント機器200における眼部E1、E2が表示される部分を含む一の面を前部又は顔部と称して説明する。また、エージェント機器200の前部をエージェント機器200の前側と称し、エージェント機器200の前部とは反対側をエージェント機器200の後側と称して説明する。また、エージェント機器200において、図3における右側をエージェント機器200の左側と称し、図3における左側をエージェント機器200の右側と称して説明する。
In this embodiment, an example is shown in which the
本体部201は、エージェント機器200の下部を回動中心として、エージェント機器200の前後方向、すなわち矢印A1(図3(A)(D)参照)方向に回動する。同様に、本体部201は、エージェント機器200の下部を回動中心として、エージェント機器200の左右方向、すなわち矢印A2(図3(B)参照)方向に回動する。同様に、本体部201は、エージェント機器200の下部を回動中心として、硬直方向を軸として回転する方向、すなわち矢印A3(図3(C)参照)方向に回動する。このように、エージェント機器200の下部には、本体部201を駆動させるための駆動部230(図4参照)が設けられる。そして、エージェント機器200の本体部201を左右方向に回転移動させたり、本体部201を前後方向に回転移動させたり、本体部201を左右方向に揺らせたり、本体部201を前後方向に揺らせたりすることが可能となる。
The
また、表示部210は、各種画像を表示することが可能な表示媒体として構成することが可能である。この表示媒体として、例えば、発光シート、液晶表示器、有機EL(Electro Luminescence)等の各種表示媒体を使用可能である。例えば、図3(A)乃至(D)に示すように、通常の眼部E1、E2、口部M1を表示させることができる。
The
また、例えば、図3(E)に示すように、眉毛をひそめた状態の眼部E1、E2とともに、汗画像SW1を表示させることができる。また、本体部201を振動させることにより、エージェント機器200が震えている状態を表現することも可能である。また、例えば、図3(F)に示すように、顔の上側に相当する部分B1を、不安の表情を示す所定色(例えば青色)とし、不安の表情を示す縦線画像V1を、その部分B1の一部に表示させることができる。また、図3(E)、(F)に示すように、左右方向(矢印A4、A5方向)に本体部201を揺らせることにより、さらに不安な態度を強調することが可能である。
For example, as shown in FIG. 3(E), a sweat image SW1 can be displayed along with frowning eyes E1, E2. By vibrating the
また、例えば、図3(G)に示すように、困ったような口部M1、眼部E1、E2を表示させることができる。なお、図3(G)に示す表情は、困惑の表情の一例である。また、例えば、図3(H)に示すように、笑ったような口部M1、眼部E1、E2を表示させるとともに、頬を赤くしたような態様の頬画像RS1を表示させることができる。なお、図3(H)に示す表情は、安堵の表情の一例である。 Also, for example, as shown in FIG. 3(G), a troubled-looking mouth M1 and eyes E1, E2 can be displayed. Note that the facial expression shown in FIG. 3(G) is an example of a bewildered facial expression. Also, for example, as shown in FIG. 3(H), a smiling mouth M1 and eyes E1, E2 can be displayed, and a cheek image RS1 with red cheeks can be displayed. Note that the facial expression shown in FIG. 3(H) is an example of a relieved facial expression.
このように、表示部210のうちの少なくとも一部の色を特定色としたり、眼部E1、E2、口部M1を変形させたりすることにより、エージェント機器200が不安の表情、困惑の表情、安堵の表情等をしているような表示態様とすることが可能である。なお、ここで示す表示態様は、一例であり、他の表示態様により各表情を実現してもよい。例えば、眼部E1、E2を左右に早く動かしたり、眼部E1、E2をきょろきょろさせたり、本体部201を左右方向に早く動かしたり、本体部201を左右方向にきょろきょろさせたりすることにより不安の表情を実現してもよい。
In this way, by setting the color of at least a portion of the
このように、本実施形態では、エージェント機器200の各部のうちの少なくとも一部を変化させる動作態様と、エージェント機器200の表面のうちの少なくとも一部の表示状態を変化させる表示態様とによりエージェント機器200を変化させることが可能である。また、その変化を見た車両C1の乗員は、エージェント機器200が何らかの動きをしていると認識可能となる。このため、本実施形態では、これらのエージェント機器200の変化をエージェント機器200の動作態様と称して説明する。
In this manner, in this embodiment, it is possible to change the
なお、これらのエージェント機器200の動作態様は、一例であり、他の動作態様とすることも可能である。例えば、ダッシュボード2上の所定範囲内において、エージェント機器200をスライド移動させることも可能である。例えば、エージェント機器200を前後左右方向にスライド移動させることも可能である。また、例えば、エージェント機器200を一時的に浮かせるような演出も可能である。
Note that these operating modes of the
なお、図3では、表示部210の表示態様を変更することにより、各表情を2次元的に表現する例を示すが、物理的に設置された眼部、鼻部、口部等の各部材を変化させることにより、各表情を3次元的に表現して実現してもよい。この場合には、例えば、眼部材を移動させたり、眼部材の表面に黒画像、白画像を表示させたりして眼の動きを表現してもよい。
Note that FIG. 3 shows an example in which each facial expression is expressed two-dimensionally by changing the display mode of the
また、本実施形態では、顔部のみを備えるエージェント機器200の例を示すが、他の身体の一部(例えば、手、足)をエージェント機器200に備えてもよい。この場合には、これらの各部(例えば、手、足)を変化させて各態度(例えば緩和させる態度、安堵の態度)を実現してもよい。例えば、手を頭や顔に当てるように変化させたり、足や手をバタバタさせたりする動きを各態度として表現してもよい。
In addition, although this embodiment shows an example of an
なお、これらのエージェント機器200の形状、表示態様、音声出力態様は、一例であり、他の形状、表示態様、音声出力態様とすることも可能である。また、図3では、略球状の本体部201が顔部として機能するエージェント機器200を例にして示すが、本発明はこれに限定されない。例えば、平板状の本体部(例えば、平面状の表示パネル)が顔部として機能する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を一体の筐体として構成する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を別体として構成する機器をエージェント機器200としてもよい。
These shapes, display modes, and audio output modes of the
また、本実施形態では、生き物らしさを表す画像(生き物表示)として顔画像を表示する例を示すが、他の画像(例えば、エージェントの全身、機械的なもの、仮想的な顔)を生き物らしさを表す画像として表示してもよい。 In addition, in this embodiment, an example is shown in which a face image is displayed as an image that represents lifelikeness (animal display), but other images (for example, the entire body of an agent, a mechanical object, or a virtual face) may also be displayed as an image that represents lifelikeness.
[情報処理システムの構成例]
図4は、車両C1に設置されている情報処理システム100のシステム構成の一例を示す図である。
[Example of configuration of information processing system]
FIG. 4 is a diagram showing an example of a system configuration of an
情報処理システム100は、カメラ101と、位置情報取得センサ102と、音声入力部103と、センサ類104と、情報処理装置110と、エージェント機器200とを備える。なお、情報処理装置110及びエージェント機器200は、有線通信又は無線通信を利用した通信方式によって接続される。また、情報処理装置110は、無線通信を利用した通信方式によってネットワーク20に接続されている。ネットワーク20は、公衆回線網、インターネット等のネットワークである。なお、エージェント機器200についても、無線通信を利用した通信方式によってネットワーク20に接続してもよい。なお、図3では、情報処理装置110及びエージェント機器200を別体として構成する例を示すが、情報処理装置110及びエージェント機器200を一体の機器として構成してもよい。
The
カメラ101は、情報処理装置110の制御に基づいて、被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する画像情報を情報処理装置110に出力する。カメラ101は、車両C1のうちの少なくとも内部に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成する。なお、図1では、車両C1の内部に設けられているカメラ101を示す。上述したように、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、1つのカメラ101を車両C1の前方に設け、車両C1の前方からの被写体を撮像して画像(画像データ)を生成してもよく、他のカメラ101を車両C1の後方に設け、車両C1からの後方の被写体を撮像して画像(画像データ)を生成してもよい。
The
位置情報取得センサ102は、車両C1が存在する位置に関する位置情報を取得するものであり、取得された位置情報を情報処理装置110に出力する。例えば、GNSS(Global Navigation Satellite System:全球測位衛星システム)を利用して位置情報を取得するGNSS受信機により実現できる。また、その位置情報には、GNSS信号の受信時における緯度、経度、高度等の位置に関する各データが含まれる。また、他の位置情報の取得方法により位置情報を取得してもよい。例えば、周囲に存在するアクセスポイントや基地局からの情報を用いて位置情報を導き出してもよい。また、ビーコンを用いて位置情報を取得してもよい。例えば、位置情報取得センサ102により取得された情報に基づいて、車両C1の状態、例えば、走行中、停止中、後進中を判定可能である。
The position
また、例えば、車両C1が走行する道路を位置情報取得センサ102により取得された位置情報に基づいて判定可能である。
In addition, for example, the road on which the vehicle C1 is traveling can be determined based on the position information acquired by the position
音声入力部103は、車両C1の内部に設けられ、情報処理装置110の制御に基づいて、車両C1の内部の音を取得するものであり、取得された音に関する音情報を情報処理装置110に出力する。音声入力部103として、例えば、1又は複数のマイクや音取得センサを用いることができる。
The
センサ類104は、車両C1に設置されている各種のセンサであり、各センサにより取得された検出情報を情報処理装置110に出力する。センサ類は、例えば、LiDAR(Light Detection And Ranging)、RADAR(Radio Detection And Ranging)、Sonar、人感センサ、車速センサ、加速度センサ、着座センサ、シートベルトセンサ、非接触温度センサ等である。なお、これらは一例であり、他のセンサを用いてもよい。また、これらのうちの一部のセンサのみを用いてもよい。
The
人感センサは、車両C1の内部に存在する人の有無、人数、位置、状態等を検出するセンサである。例えば、赤外線、超音波、可視光、撮像素子等を用いる人感センサを用いることが可能である。例えば、運転席、助手席、後部座席の何れかに人が着座している場合には、その人の存在を人感センサにより検出可能である。また、人感センサ及び着座センサの双方を用いることにより、各座席の着座状態の検出精度を高めることが可能である。また、これらにより、エージェント機器200が対象とする人物の位置を特定することが可能である。
The human presence sensor is a sensor that detects the presence, number, location, and status of people inside the vehicle C1. For example, a human presence sensor that uses infrared rays, ultrasound, visible light, an image sensor, or the like can be used. For example, if a person is seated in the driver's seat, the passenger seat, or the back seat, the presence of that person can be detected by the human presence sensor. Furthermore, by using both a human presence sensor and a seating sensor, it is possible to increase the accuracy of detecting the seating status of each seat. These also make it possible for the
着座センサ(又はシートセンサ)は、車両C1の各座席に着座している乗員の有無を検出するセンサである。シートベルトセンサは、車両C1の各座席に着座している乗員がシートベルトを着用しているか否かを検出するセンサである。 The seating sensor (or seat sensor) is a sensor that detects whether or not an occupant is seated in each seat of the vehicle C1. The seat belt sensor is a sensor that detects whether or not an occupant is wearing a seat belt.
非接触温度センサは、車両C1の乗員の体温を非接触状態で検出するセンサである。例えば、ユーザU1の顔の表面の温度を非接触温度センサにより計測可能である。これらの各センサについては、公知のセンサを用いることが可能である。 The non-contact temperature sensor is a sensor that detects the body temperature of an occupant of the vehicle C1 in a non-contact manner. For example, the temperature of the surface of the face of the user U1 can be measured by the non-contact temperature sensor. Publicly known sensors can be used for each of these sensors.
情報処理装置110は、制御部120と、記憶部130と、通信部140とを備える。通信部140は、制御部120の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。例えば、通信部140は、ユーザU1が所持する電子機器MC1、ユーザU2が所持する電子機器MC2等との間で各種情報のやりとりを行うものである。この場合に、通信部140は、ネットワーク20を介して電子機器MC1、MC2との間で無線通信を実行してもよく、ネットワーク20を介さずに電子機器MC1、MC2との間で直接無線通信(例えば、近距離無線通信)を実行してもよい。なお、電子機器MC1、MC2は、例えば、スマートフォン、タブレット端末、携帯型のパーソナルコンピュータ等の情報処理装置である。例えば、電子機器MC1、MC2は、表示部に各種画像を表示したり、音出力部から音声出力をしたりする出力機器として機能する。
The
制御部120は、記憶部130に記憶されている各種プログラムに基づいて各部を制御するものである。制御部120は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の処理装置により実現される。例えば、GPUを用いて画像処理を実行することにより演算速度を速めることが可能である。また、GPUを用いて並列演算を実行することにより演算速度をさらに速めることが可能である。なお、車両C1の車両ECU(Electronic Control Unit)を制御部120としても使用してもよく、車両ECUとは異なる処理装置を制御部120として設けてもよい。なお、制御部120は、文字を音声に変換する変換機能を備える。この変換機能は、例えば、TTS(Text to Speech)により実現される。
The
制御部120は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、エージェント機器200の動作状態を制御する制御処理を実行する。具体的には、制御部120は、指示受付部121と、損得感情判定部122と、負債感情判定部123と、不満感情判定部124と、エージェント制御部125とを備える。
The
指示受付部121は、車両C1の乗員から出された1又は複数の指示に関する指示情報を受け付けるものであり、受け付けた指示情報を、損得感情判定部122、負債感情判定部123、不満感情判定部124、エージェント制御部125に出力する。例えば、車両C1の乗員が発した音声(指示をする音声)が音声入力部103により取得され、この音声に関する情報が指示情報として指示受付部121に出力される。ここで、上述したように、車両C1の複数の乗員から複数の指示が出された場合に、これらの各指示が相反する異なる指示であることも想定される。このような場合には、指示受付部121は、相反する異なる複数の指示のうちから、エージェント機器200に実行させる指示を選択する選択処理を実行し、その選択した指示に関する選択情報を、損得感情判定部122、負債感情判定部123、不満感情判定部124、エージェント制御部125に出力する。なお、この選択処理については、上述した選択処理と同様である。
The
損得感情判定部122は、車両C1の乗員から相反する異なる複数の指示が出された場合に、指示受付部121による選択処理の選択結果に基づいて、車両C1の乗員の損得感情を判定するものである。そして、損得感情判定部122は、その判定結果を負債感情判定部123、不満感情判定部124、エージェント制御部125に出力する。また、損得感情判定部122は、指示受付部121による選択処理の選択結果とともに、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1の乗員の損得感情を判定してもよい。なお、損得感情の判定方法については後述する。
The profit/loss
負債感情判定部123は、車両C1の乗員から相反する異なる複数の指示が出された場合に、車両C1の乗員の負債感情を判定するものであり、その判定結果をエージェント制御部125に出力する。具体的には、負債感情判定部123は、損得感情判定部122から出力された損得感情の判定結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1の乗員の負債感情を判定する。なお、負債感情の判定方法については後述する。
The debt
不満感情判定部124は、車両C1の乗員から相反する異なる複数の指示が出された場合に、車両C1の乗員の不満感情を判定するものであり、その判定結果をエージェント制御部125に出力する。具体的には、不満感情判定部124は、損得感情判定部122から出力された損得感情の判定結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1の乗員の不満感情を判定する。なお、不満感情の判定方法については後述する。
The dissatisfied
このように、損得感情判定部122、負債感情判定部123、不満感情判定部124は、車両C1の乗員のうち、得したユーザ、損したユーザ、負債感情が生じたユーザ、不満が生じたユーザ等を判定するものである。すなわち、損得感情判定部122、負債感情判定部123、不満感情判定部124は、車両C1の乗員に関する特定感情、不快状態等を検出する検出部として機能する。
In this way, the gain/loss
エージェント制御部125は、エージェント機器200の動作状態を制御するものである。具体的には、エージェント制御部125は、指示受付部121から出力された指示情報と、損得感情判定部122、負債感情判定部123、不満感情判定部124による判定結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報とに基づいて、エージェント機器200の動作状態を制御する。例えば、エージェント制御部125は、擬生物化されたエージェントの顔を構成する各部(例えば、眼部E1、E2、口部M1)を表示部210に表示させる。また、エージェント制御部125は、車両C1の乗員に報知すべき情報(報知情報)を表示部210に表示させる。また、エージェント制御部125は、擬生物化されたエージェントの音声、車両C1の乗員に報知すべき情報に対応する音声等を音出力部220から出力させる。
The agent control unit 125 controls the operating state of the
例えば、エージェント制御部125は、表示部210に表示させる報知情報と、音出力部220から出力させる報知情報とを決定し、それらの報知情報を出力させる制御を実行する。なお、車両C1の内部に存在する対象物に関する報知情報については、報知情報DB133に格納されている。例えば、シートベルトの着用に関する報知情報である場合には、シートベルトの着用に関する音声情報を報知情報として出力する。なお、シートベルトを示す画像を報知情報として表示部210に表示してもよい。
For example, the agent control unit 125 determines the notification information to be displayed on the
また、例えば、エージェント制御部125は、負債感情(又は得感情)が生じたユーザが検出された場合には、そのユーザ以外の他のユーザに知覚され難い態様で、そのユーザに対して負債感情を緩和させる演出をエージェント機器200に実行させる。例えば、図5(D)、図6(D1)乃至(D3)に示すように、エージェント機器200に所定の演出を実行させる。この演出として、所定の音声出力、所定の振舞い等を実行することが可能である。
For example, when the agent control unit 125 detects a user who has developed a feeling of indebtedness (or a feeling of gain), it causes the
また、例えば、エージェント制御部125は、不満感情が生じたユーザが検出された場合には、そのユーザ以外の他のユーザに知覚され難い態様で、そのユーザに対して不満感情を緩和させる演出をエージェント機器200に実行させる。例えば、図5(E)、図5(F)に示すように、エージェント機器200に所定の演出を実行させる。この演出として、所定の音声出力、所定の振舞い等を実行することが可能である。このように、エージェント制御部125は、車両C1の乗員のうち、他方に知覚され難い態様で一方をフォローする装置として機能する。
Furthermore, for example, when the agent control unit 125 detects a user who is feeling dissatisfied, it causes the
記憶部130は、各種情報を記憶する記憶媒体である。例えば、記憶部130には制御部120が各種処理を行うために必要となる各種情報(例えば、制御プログラム、エージェント情報DB131、指示情報DB132、報知情報DB133、地図情報DB134、周囲状況DB135、ユーザ状態DB136)が記憶される。また、記憶部130には、通信部140を介して取得された各種情報が記憶される。記憶部130として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせを用いることができる。
The
エージェント情報DB131には、エージェント機器200の各種動作を実現するために必要となる情報が格納されている。例えば、表示部210に表示される顔画像情報(例えば、眼部E1、E2、汗画像SW1、縦線画像V1、頬画像RS1、口部M1)と、音出力部220から出力される音声情報とがエージェント情報DB131に格納される。また、例えば、負債感情を緩和させる演出、不満感情を緩和させる演出の実行時にエージェント機器200を動作させるための動作情報等がエージェント情報DB131に格納される。
The agent information DB 131 stores information required to realize various operations of the
指示情報DB132には、車両C1の乗員から出される各指示のうち、相反する異なる複数の指示を特定するために必要となる情報が格納されている。例えば、相反する異なる複数の指示の組み合わせに関する情報(例えば、エアコンの温度を上げてとエアコンの温度を下げての組み合わせ、同時に出されるラジオ局の選択)が指示情報DB132に格納される。 The instruction information DB132 stores information required to identify multiple conflicting instructions issued by the occupants of the vehicle C1. For example, information regarding combinations of multiple conflicting instructions (e.g., a combination of increasing the air conditioner temperature and decreasing the air conditioner temperature, and a selection of radio stations issued at the same time) is stored in the instruction information DB132.
報知情報DB133には、車両C1の内部又は外部に存在する対象物に関する報知情報を出力するために必要となる情報が格納されている。例えば、半ドアに関する報知情報である場合には、ドアを示す画像情報と半ドアを報知するための音声情報とが報知情報として報知情報DB133に格納される。また、例えば、シートベルトの着用に関する報知情報である場合には、シートベルトを示す画像情報とシートベルトの着用を報知するための音声情報とが報知情報として報知情報DB133に格納される。 Information DB133 is stored information required to output notification information regarding objects present inside or outside vehicle C1. For example, in the case of notification information regarding a half-open door, image information showing the door and audio information for notifying the driver of the half-open door are stored as notification information in the notification information DB133. In addition, in the case of notification information regarding fastening a seat belt, image information showing the seat belt and audio information for notifying the driver to fasten the seat belt are stored as notification information in the notification information DB133.
地図情報DB134には、車両C1の経路案内に必要となる道路に関する道路情報等の地図情報が格納されている。その地図情報には、道路の勾配、道路の交差点、道路の車線数、道幅情報、道路の起伏情報、悪路状態が含まれる。また、地図情報には、速度制限、一方通行等を示す道路標識、横断歩道、区画線等を示す道路標示も含まれる。また、地図情報には、道路構造物(例えば信号機、電信柱)、建物等の施設情報、周囲の観光案内情報等を含めてもよい。なお、エージェント情報DB131、指示情報DB132、報知情報DB133、地図情報DB134については、車両C1が備える記憶部130に記憶して用いてもよく、ネットワーク20を介して外部機器から取得して用いてもよい。
The map information DB 134 stores map information such as road information on roads required for route guidance of the vehicle C1. The map information includes road gradients, road intersections, the number of lanes on the road, road width information, road undulation information, and bad road conditions. The map information also includes road signs indicating speed limits and one-way streets, crosswalks, dividing lines, and other road markings. The map information may also include information on facilities such as road structures (e.g., traffic lights and telephone poles), buildings, and tourist information about the surrounding area. The agent information DB 131,
周囲状況DB135には、車両C1の周囲の状況に関する情報が格納されている。これらの情報は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。
The surrounding
周囲状況DB135に格納された情報については、車両C1の周囲の状況に関する情報を検出する際における検出精度を向上させるための学習に使用することが可能である。 The information stored in the surrounding conditions DB135 can be used for learning to improve the detection accuracy when detecting information about the surrounding conditions of the vehicle C1.
ユーザ状態DB136には、ユーザU1の状態に関する情報が格納されている。これらの情報は、カメラ101、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。
The user status DB 136 stores information about the status of the user U1. This information is acquired and stored based on the information output from the
ユーザ状態DB136については、ユーザU1の状態に関する情報を検出する際における検出精度を向上させるための学習に使用することが可能である。 The user status DB136 can be used for learning to improve the detection accuracy when detecting information about the status of user U1.
エージェント機器200は、情報処理装置110からの指示に基づいて各種動作を実行するロボット機器である。エージェント機器200は、表示部210と、音出力部220と、駆動部230とを備える。なお、表示部210、音出力部220及び駆動部230は、エージェント機器200が備える制御部(図示省略)に基づいて制御される。
The
表示部210は、情報処理装置110からの指示に基づいて、各種画像を表示する表示部である。なお、表示部210として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)パネル等の表示パネルを用いることができる。なお、表示部210については、使用者がその指を表示面に接触又は近接することにより操作入力を行うことが可能なタッチパネルとして構成してもよく、別体のユーザインタフェースとして構成してもよい。
The
音出力部220は、情報処理装置110からの指示に基づいて、各種音声を出力するものである。音出力部220として、例えば、1又は複数のスピーカを用いることができる。なお、表示部210及び音出力部220は、ユーザインタフェースの一例であり、これらのうちの一部を省略してもよく、他のユーザインタフェースを用いてもよい。
The
駆動部230は、情報処理装置110からの指示に基づいて、エージェント機器200の本体部201、エージェント機器200の各部を駆動するものである。例えば、駆動部230は、図3(A)乃至(H)に示すように、本体部201を回動させたり、振動させたりする機構を実現する駆動装置である。例えば、駆動部230は、エージェント機器200を移動させたり、本体部201を回動させたりすることが可能なモータ、サーボモータ等により構成される。
The driving
[ユーザの損得感情の判定例]
次に、ユーザの損得感情を判定する判定方法について説明する。ユーザの損得感情は、上述したように、指示受付部121によるユーザからの指示の選択結果、エージェント機器200による処理の実行後の状況等に基づいて判定が可能である。エージェント機器200による処理の実行後の状況は、例えば、その処理の対象となった周囲の環境に関する環境情報、その処理の対象となった各ユーザに関する検出情報等である。なお、各ユーザに関する検出情報は、例えば、ユーザの生体情報(例えば、心拍、血脈)、ユーザから発せられる音、ユーザの外観(例えば、表情、動き)等である。
[Example of determining user's gain/loss feelings]
Next, a method for determining the user's feelings of gain or loss will be described. As described above, the user's feelings of gain or loss can be determined based on the result of the selection of the instruction from the user by the
[エージェント機器による指示の選択結果に基づく判定例]
例えば、複数のユーザから相反する異なる複数の指示が出された場合には、指示受付部121は、それらの各指示のうちからエージェント機器200に実行させる指示を選択する。この選択処理については、上述した選択処理と同様である。次に、損得感情判定部122は、指示受付部121から出力された指示情報及び選択情報に基づいて、それらの各指示のうちから指示受付部121により選択された指示を出したユーザを、得感情が生じたユーザとして判定する。一方、損得感情判定部122は、得感情が生じたと判定されたユーザ以外のユーザを、損感情が生じたユーザとして判定する。例えば、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合を想定する。この場合には、エージェント機器200は、周囲の状況、ユーザU1、U2に関する各検出情報等に基づいて、実行対象とする指示を選択する。例えば、ユーザU2の指示「エアコンの温度を上げて」が選択された場合を想定する。この場合には、損得感情判定部122は、ユーザU2を得感情が生じたユーザとして判定し、ユーザU1を損感情が生じたユーザとして判定する。
[Example of judgment based on the selection result of the instruction by the agent device]
For example, when multiple users issue multiple conflicting instructions, the
なお、車両C1に乗車する各ユーザ及びその位置については、カメラ101により取得された車両C1の車室内の画像に基づいて取得可能である。また、人感センサ及び着座センサにより検出された検出情報に基づいて、車両C1に乗車する各ユーザ及びその位置を取得することも可能である。また、車両C1に乗車する各ユーザのうち、エージェント機器200に指示を出したユーザの位置については、その指示に対応する音声が発せられた方向等に基づいて検出可能である。なお、音声が発せられた方向の検出方法については、公知の音声認識技術を用いることが可能である。また、また、車両C1に乗車する各ユーザのうち、エージェント機器200に指示を出したユーザの位置については、カメラ101により取得された車両C1の車室内の画像に基づいて取得可能である。例えば、その指示に対応する音声を発する表情(特に、口の動き)等に基づいて検出可能である。なお、表情に基づく声の検出方法については、公知の画像認識技術を用いることが可能である。
The users and their positions aboard the vehicle C1 can be obtained based on the images of the interior of the vehicle C1 acquired by the
[エージェント機器による処理の実行後の状況等に基づく判定例]
上述したように、エージェント機器200は、周囲の状況、ユーザに関する各検出情報等に基づいて適宜処理を実行する。例えば、カメラ101、音声入力部103、センサ類104からの各情報に基づいて、エージェント機器200は、車両C1に乗車するユーザU1、U2の暑さを検出可能である。例えば、カメラ101により取得されたユーザU1の顔画像に基づいてユーザU1の大量の汗が検出され、センサ類104の非接触温度センサに基づいてユーザU1の体温上昇が検出された場合を想定する。この場合には、エージェント機器200は、エアコンの温度設定を下げる制御を実行する。また、この場合には、損得感情判定部122は、エージェント機器200により実行された処理の原因となったユーザU1を、得感情が生じたユーザとして判定する。一方、損得感情判定部122は、得感情が生じたと判定されたユーザU1以外のユーザU2を、損感情が生じたユーザとして判定する。このように、エージェント機器200により実行された処理の原因となったユーザを得感情が生じたユーザとして判定し、このユーザ以外の他のユーザを、損感情が生じたユーザとして判定することが可能である。
[Example of determination based on the situation after execution of processing by the agent device]
As described above, the
[ユーザの負債感情の判定例]
次に、ユーザの負債感情を判定する判定方法について説明する。なお、本実施形態では、ユーザの負債感情の判定は、得感情が生じたユーザに対して実行される。具体的には、ユーザの生体情報(例えば、心拍、血脈)と、ユーザから発せられる音と、ユーザの外観(例えば、表情、動き)とに基づいてユーザの負債感情を判定可能である。なお、得感情が生じたユーザ以外のユーザについても負債感情を判定し、この判定結果を用いるようにしてもよい。
[Example of determining user's debt sentiment]
Next, a method for determining a user's debt feeling will be described. In this embodiment, the debt feeling of a user is determined for a user who has a gain feeling. Specifically, the debt feeling of a user can be determined based on the user's biometric information (e.g., heart rate, blood vessels), the sound emitted by the user, and the user's appearance (e.g., facial expression, movement). The debt feeling of users other than the user who has a gain feeling may also be determined, and the determination result may be used.
上述したように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに負債感情が生じることがある。すなわち、負債感情は、複数のユーザが存在する場合に、一部のユーザに生じる感情である。例えば、複数のユーザに対してある現象が生じた場合に、一部のユーザが相対的に得する立場となり、他のユーザが相対的に損する立場となることが想定される。例えば、暑がりのユーザU1と、寒がりのユーザU2とに対してエアコンの温度設定を上げるという現象が生じた場合に、ユーザU2が相対的に得する立場となり、ユーザU1が相対的に損する立場となることが想定される。このような場合において、相対的に得する立場となったユーザU2には、相対的に損する立場となったユーザU1に対して、申し訳ない、心苦しい等の負債感情が発生することが多い。そこで、本実施形態では、他のユーザに対して負債感情が生じたユーザに対して適切なフォローをしてその負債感情を緩和させる。 As described above, when there are multiple users, some users may feel indebted to other users. In other words, indebtedness is an emotion that occurs in some users when there are multiple users. For example, when a certain phenomenon occurs for multiple users, it is assumed that some users will be in a relatively advantageous position and other users will be in a relatively disadvantaged position. For example, when a phenomenon occurs in which a user U1 who is sensitive to heat and a user U2 who is sensitive to cold raise the temperature setting of an air conditioner, it is assumed that user U2 will be in a relatively advantageous position and user U1 will be in a relatively disadvantaged position. In such a case, user U2 who is in a relatively advantageous position often feels indebted, such as feeling sorry or sorry, toward user U1 who is in a relatively disadvantaged position. Therefore, in this embodiment, appropriate follow-up is provided to the user who has felt indebted to other users to alleviate the indebtedness.
例えば、ユーザU2に負債感情が生じると、ユーザU2の顔が悲しい表情となったり、申し訳ないような表情となったりすることが想定される。そこで、ユーザU2の顔を含む画像を解析することによりユーザU2の表情の変化を取得し、その変化の程度に基づいて、ユーザU2の負債感情を算出可能である。例えば、ユーザU2の表情が急激に変化し、かつ、その変化後の表情が所定の表情(例えば、悲しい表情、申し訳ないような表情)になった場合に、ユーザU2の負債感情に関する度合が高いと判定することが可能である。なお、ユーザU2の負債感情に関する度合は、ユーザU2の負債感情を数値化したものであり、数値が高くなるのに応じて、ユーザU2の負債感情が高いと判定することが可能である。また、ユーザU2の顔が所定の表情(例えば、悲しい表情、申し訳ないような表情)になった場合に、ユーザU2の負債感情に関する度合が高いと判定することも可能である。なお、ユーザU2の顔を含む画像については、カメラ101(図4参照)により取得可能である。また、表情の判定については、公知の表情認識技術(例えば表情判定プログラム)を用いることが可能である。なお、負債感情に関する度合は、負債感情の確信度等と称してもよい。 For example, when the user U2 feels a sense of indebtedness, it is assumed that the face of the user U2 will have a sad or apologetic expression. Therefore, by analyzing an image including the face of the user U2, the change in the expression of the user U2 can be acquired, and the indebtedness of the user U2 can be calculated based on the degree of the change. For example, when the expression of the user U2 changes suddenly and the expression after the change becomes a predetermined expression (for example, a sad expression, apologetic expression), it is possible to determine that the degree of the indebtedness of the user U2 is high. Note that the degree of the indebtedness of the user U2 is a numerical representation of the indebtedness of the user U2, and it is possible to determine that the indebtedness of the user U2 is high as the numerical value increases. It is also possible to determine that the degree of the indebtedness of the user U2 is high when the face of the user U2 has a predetermined expression (for example, a sad expression, apologetic expression). Note that the image including the face of the user U2 can be acquired by the camera 101 (see FIG. 4). It is also possible to use a known facial expression recognition technology (for example, a facial expression determination program) to determine the facial expression. The degree of indebtedness may also be referred to as the degree of certainty of indebtedness.
なお、顔に関する他の情報を用いてユーザU2の負債感情を判定してもよい。例えば、ユーザU2に負債感情が生じると、ユーザU2の顔に冷や汗が生じることも想定される。そこで、カメラ101により取得された画像(ユーザU2の顔を含む)等に基づいて、ユーザU2の顔に冷や汗が生じたか否かを検出し、ユーザU2の顔に冷や汗が生じた場合に、ユーザU2に負債感情が発生したと判定することが可能である。
Note that the indebtedness of user U2 may be determined using other information related to the face. For example, when user U2 feels indebted, it is expected that user U2 may break out in a cold sweat on his/her face. Therefore, based on an image (including user U2's face) acquired by
また、例えば、ユーザU2に負債感情が生じると、ユーザU2が視線をユーザU1に向けることが多くなると想定される。例えば、ユーザU2が悲しい表情で視線をユーザU1に頻繁に向けることが想定される。そこで、カメラ101により取得された画像(ユーザU2の顔を含む)等に基づいて、ユーザU2が視線をユーザU1に向ける回数を検出し、その回数に基づいて、ユーザU2の負債感情を判定することが可能である。例えば、ユーザU2が視線をユーザU1に向ける回数が閾値以上である場合には、ユーザU2の負債感情が高いと判定可能である。すなわち、ユーザU2の動きとして、ユーザU2が視線をユーザU1に向ける頻度に基づいて、ユーザU2の負債感情が高いか否かを判定可能である。また、ユーザU2の体温の変化に基づいて、ユーザU2の負債感情が高いか否かを判定してもよい。
Also, for example, when user U2 feels a sense of indebtedness, it is assumed that user U2 will often turn his/her gaze towards user U1. For example, it is assumed that user U2 will frequently turn his/her gaze towards user U1 with a sad expression. Therefore, based on the image (including user U2's face) acquired by
また、ユーザU2に負債感情が生じると、ユーザU2が特定のキーワード(例えば、ごめんなさい、本当は温度を下げたかったんだよね、暑いよね)を発したり、ユーザU2が声のトーンを下げて声を発したりすることが想定される。なお、特定のキーワードは、例えば、ユーザU1に対してユーザU2が申し訳ない、心苦しい等の感情を表現するような文言である。また、声のトーンは、声の高低、テンポ、音量等を意味する。例えば、ユーザU2に負債感情が生じると、ユーザU2が「ごめんなさい」を低めの声で発することが想定される。そこで、ユーザU2から発せられる声を解析することにより、ユーザU2が発した特定のキーワード(例えば、ごめんなさい)、ユーザU2から発せられる声のトーンを取得する。そして、ユーザU2が特定のキーワード(例えば、ごめんなさい)を発した場合、又は、ユーザU2から発せられた声のトーンが閾値未満となった場合に、ユーザU2の負債感情が高いと判定することが可能である。なお、ユーザU2が発する声については、音声入力部103(図4参照)により取得可能である。また、声の判定については、公知の音認識技術(例えば音判定プログラム)を用いることが可能である。また、表情及び音声を合わせて感情を推定する公知の推定技術を用いることも可能である。例えば、表情及び音声を合わせて負債感情を推定し、その負債感情を数値化(負債感情に関する度合)することが可能である。なお、ユーザU2の生体情報と、ユーザU2の発話内容と、ユーザU2の動作とのうちの少なくとも1つに基づいて算出が可能なユーザU2の負債感情に関する他の数値を用いてもよい。 In addition, when a feeling of indebtedness arises in user U2, it is assumed that user U2 will utter a specific keyword (e.g., I'm sorry, I actually wanted to turn down the temperature, it's hot, isn't it?) or will speak in a lower tone of voice. The specific keyword is, for example, a phrase that expresses the feeling of user U2 being sorry or feeling sorry toward user U1. The tone of voice means the pitch, tempo, volume, etc. of the voice. For example, when a feeling of indebtedness arises in user U2, it is assumed that user U2 will utter "I'm sorry" in a lower voice. Therefore, by analyzing the voice uttered by user U2, the specific keyword uttered by user U2 (e.g., I'm sorry) and the tone of voice uttered by user U2 are obtained. Then, when user U2 utters a specific keyword (e.g., I'm sorry), or when the tone of voice uttered by user U2 is below a threshold, it is possible to determine that user U2 has a high feeling of indebtedness. The voice uttered by user U2 can be acquired by the voice input unit 103 (see FIG. 4). A known sound recognition technology (e.g., a sound determination program) can be used to determine the voice. A known estimation technology can also be used to estimate emotions by combining facial expressions and voice. For example, it is possible to estimate a debt emotion by combining facial expressions and voice, and to quantify the debt emotion (degree of debt emotion). Other numerical values related to the debt emotion of user U2 that can be calculated based on at least one of the biometric information of user U2, the content of the speech of user U2, and the actions of user U2 may also be used.
なお、上述した負債感情の判定条件のうちの2以上を用いて、負債感情を総合的に判定してもよい。これにより、負債感情に関する度合の算出精度を高めることが可能である。 Note that two or more of the above-mentioned criteria for determining indebtedness may be used to comprehensively determine the indebtedness feeling. This can improve the accuracy of calculating the degree of indebtedness feeling.
[ユーザの不満感情の判定例]
次に、ユーザの不満感情を判定する判定方法について説明する。なお、本実施形態では、ユーザの不満感情の判定は、損感情が生じたユーザに対して実行される。具体的には、ユーザの生体情報(例えば、心拍、血脈)と、ユーザから発せられる音と、ユーザの外観(例えば、表情、動き)とに基づいてユーザの不満感情を判定可能である。なお、損感情が生じたユーザ以外のユーザについても不満感情を判定し、この判定結果を用いるようにしてもよい。
[Example of Determining User's Dissatisfaction]
Next, a method for determining the dissatisfaction of a user will be described. In this embodiment, the determination of the dissatisfaction of a user is performed for a user who has experienced a loss. Specifically, the dissatisfaction of a user can be determined based on the user's biometric information (e.g., heart rate, blood vessels), the sound emitted by the user, and the user's appearance (e.g., facial expression, movement). The dissatisfaction of users other than the user who has experienced a loss may also be determined, and the determination result may be used.
上述したように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに負債感情が生じることがある。一方、負債感情が生じたユーザ以外のユーザについては、不満感情が生じることがある。すなわち、不満感情は、複数のユーザが存在する場合に、一部のユーザに生じる感情である。例えば、暑がりのユーザU1と、寒がりのユーザU2とに対してエアコンの温度設定を上げるという現象が生じた場合に、ユーザU2が相対的に得する立場となり、ユーザU1が相対的に損する立場となることが想定される。このような場合において、相対的に損する立場となったユーザU1には、相対的に得する立場となったユーザU2に対する不満の感情が発生することが多い。そこで、本実施形態では、他のユーザに対して不満感情が生じたユーザに対しても適切なフォローをしてその不満感情を緩和させる。 As described above, when there are multiple users, some users may feel indebted to other users. On the other hand, users other than the user who feels indebted may feel dissatisfied. In other words, dissatisfaction is a feeling that occurs in some users when there are multiple users. For example, when a phenomenon occurs in which the temperature setting of an air conditioner is increased for user U1 who is sensitive to heat and user U2 who is sensitive to cold, it is assumed that user U2 will be in a relatively advantageous position and user U1 will be in a relatively disadvantaged position. In such a case, user U1 who is in a relatively disadvantaged position often feels dissatisfied with user U2 who is in a relatively advantageous position. Therefore, in this embodiment, appropriate follow-up is provided to users who feel dissatisfied with other users to alleviate their dissatisfaction.
なお、ユーザの不満感情についても、ユーザの負債感情と同様に、ユーザの顔に関する各情報(例えば、表情、口の動き、視線)、ユーザが発する声等に基づいて判定可能である。また、ユーザの不満感情に関する度合についても、ユーザの負債感情に関する度合と同様に、ユーザの顔に関する各情報、ユーザが発する声等に基づいて算出可能である。なお、ユーザの不満感情に関する度合は、ユーザの不満感情を数値化したものであり、数値が高くなるのに応じて、ユーザの不満感情が高いと判定することが可能である。ただし、ユーザの負債感情とは、表情、発話等の内容が異なる。例えば、ユーザU1に不満感情が生じると、ユーザU1の顔が怒りの表情となったり、ユーザU1から怒りの声、強いトーンの声が、声を荒げた発声がされたりすることが想定される。また、例えば、ユーザU1に不満感情が生じると、ユーザU1の動きが力強くなり大きくなることも想定される。そこで、ユーザの不満感情の判定処理においては、これらの要素を基準にして、判定することが可能である。 The user's dissatisfaction can be determined based on various information related to the user's face (e.g., facial expression, mouth movement, gaze), the user's voice, etc., in the same way as the user's debt. The degree of the user's dissatisfaction can be calculated based on various information related to the user's face, the user's voice, etc., in the same way as the degree of the user's debt. The degree of the user's dissatisfaction is a numerical representation of the user's dissatisfaction, and it is possible to determine that the user's dissatisfaction is high as the numerical value increases. However, the content of the user's debt is different from the content of the facial expression, speech, etc. For example, when the user U1 becomes dissatisfied, it is assumed that the user U1's face will have an angry expression, or that the user U1 will speak in an angry voice, a strong tone, or a loud voice. For example, when the user U1 becomes dissatisfied, it is assumed that the user U1's movements will become stronger and larger. Therefore, in the process of determining the user's dissatisfaction, it is possible to make a determination based on these factors.
また、不満感情の判定条件のうちの2以上を用いて、不満感情を総合的に判定してもよい。これにより、不満感情に関する度合の算出精度を高めることが可能である。 In addition, two or more of the conditions for determining dissatisfaction may be used to comprehensively determine dissatisfaction. This can improve the accuracy of calculating the degree of dissatisfaction.
[ユーザの感情に応じてエージェント機器の各態様を変化させる例]
次に、ユーザU1、U2の感情に応じてエージェント機器200の各態様を変化させる場合の遷移例について説明する。
[Example of changing each aspect of the agent device according to the user's emotions]
Next, a transition example in which the aspects of the
[ユーザからの指示に応じた処理を実行後にユーザの感情に応じてエージェント機器の各態様を変化させる場合の遷移例]
図5、図6は、ユーザU1、U2からの指示に応じた処理を実行後にユーザU1、U2の感情に応じてエージェント機器200の各態様を変化させる場合の遷移例を示す図である。具体的には、ユーザU1、U2から相反する指示が出された場合に、ユーザU2からの指示に応じた処理を実行後に、ユーザU1、U2の感情に応じてエージェント機器200の各態様を変化させる場合の遷移例を示す。
[Example of transition when changing each state of the agent device according to the user's emotion after executing a process according to the user's instruction]
5 and 6 are diagrams showing examples of transitions when each aspect of the
図5(A)には、車両C1に乗車する2人のユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合の例を示す。なお、図5(A)に示す例は、図2と同様である。すなわち、寒さに震えるユーザU2から「エアコンの温度を上げて」の音声S12が発せられ、暑さで汗をかいているユーザU1から「エアコンの温度を下げて」の音声S11が発せられた場合の例を示す。このように、ユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合には、上述したように、エージェント機器200は、それらの各指示のうちの一方を選択して実行する。
Figure 5 (A) shows an example of a case where two users U1 and U2 in a vehicle C1 give different, conflicting instructions to the
図5(B)には、図5(A)に示す各指示がされた後に、選択された指示が実行された場合のエージェント機器200の態様例を示す。図5(B)では、ユーザU2の指示が選択され、エアコンの温度設定を上げる温度調整処理が実行された場合の例を示す。この場合には、エージェント機器200が「エアコンの温度を上げます」の音声情報S13を発する。これにより、ユーザU1、U2の双方が、ユーザU2の指示がエージェント機器200により実行されたことを把握可能となる。
Figure 5 (B) shows an example of the behavior of the
図5(B)に示すように、指示が選択されたユーザU2は、車両C1の車室内のエアコンの温度設定を上げてもらうことにより、車両C1の車室内の温度が上がるため、寒さを緩和することができ、肯定的な感情(例えば、喜び、信頼)が発生すると想定される。一方、指示が選択されなかったユーザU1は、エアコンの温度設定が上げられてしまうことにより、車両C1の車室内の温度が上がるため、暑さが増し、否定的な感情(例えば、困惑、落胆、悲しさ、虚しさ、怒り)が発生すると想定される。 As shown in FIG. 5(B), user U2 for whom the instruction was selected will be able to alleviate the coldness by having the temperature setting of the air conditioner in the passenger compartment of vehicle C1 increased, which is expected to cause positive emotions (e.g., joy, trust). On the other hand, user U1 for whom the instruction was not selected will feel hotter as the temperature setting of the air conditioner in the passenger compartment of vehicle C1 is increased, which is expected to cause negative emotions (e.g., confusion, disappointment, sadness, emptiness, anger).
このように、相反する異なる指示が複数のユーザから出された場合には、少なくとも1つの指示が採用されることになる。このため、指示が採用されたユーザには肯定的な感情が発生し、指示が採用されなかったユーザには否定的な感情が発生することが想定される。ただし、上述したように、指示が採用されたユーザには肯定的な感情が発生するとともに、指示が採用されなかったユーザに対する負債感情、得感情等も発生することが想定される。そこで、本実施形態では、相反する異なる指示が複数のユーザから出された場合において、それらの指示のうちから少なくとも1つの指示が選択されて実行された後に、各ユーザに関するセンシングを実行する。そして、各ユーザの損得感情、負債感情、不満感情等を判定する。 In this way, when conflicting and different instructions are issued by multiple users, at least one instruction will be adopted. For this reason, it is expected that the user whose instructions are adopted will experience positive emotions, and the user whose instructions are not adopted will experience negative emotions. However, as described above, it is expected that in addition to positive emotions, the user whose instructions are adopted will also experience feelings of indebtedness, gain, etc. toward the user whose instructions are not adopted. Therefore, in this embodiment, when conflicting and different instructions are issued by multiple users, at least one of those instructions is selected and executed, and then sensing is performed for each user. Then, each user's feelings of gain/loss, indebtedness, dissatisfaction, etc. are determined.
図5(C)には、図5(B)に示すように、ユーザU2の指示が採用された後におけるユーザU1、U2の感情を模式的に示す。具体的には、指示が採用されなかったユーザU1は、エアコンの温度設定が上げられ、車両C1の車室内の温度が上昇することに応じて、「暑すぎる」という思いAF1が発生することが想定される。一方、指示が採用されたユーザU2は、エアコンの温度設定が上げられ、車両C1の車室内の温度が上昇することに応じて快適となるが、暑そうなユーザU1に対して「ごめんなさい。Bさん、暑いよね」等の思いAF2が発生することが想定される。この場合には、ユーザU1、U2の負債感情に関する度合、不満感情に関する度合等に基づいて、エージェント機器200は、各態様を実行する。
Figure 5 (C) shows a schematic diagram of the emotions of users U1 and U2 after the instruction of user U2 is adopted as shown in Figure 5 (B). Specifically, it is assumed that user U1, whose instruction was not adopted, will have the feeling AF1 of "it's too hot" as the temperature setting of the air conditioner is raised and the temperature inside the vehicle C1 rises. On the other hand, user U2, whose instruction was adopted, will feel comfortable as the temperature setting of the air conditioner is raised and the temperature inside the vehicle C1 rises, but will have the feeling AF2 of "I'm sorry, Mr. B, it's hot, isn't it?" in response to user U1 who looks hot. In this case, the
[他のユーザに知覚され難い態様で、対象ユーザに対して負債感情を緩和させる演出を実行する例]
図5(D)には、ユーザU2の負債感情に関する度合が第1閾値以上の場合のエージェント機器200の態様例を示す。この場合には、ユーザU2のユーザU1に対する負債感情に関する度合が高いため、ユーザU2に対するフォローを行うようにする。ただし、ユーザU1に知覚される態様でユーザU2に対するフォローを行うと、ユーザU1は、勝手に自分の気持ちをユーザU2に伝えてほしくないと考えることも想定される。一方、ユーザU1に知覚される態様でユーザU2に対するフォローを行うと、ユーザU2はいたたまれない気持ちになることも想定される。そこで、本実施形態では、ユーザU2のユーザU1に対する負債感情に関する度合が高い場合には、ユーザU1に知覚され難い態様でユーザU2に対するフォローを行うようにする。なお、ユーザU1に知覚され難い態様については、後述する。また、第1閾値は、ユーザの負債感情が高いことを判定するための閾値であり、実験データ等に基づいて適宜設定可能である。
[Example of performing a performance to reduce a target user's sense of indebtedness in a manner that is difficult for other users to perceive]
FIG. 5D shows an example of the manner of the
図5(D)に示すように、ユーザU1に対するユーザU2の負債感情を緩和させるような表情としたエージェント機器200がユーザU2の方向を向き、「寒いもんね。しょうがないよ」の音声情報S14を発する。なお、駆動部230の回転動作により、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。ただし、エージェント機器200の表示部210の表示内容を変更することにより、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。例えば、球体のエージェント機器200の顔部における眼部、口部の表示位置を、ユーザU2の方向に移動させることにより、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。
As shown in FIG. 5(D), the
また、ユーザU2の負債感情を緩和させるような表情は、例えば、ユーザU2に同調する表情、ユーザU2に協調する表情、ユーザU2に共感する表情、ユーザU2に謝罪する表情等である。また、ユーザU1に対するユーザU2の負債感情を緩和させるような振舞いをエージェント機器200に実行させてもよい。例えば、図5(D)に示すように、エージェント機器200を振動させることにより、寒さで震えるユーザU2に同調、共感する振舞いを実現することが可能である。また、手足等を用いて、寒さで震えるユーザU2に同調、共感する振舞いを実現してもよい。これにより、ユーザU1に対する負債感情が生じたユーザU2に対して適切なフォローを行うことができ、ユーザU2の負債感情を解消することが可能となる。例えば、ユーザU2に生じた謝罪の気持ちを抑制することが可能である。
Facial expressions that alleviate the indebtedness of user U2 include, for example, facial expressions that sympathize with user U2, facial expressions that cooperate with user U2, facial expressions that sympathize with user U2, and facial expressions that apologise to user U2. The
図5(D)では、エージェント機器200の顔部をユーザU2の方向に向けた状態でエージェント機器200に所定の振舞いをさせる態様を、ユーザU1に知覚され難い態様とする例を示した。ただし、ユーザU1に知覚され難い態様として、エージェント機器200に他の態様をさせてもよい。例えば、ユーザU1に知覚され難い態様として、ユーザU1に知覚され難い方法で演出をエージェント機器200に実行させる第1態様と、ユーザU1に知覚され難いタイミングで演出をエージェント機器200に実行させる第2態様とのうちの少なくとも1つを実行することが可能である。
In FIG. 5(D), an example is shown in which the
なお、他のユーザに知覚され難い態様は、例えば、他のユーザに気づかれない態様、他のユーザに認識され難い態様、他のユーザに視認され難い態様等と称することも可能である。 Note that a mode that is difficult for other users to perceive can also be referred to as, for example, a mode that is not noticed by other users, a mode that is difficult for other users to recognize, a mode that is difficult for other users to see, etc.
[ユーザに知覚され難い方法の例]
第1態様(ユーザU1に知覚され難い方法)は、例えば、エージェント機器200をユーザU2の方向に向けた状態でエージェント機器200に所定の振舞いをさせる態様(第1A態様)、ユーザU2にだけ聞こえる音をエージェント機器200から出力させる態様(第1B態様)、情報処理装置110(又はエージェント機器200)の制御に基づいてユーザU2が所持する電子機器MC2から所定情報を出力させる態様(第1C態様)、情報処理装置110(又はエージェント機器200)の制御に基づいて他の表示領域から所定情報を表示させる態様(第1D態様)等である。
[Example of a method that is difficult for users to notice]
The first aspect (a method that is difficult for the user U1 to perceive) is, for example, an aspect in which the
第1A態様では、例えば、図5(D)に示すように、エージェント機器200の顔部をユーザU2の方向に向けた状態で、エージェント機器200に所定の振舞い(震える動き)をさせることが可能である。
In the first A aspect, for example, as shown in FIG. 5(D), it is possible to cause the
また、第1A態様では、例えば、エージェント機器200の顔部をユーザU2の方向に向けた状態で、エージェント機器200に所定の口の動作をさせることが可能である。この口の動作として、例えば、所定の音声(例えば、しょうがないよ)を発する口元の動き(いわゆる、口パク)を実行することが可能である。
In addition, in the first A aspect, for example, it is possible to cause the
また、エージェント機器200に所定の口の動作をさせる代わりに、エージェント機器200の表示部210に所定情報(例えば、テキスト情報「寒いもんね。しょうがないよ」)を表示してもよい。この例を図6(D1)に示す。図6(D1)に示すように、エージェント機器200の表示部210をユーザU2の方向に向けた状態で、表示部210に所定情報TX1(例えば、文字「しょうがないよ」)を表示させて第1態様とすることが可能である。なお、表示部210に他の情報(例えば、寒さを共感するような画像)を表示させて第1態様としてもよい。
In addition, instead of making the
第1B態様では、図5(D)に示すように、エージェント機器200の顔部をユーザU2の方向に向けた状態で、ユーザU2にだけ聞こえる音をエージェント機器200の音出力部220から出力させることが可能である。なお、エージェント機器200の音出力部220を構成するスピーカのうちの少なくとも1つが、ユーザU2の耳の近くに配置されている場合には、ユーザU2の耳の近くに配置されているスピーカから小さい音を発することにより、ユーザU2にだけ聞こえるようにすることが可能である。また、エージェント機器200の音出力部220を構成するスピーカのうちの少なくとも1つが指向性スピーカである場合には、その指向性スピーカから小さい音をユーザU2に向けて発することにより、ユーザU2にだけ聞こえるようにすることが可能である。
In the first B mode, as shown in FIG. 5(D), with the face of the
このように、第1A及び第1B態様では、負債感情を緩和させる振舞いをエージェント機器200に表現させたり、負債感情を緩和させる表情をエージェント機器200に表現させたり、負債感情を緩和させる音声をエージェント機器200から出力させたりする。なお、負債感情を緩和させる振舞いは、例えば、ユーザU2の眼を見つめる動き、ユーザU2を見ながらうなずく動き、ユーザU2を見ながら行う所定の口の動き、エージェント機器200の表面において所定画像又は所定文字を表示させることとのうちの少なくとも1つとすることが可能である。
In this way, in the first A and first B aspects, the
第1C態様では、情報処理装置110(又はエージェント機器200)の制御に基づいて、ユーザU2が所持する電子機器MC2から所定情報を出力させることが可能である。この例を図6(D2)に示す。例えば、電子機器MC2の表示部30において所定情報(例えば、文字「寒いもんね。しょうがないよ。」)を表示させてもよく、電子機器MC2の音声出力部から小さい音で所定情報(例えば、文字「寒いもんね。しょうがないよ。」)を出力させてもよい。また、例えば、電子機器MC2の表示部30において他の情報(例えば、エージェント機器200の共感するような笑顔)を表示させてもよい。
In the first C aspect, it is possible to output specific information from the electronic device MC2 possessed by the user U2 based on the control of the information processing device 110 (or the agent device 200). An example of this is shown in FIG. 6 (D2). For example, the specific information (e.g., the text "It's cold. Can't be helped.") may be displayed on the
ここで、ユーザU1が所持する電子機器MC1と、ユーザU2が所持する電子機器MC2とを識別する識別方法について説明する。例えば、車両C1に乗車するユーザが、自己が所持する電子機器を車両C1に予め登録しておくことが考えられる。例えば、ユーザを識別可能なユーザ識別情報(例えば、顔識別情報、音声識別情報)と、電子機器の機器識別情報とを関連付けて情報処理装置110に登録しておき、これらの各識別情報に基づいて、各座席のユーザが所持する電子機器を判定することが可能である。例えば、カメラ101により取得された画像に含まれるユーザの顔画像とユーザ識別情報(例えば、顔識別情報)とに基づいて、各座席に座っているユーザを認識可能である。この場合には、公知の個人認識技術を用いることが可能である。例えば、助手席に座っているユーザの顔がユーザU2の顔であることを識別可能である。この場合には、助手席に座っているユーザU2が所持する電子機器M2を認識可能である。これにより、エージェント制御部125は、所定情報を出力させる電子機器MC2を所持するユーザU2が助手席に着座していることを把握することが可能である。そして、エージェント制御部125は、ユーザU2に対する所定情報を電子機器MC2から出力させることが可能である。
Here, an identification method for identifying the electronic device MC1 owned by the user U1 and the electronic device MC2 owned by the user U2 will be described. For example, it is possible that a user who gets into the vehicle C1 registers the electronic device he or she owns in advance in the vehicle C1. For example, user identification information (e.g., face identification information, voice identification information) that can identify the user and device identification information of the electronic device are associated and registered in the
また、例えば、情報処理装置110は、車両C1に乗車するユーザが所持する電子機器から発信されている電波を検出することが可能である。そこで、例えば、電子機器の機器識別情報のみを情報処理装置110に予め登録しておき、各電子機器の電波強度を用いて、登録された電子機器の位置を判定してもよい。例えば、車両C1の車室内に複数のアンテナを設定しておき、これらの各アンテナにより受信される各電子機器の電波強度に基づいて各電子機器の位置を推定可能である。なお、この位置推定については、公知の位置推定技術を用いることが可能である。この場合には、助手席の位置に電子機器M2が存在することを認識可能である。これにより、エージェント制御部125は、助手席に着座しているユーザU2が、所定情報を出力させる電子機器MC2を所持していることを把握することが可能である。
For example, the
また、例えば、ユーザが車両C1に乗り込む際に、そのユーザが所持する電子機器を検出してもよい。例えば、複数のユーザが時間差で車両C1に乗り込む場合を想定する。この場合には、車両C1に乗り込むユーザが所持する電子機器から発信されている電波を順次検出することが可能である。また、車両C1に乗り込むユーザが座る座席については、センサ類104(例えば、着座センサ、シートベルトセンサ)、カメラ101からの各情報に基づいて検出が可能である。そこで、このような場合には、制御部120は、新たに検出された電子機器と、その検出タイミング(又はその検出直後のタイミング)で着座が検出された座席の位置とを関連付けて記憶部130のユーザ状態DB136に記録することが可能である。例えば、最初にユーザU2が助手席側に車両C1に乗り込み、次にユーザU1が運転席側に車両C1に乗り込む場合を想定する。この場合には、制御部120は、最初に検出された電子機器MC2と、その検出タイミングで着座が検出された助手席の位置とを関連付けてユーザ状態DB136に記録する。そして、制御部120は、次に検出された電子機器MC1と、その検出タイミングで着座が検出された運転席の位置とを関連付けてユーザ状態DB136に記録する。これにより、エージェント制御部125は、助手席に着座しているユーザU2が、所定情報を出力させる電子機器MC2を所持していることを把握することが可能である。
For example, when a user gets into the vehicle C1, the electronic device carried by the user may be detected. For example, assume that a plurality of users get into the vehicle C1 at different times. In this case, it is possible to sequentially detect radio waves emitted from the electronic devices carried by the users who get into the vehicle C1. In addition, the seat in which the user who gets into the vehicle C1 sits can be detected based on information from the sensors 104 (e.g., seating sensor, seat belt sensor) and the
なお、複数のユーザが車両C1に略同時に乗り込むことも想定される。この場合には、上述した方法で着座位置と電子機器とを関連付けることができないことも想定される。そこで、複数のユーザが車両C1に略同時に乗り込む場合には、制御部120は、車両C1に乗り込む各ユーザが所持する各電子機器から発信されている各電波を順次検出する。そして、制御部120は、電波が検出された各電子機器に、座席を選択するための選択ボタン(例えば、運転席ボタン、助手席ボタン)を表示させる。例えば、助手席に座ったユーザU2は、電子機器MC2の表示部30に表示された選択ボタンのうちから助手席ボタンを選択する。この選択された座席に関する座席情報が電子機器MC2から情報処理装置110に送信されると、制御部120は、その座席情報に対応する助手席の位置と、この座席情報を送信した電子機器MC2とを関連付けてユーザ状態DB136に記録する。他の座席と電子機器とについても同様に記録することが可能である。これにより、エージェント制御部125は、助手席に着座しているユーザU2が、所定情報を出力させる電子機器MC2を所持していることを把握することが可能である。なお、これらは、一例であり、他の方法を用いてもよい。
It is also assumed that multiple users will get into the vehicle C1 at approximately the same time. In this case, it is also assumed that the seating positions and the electronic devices cannot be associated with each other by the above-mentioned method. Therefore, when multiple users get into the vehicle C1 at approximately the same time, the
また、第1D態様では、情報処理装置110(又はエージェント機器200)の制御に基づいて、車両C1のHUD(Head Up Display)に所定情報を表示させることが可能である。この例を図6(D3)に示す。この場合には、ダッシュボード2の上部において、フロントウインド4との境界付近に、HUDを実現するためのHUD表示装置を設ける。なお、図6(D3)では、説明を容易にするため、ユーザU2の頭の輪郭を点線で簡略化して示す。
In addition, in the first D aspect, it is possible to display specific information on the HUD (Head Up Display) of the vehicle C1 based on the control of the information processing device 110 (or the agent device 200). An example of this is shown in FIG. 6 (D3). In this case, a HUD display device for realizing the HUD is provided on the upper part of the
HUD表示装置は、フロントウインド4の表示領域4aに光を投射して、その反射光を利用してユーザU1、U2に虚像を見せるHUD表示を実現するための表示装置、例えばプロジェクタ、光学系である。すなわち、HUD表示装置からフロントウインド4の表示領域4aに投射された光は、フロントウインド4により反射され、その反射光がユーザU1、U2の眼に向かう。そして、表示領域4aに投射されてユーザU1、U2の眼に入った反射光は、フロントウインド4越しに見える実際の物体とともに、その物体に重畳されて表示される。このように、HUD表示装置は、フロントウインド4を用いて虚像を表示することにより、HUD表示を実現する。
The HUD display device is a display device, such as a projector or optical system, that projects light onto the
例えば、HUD表示装置は、情報処理装置110(図4参照)の制御に基づいて、所定情報TX2(例えば、文字「寒いもんね。しょうがないよ。」)を表示領域4aに表示させる。また、フロントウインド4は、車両C1のHUDの表示媒体として機能する。また、例えば、表示領域4aにおいて他の情報(例えば、エージェント機器200の共感するような笑顔)を表示させてもよい。
For example, the HUD display device displays predetermined information TX2 (e.g., the text "It's cold. Can't be helped.") in the
[ユーザに知覚され難いタイミング例]
第2態様(ユーザU1に知覚され難いタイミング)は、例えば、ユーザU1が何らかのことに集中している度合いに基づいて設定されるタイミング(第1タイミング)、エージェント機器200が存在する場所からユーザU1が離れたタイミング(第2タイミング)である。
[Example of timing that is difficult for users to perceive]
The second aspect (timing that is difficult for user U1 to perceive) is, for example, a timing (first timing) that is set based on the degree to which user U1 is concentrating on something, and a timing (second timing) when user U1 moves away from the location where the
ユーザU1が何らかのことに集中している度合いは、例えば、車両C1における運転シーンに基づいて判定可能である。例えば、車両C1が走行している道路の形状に基づいて判定可能である。例えば、車両C1が走行している道路が山道であり、かつ、カーブが続いているような場合には、ユーザU1が運転に集中している度合いが高いと判定される。また、例えば、車両C1が走行している道路が狭い道である場合、車両C1の車速が速い場合等には、ユーザU1が運転に集中している度合いが高いと判定される。なお、車両C1が走行している道路の形状については、例えば、カメラ101により取得された車両C1の周囲の画像(例えば、車両C1の前方の画像)に基づいて取得可能である。また、位置情報取得センサ102により取得された車両C1の現在地と、地図情報DB134に格納されている地図情報とに基づいて取得可能である。また、車両C1の車速については、車速センサに基づいて取得可能である。
The degree to which the user U1 is concentrating on something can be determined, for example, based on the driving scene in the vehicle C1. For example, it can be determined based on the shape of the road on which the vehicle C1 is traveling. For example, if the road on which the vehicle C1 is traveling is a mountain road and has a series of curves, it is determined that the degree to which the user U1 is concentrating on driving is high. Also, for example, if the road on which the vehicle C1 is traveling is a narrow road, or if the vehicle C1 is traveling at a high speed, it is determined that the degree to which the user U1 is concentrating on driving is high. The shape of the road on which the vehicle C1 is traveling can be obtained, for example, based on an image of the surroundings of the vehicle C1 (for example, an image in front of the vehicle C1) acquired by the
また、例えば、車両C1を運転しているユーザU1の眼球の動きに基づいて運転シーンを判定可能である。例えば、ユーザU1の眼球が左右方向に頻繁に動いているような場合には、ユーザU1が運転に集中している度合いが高いと判定される。なお、ユーザU1の眼球の動きについては、例えば、カメラ101により取得されたユーザU1の顔画像に基づいて取得可能である。
In addition, for example, the driving scene can be determined based on the eye movement of the user U1 who is driving the vehicle C1. For example, if the eye movement of the user U1 is frequently moving left and right, it is determined that the user U1 is highly concentrated on driving. Note that the eye movement of the user U1 can be obtained based on, for example, a facial image of the user U1 acquired by the
このように、ユーザU1のセンシングと、運転シーンとのうちの少なくとも1つに基づいて、ユーザU1が何らかのことに集中している度合いを判定可能である。なお、他の情報に基づいて、ユーザU1が何らかのことに集中している度合いを判定してもよい。そして、ユーザU1が何らかのことに集中している度合いが高いと判定された場合には、ユーザU1に知覚され難いタイミングであると判定可能である。 In this way, it is possible to determine the degree to which user U1 is concentrating on something based on at least one of the sensing of user U1 and the driving scene. Note that the degree to which user U1 is concentrating on something may also be determined based on other information. Then, when it is determined that user U1 is concentrating on something to a high degree, it is possible to determine that this is a timing that is difficult for user U1 to perceive.
エージェント機器200が存在する場所からユーザU1が離れたタイミング(第2タイミング)は、例えば、ユーザU1が車両C1を降車したか否かに基づいて判定可能である。例えば、ユーザU1がトイレ休憩等で車両C1を降車した場合には、エージェント機器200が存在する場所からユーザU1が離れたと判定可能である。この場合には、ユーザU1に知覚され難いタイミングであると判定可能である。なお、エージェント機器200が存在する場所からユーザU1が離れたか否かについては、ユーザU1が車両C1から降りたか否かを各種センサにより検出し、その検出結果に基づいて判定可能である。
The timing (second timing) at which the user U1 leaves the location where the
例えば、ユーザU2に負債感情が生じたと判定されてから比較的長い時間が経過したような場合には、ユーザU2に対する演出(負債感情を緩和させる演出)の効果が薄れる可能性もある。そこで、ユーザU2に負債感情が生じたと判定されてからの経過時間に基づいて、ユーザU1に知覚され難いタイミングでユーザU2に対する演出(負債感情を緩和させる演出)を実行するか否かを決定してもよい。 For example, if a relatively long time has passed since it was determined that user U2 had developed feelings of indebtedness, the effect of the performance for user U2 (performance to alleviate feelings of indebtedness) may be weakened. Therefore, based on the amount of time that has passed since it was determined that user U2 had developed feelings of indebtedness, it may be determined whether or not to execute a performance for user U2 (performance to alleviate feelings of indebtedness) at a timing that is difficult for user U1 to perceive.
例えば、車両C1が走行する道路が高速道路等のシンプルな道が続いている場合には、30分程度の時間を、ユーザU1に知覚され難いタイミングでユーザU2に対する演出(負債感情を緩和させる演出)を実行する時間として設定することが可能である。この場合には、ユーザU2に負債感情が生じたと判定されてからその設定時間(30分程度)が経過した場合には、他の態様(第1態様)でユーザU2に対する演出(負債感情を緩和させる演出)を実行するようにする。例えば、第1A態様、第1B態様、第1C態様、第1D態様のぞれぞれについて優先度を設定しておき、この優先度に基づいて第1A態様、第1B態様、第1C態様、第1D態様から実施態様を選択してもよい。この優先度として、例えば、早くフォローができる態様の優先度を高く設定することが可能である。 For example, if the road on which the vehicle C1 is traveling is a series of simple roads such as an expressway, it is possible to set a time of about 30 minutes as the time for performing a performance (performance to alleviate feelings of indebtedness) for user U2 at a timing that is difficult for user U1 to perceive. In this case, if the set time (about 30 minutes) has elapsed since it was determined that user U2 has developed feelings of indebtedness, a performance (performance to alleviate feelings of indebtedness) for user U2 is performed in another mode (first mode). For example, a priority may be set for each of the first A mode, the first B mode, the first C mode, and the first D mode, and an embodiment may be selected from the first A mode, the first B mode, the first C mode, and the first D mode based on this priority. For example, it is possible to set a high priority for a mode that can be followed up quickly.
なお、ユーザU1、U2に関する生体情報等に基づいて、ユーザU1に知覚され難いタイミングでユーザU2に対する演出(負債感情を緩和させる演出)を実行する制限時間を設定してもよい。例えば、ユーザU1、U2の表情に基づいて、その制限時間を設定してもよい。例えば、ユーザU2に負債感情が生じたと判定された後に、ユーザU2の暗い表情と、ユーザU1の怒りの表情とが継続して検出されている場合には、その制限時間を比較的長い時間として設定してもよい。一方、例えば、ユーザU2に負債感情が生じたと判定された後に、ユーザU2の笑顔が検出された場合には、ユーザU2に対する演出(負債感情を緩和させる演出)を中止してもよい。このように、ユーザU1、U2に関する生体情報等に基づいて、ユーザU2に対するフォローをするタイミングを変更してもよい。 In addition, a time limit for performing a performance (performance to alleviate feelings of indebtedness) for user U2 may be set at a timing that is difficult for user U1 to perceive based on biometric information about users U1 and U2. For example, the time limit may be set based on the facial expressions of users U1 and U2. For example, if a gloomy facial expression of user U2 and an angry facial expression of user U1 are continuously detected after it is determined that a feeling of indebtedness has arisen in user U2, the time limit may be set to a relatively long time. On the other hand, for example, if a smile of user U2 is detected after it is determined that a feeling of indebtedness has arisen in user U2, the performance (performance to alleviate feelings of indebtedness) for user U2 may be stopped. In this way, the timing of following up with user U2 may be changed based on biometric information about users U1 and U2.
[他のユーザに知覚され難い態様で、対象ユーザに対して不満感情を緩和させる演出を実行する例]
図5(E)には、ユーザU2の負債感情に関する度合が第1閾値以上であり、かつ、ユーザU1の不満感情に関する度合が第2閾値以上である場合のエージェント機器200の態様例を示す。この場合には、ユーザU1のユーザU2に対する不満感情が高いため、ユーザU1の不満に対するフォローを行うようにする。ただし、ユーザU2に知覚される態様でユーザU1の不満に対するフォローを行うと、ユーザU2は、勝手に自分の気持ちをユーザU1に伝えてほしくないと考えることも想定される。一方、ユーザU2に知覚される態様でユーザU1の不満に対するフォローを行うと、ユーザU1は怒りの気持ちが増加することも想定される。そこで、本実施形態では、ユーザU1のユーザU2に対する不満感情に関する度合が高い場合には、ユーザU2に知覚され難い態様でユーザU1の不満に対するフォローを行うようにする。なお、ユーザU2に知覚され難い態様については、上述した負債感情のフォローを行う場合と同様である。また、第2閾値は、ユーザの不満感情が高いことを判定するための閾値であり、実験データ等に基づいて適宜設定可能である。
[Example of executing a performance that alleviates dissatisfaction of a target user in a manner that is difficult for other users to perceive]
FIG. 5E shows an example of the manner of the
図5(E)に示すように、ユーザU2に対するユーザU1の不満感情を緩和させるような表情としたエージェント機器200がユーザU1の方向を向き、「あなたの意見を採用しなくてごめんね」の音声情報S15を発する。なお、駆動部230の回転動作により、エージェント機器200の顔部をユーザU1の方向に向けることが可能である。また、上述した負債感情のフォローを行う場合と同様に、エージェント機器200の表示部210の表示内容を変更することにより、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。
As shown in FIG. 5(E), the
また、ユーザU1の不満感情を緩和させるような表情は、例えば、ユーザU1に同調する表情、ユーザU1に協調する表情、ユーザU1に共感する表情等である。また、ユーザU2に対するユーザU1の不満感情を緩和させるような振舞いをエージェント機器200に実行させてもよい。例えば、図5(E)に示すように、エージェント機器200の表面に汗を表示させることにより、焦った表現でユーザU1に同調、共感、謝罪する振舞いを実現することが可能である。また、手足等を用いて、不満を持ったユーザU1に同調、共感、謝罪する振舞いを実現してもよい。また、申し訳ない顔の表情とともに、だまってお辞儀のみをする振舞いをエージェント機器200に実行させてもよい。これにより、ユーザU2に対する不満感情が生じたユーザU1に対して適切なフォローを行うことができ、ユーザU1の不満感情を解消することが可能となる。例えば、ユーザU2に知覚され難い態様で、不満を感じさせたことをユーザU1に謝ることが可能となる。
Facial expressions that ease the dissatisfaction of user U1 include, for example, facial expressions that sympathize with user U1, expressions that cooperate with user U1, and expressions that sympathize with user U1. The
なお、ユーザU1の不満感情を緩和させる演出については、ユーザU2の負債感情を緩和させる演出の一部を変更して適宜設定可能である。 The effects intended to alleviate user U1's feelings of dissatisfaction can be appropriately set by modifying part of the effects intended to alleviate user U2's feelings of indebtedness.
図5(F)には、ユーザU2の負債感情に関する度合が第1閾値未満であるが、ユーザU1の不満感情に関する度合が第2閾値以上である場合のエージェント機器200の態様例を示す。この場合についても、図5(E)に示す例と同様に、ユーザU1のユーザU2に対する不満感情が高いため、ユーザU1の不満に対するフォローを行うようにする。ただし、この場合には、ユーザU2の負債感情に関する度合が第1閾値未満であるため、ユーザU2の負債感情を緩和させるための演出は実行しない。
Figure 5 (F) shows an example of the behavior of the
[情報処理装置の動作例]
図7は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、車両C1の乗員からエージェント機器200に対する何らかの指示が出されたタイミングで実行される。また、この制御処理では、図1乃至図6を適宜参照して説明する。
[Example of operation of information processing device]
7 is a flowchart showing an example of a control process in the
ステップS501において、指示受付部121は、車両C1の乗員からエージェント機器200に対して出された指示を取得する。指示受付部121は、例えば、音声入力部103により取得された車両C1の乗員の声、カメラ101により取得された車両C1の乗員の各動作(例えば、顔の表情、手の動き)、センサ類104により取得された車両C1の乗員による操作内容等に基づいて、エージェント機器200に対する指示を取得可能である。なお、図7では、車両C1に2人のユーザU1、U2が乗車している場合の例を示す。
In step S501, the
ステップS502において、指示受付部121は、複数のユーザから相反する異なる複数の指示がされたか否かを判定する。具体的には、指示受付部121は、ステップS501で取得された指示が、複数のユーザからの指示であり、かつ、それらの各指示が相反する異なる指示である場合には、複数のユーザから相反する異なる複数の指示がされたと判定する。例えば、略同じタイミングで、ユーザU1が「ラジオ局Aをかけて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合には、複数のユーザから相反する異なる複数の指示が出されたと判定される。また、例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合には、複数のユーザから相反する異なる複数の指示が出されたと判定される。一方、例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合には、複数のユーザから相反する異なる複数の指示が出されていないと判定される。複数のユーザから相反する異なる複数の指示が出された場合には、ステップS504に進む。一方、複数のユーザから相反する異なる複数の指示が出されていない場合には、ステップS503に進む。
In step S502, the
ステップS503において、エージェント制御部125は、ユーザからの指示に基づく処理を実行する。具体的には、エージェント制御部125は、ステップS501で取得された指示に基づいて、その指示に応じた処理を実行する。例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合には、エージェント制御部125は、それらの各指示に応じた処理を連続して、又は、同時に実行する。 In step S503, the agent control unit 125 executes processing based on instructions from the user. Specifically, the agent control unit 125 executes processing according to the instructions acquired in step S501. For example, if user U1 issues an instruction to "lower the air conditioner temperature" and user U2 issues an instruction to "play radio station B" at approximately the same time, the agent control unit 125 executes processing according to each of these instructions consecutively or simultaneously.
ステップS504において、指示受付部121は、ステップS501で取得された複数の指示のうちから処理対象とする指示を選択し、エージェント制御部125は、その選択された指示に基づく処理を実行する。この選択処理については、上述した選択処理と同様に、各ユーザに関する生体情報、各ユーザの発話内容、各ユーザの動作、各ユーザの周囲の環境等に基づいて実行される。この場合に、損得感情判定部122は、処理対象として選択された指示を出したユーザ(第1ユーザ)を得情報が生じたユーザと判定し、他のユーザ(第2ユーザ)を損情報が生じたユーザと判定する。
In step S504, the
ステップS505において、負債感情判定部123は、ステップS504で処理対象として選択された指示を出したユーザ(第1ユーザ)に関するセンシングを実行する。すなわち、損得感情判定部122により得情報が生じたと判定された第1ユーザに関するセンシングが実行される。そして、負債感情判定部123は、第1ユーザの第2ユーザに対する負債感情に関する度合を算出する。具体的には、負債感情判定部123は、各センサから取得された各情報に基づいて、負債感情に関する度合を算出する。この負債感情に関する度合の算出方法については、上述した算出方法と同様である。
In step S505, the debt
ステップS506において、負債感情判定部123は、ステップS505で算出された負債感情に関する度合が第1閾値以上であるか否かを判定する。負債感情に関する度合が第1閾値以上である場合には、ステップS507に進む。一方、負債感情に関する度合が第1閾値未満である場合には、ステップS512に進む。なお、第1閾値は、上述した第1閾値と同様である。
In step S506, the debt
ここで、センシングの確信度が高い場合には、そのセンシングに基づく制御部120の各処理の確信度も高いと想定される。一方、センシングの確信度が低い場合には、そのセンシングに基づく制御部120の各処理の確信度も低いと想定される。例えば、センシングの確信度が高い場合には、第1ユーザの負債感情等を適切に判定可能となる。このため、センシングの確信度が閾値以上であることを条件にステップS505以降の各処理に進むようにしてもよい。このように、センシングの確信度に基づいて、エージェント機器200の態様を制御する制御処理の要否を決定することにより、エージェント機器200がユーザに理解できない行動をとるリスクを分岐させておくことが可能である。
Here, if the certainty of the sensing is high, it is assumed that the certainty of each process of the
ステップS507において、不満感情判定部124は、各センサから取得された各情報に基づいて、第1ユーザ以外の他のユーザ(第2ユーザ)に関するセンシングを実行する。具体的には、不満感情判定部124は、各センサから取得された各情報に基づいて、第2ユーザの指示の不採用に対する不満感情に関する度合を算出する。この不満感情に関する度合の算出方法については、上述した算出方法と同様である。なお、3人以上のユーザが存在する場合には、複数のユーザのうちの少なくとも1人に負債感情が生じ、複数のユーザのうちの少なくとも1人に不満感情が生じることも想定される。このような場合についても同様に、損得感情判定部122による判定結果に基づいて、第1ユーザ、第2ユーザを設定し、第1ユーザ、第2ユーザのそれぞれについてセンシングを実行して、負債感情に関する度合、不満感情に関する度合を算出するようにする。
In step S507, the
ステップS508において、不満感情判定部124は、ステップS507で算出された不満感情に関する度合が第2閾値以上であるか否かを判定する。不満感情に関する度合が第2閾値以上である場合には、ステップS509に進む。一方、不満感情に関する度合が第2閾値未満である場合には、ステップS511に進む。なお、第2閾値は、上述した第2閾値と同様である。
In step S508, the
ステップS509において、エージェント制御部125は、第2ユーザに知覚され難い態様で第1ユーザの負債感情を緩和させる演出をエージェント機器200に実行させる制御を行う。例えば、図5(D)、図6(D1)乃至(D3)に示す態様で第1ユーザの負債感情を緩和させる演出をエージェント機器200に実行させることが可能である。
In step S509, the agent control unit 125 controls the
ステップS510において、エージェント制御部125は、第1ユーザに知覚され難い態様で第2ユーザに謝罪する演出をエージェント機器200に実行させる制御を行う。例えば、図5(E)、(F)に示す態様で第2ユーザの不満感情を緩和させる演出をエージェント機器200に実行させることが可能である。
In step S510, the agent control unit 125 controls the
なお、ステップS511の処理は、ステップS509に対応するため、ここでの説明を省略する。また、ステップS512乃至S514の各処理は、ステップS507、S508、S510に対応するため、ここでの説明を省略する。このように、第1ユーザの第2ユーザに対する負債感情に関する度合が第1閾値未満であり、かつ、第2ユーザの指示の不採用に対する不満感情に関する度合が第2閾値以上である場合には、第1ユーザに対するフォロー(ステップS509)を実行せずに、第2ユーザに対するフォロー(ステップS514)のみを実行する。 Note that the process of step S511 corresponds to step S509, and therefore a description thereof will be omitted here. Also, the processes of steps S512 to S514 correspond to steps S507, S508, and S510, and therefore a description thereof will be omitted here. In this way, when the degree of the first user's feeling of indebtedness toward the second user is less than the first threshold value, and the degree of the second user's feeling of dissatisfaction regarding the non-adoption of the instruction is equal to or greater than the second threshold value, the first user is not followed up (step S509), and only the second user is followed up (step S514).
ステップS515において、エージェント制御部125は、困惑する演出をエージェント機器200に実行させる制御を行う。例えば、図3(G)に示す態様をエージェント機器200に実行させることが可能である。例えば、困惑した表情のエージェント機器200をユーザU1、U2の両者に示し、「正解だったかな?」等の音声情報をエージェント機器200から出力させてもよい。
In step S515, the agent control unit 125 controls the
ここで、寒さに震えるユーザU2が、暑そうなユーザU1のことを考えて、本心ではない指示(エアコンの温度を下げて)をすることも想定される。このように、採用された指示が本心ではない場合には、本心ではない指示を出したユーザには、他のユーザに対する負債感情等が生じることは少ないと想定される。そこで、採用された指示が本心ではないと推定された場合には、その指示を出したユーザは自身が損をする指示を敢えて行ったと考え、特定感情を緩和させる演出をエージェント機器200に実行させないようにしてもよい。又は、異なるフォローをしてもよい。例えば、「本当は、寒かったんでしょ」、「相手のことを考えたのね」等の音声を出力する演出、ユーザU2を褒め称える振舞い等の演出を実行してもよい。
Here, it is assumed that user U2, who is shivering from the cold, thinks of user U1, who looks hot, and gives an insincere instruction (turn down the air conditioner temperature). In this way, when the adopted instruction is not sincere, it is assumed that the user who gave the insincere instruction is unlikely to develop feelings of indebtedness toward other users. Therefore, when it is estimated that the adopted instruction is not sincere, it may be assumed that the user who gave the instruction deliberately gave an instruction that would cause a loss to himself, and the
なお、指示がユーザの本心であるか否かについては、ユーザに関する生体情報と、発話内容と、動作とのうちの少なくとも1つに基づいて推定可能である。例えば、ユーザの表情に基づいて嘘を発見する画像認識技術、ユーザの声に基づいて嘘を発見する音声認識技術を用いることが可能である。 Whether or not an instruction is the user's true intention can be estimated based on at least one of the following: biometric information about the user, the content of the speech, and the user's actions. For example, it is possible to use image recognition technology that detects lies based on the user's facial expressions, and voice recognition technology that detects lies based on the user's voice.
図7では、負債感情が生じたユーザと、不満感情が生じたユーザとの双方に対するフォローを実行する例を示した。ただし、これらの一部を省略してもよい。例えば、負債感情が生じたユーザに対するフォローのみを実行し、不満感情が生じたユーザに対するフォローを省略してもよい。この場合には、ステップS507、S508、S510乃至S515の各処理を省略することが可能である。 Figure 7 shows an example in which follow-up is performed for both users who have developed feelings of indebtedness and users who have developed feelings of dissatisfaction. However, some of these steps may be omitted. For example, follow-up may be performed only for users who have developed feelings of indebtedness, and follow-up for users who have developed feelings of dissatisfaction may be omitted. In this case, it is possible to omit the processes of steps S507, S508, and S510 to S515.
すなわち、図7では、第1ユーザ及び第2ユーザの双方に関するセンシングを実行する例を示すが、第2ユーザに関するセンシング(ステップS507、S512)を省略し、第1ユーザに関するセンシング(ステップS505)のみを実行してもよい。この場合には、第2ユーザに関するセンシングを実行せずに(又は、第2ユーザに関するセンシングが実行できなくても)、第1ユーザの負債感情のみを用いて、第2ユーザに知覚され難い態様で第1ユーザの感情を緩和させる演出を実行する(ステップS509)ことが可能である。 That is, while FIG. 7 shows an example in which sensing is performed for both the first user and the second user, it is also possible to omit sensing for the second user (steps S507, S512) and perform only sensing for the first user (step S505). In this case, it is possible to perform a performance (step S509) that alleviates the first user's emotions in a manner that is difficult for the second user to perceive, using only the first user's emotions, without performing sensing for the second user (or even if sensing for the second user cannot be performed).
また、図7では、ユーザからの指示に基づいてエージェント機器200が各処理を実行する例を示した。ただし、ユーザの周囲の環境等に基づいてエージェント機器200が各処理を自動で実行することも想定される。この場合についても、エージェント機器200の処理結果に応じて、各ユーザには、得感情又は損感情、負債感情又は不満感情が生じることが想定される。そこで、ユーザの周囲の環境等に基づいてエージェント機器200が各処理を自動で実行する場合の例を図8に示す。
Also, FIG. 7 shows an example in which the
[情報処理装置の動作例]
図8は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、エージェント機器200がオン状態である場合に制御周期毎に常時実行される。また、この制御処理では、図1乃至図7を適宜参照して説明する。また、この制御処理は、図7に示す制御処理の一部を変形したものであるため、図7と共通する処理には、同一の符号を付してこれらの説明の一部を省略する。
[Example of operation of information processing device]
Fig. 8 is a flow chart showing an example of a control process in the
ステップS521において、エージェント制御部125は、車両C1に乗車する各ユーザ及びその周囲をセンシングする。 In step S521, the agent control unit 125 senses each user riding in vehicle C1 and their surroundings.
ステップS522において、エージェント制御部125は、ステップS521でのセンシングに基づいて所定の処理を実行する。例えば、車両C1の周囲、ユーザU1、U2についてセンシングが実行され、車両C1の車室内の温度が所定温度以下であり、かつ、寒さに震えるユーザU2が検出された場合には、エージェント制御部125は、エアコンの設定温度を上げる制御を実行する。 In step S522, the agent control unit 125 executes a predetermined process based on the sensing in step S521. For example, when sensing is performed on the surroundings of the vehicle C1 and the users U1 and U2, and the temperature inside the vehicle C1 is below a predetermined temperature and user U2 is detected shivering from the cold, the agent control unit 125 executes control to raise the set temperature of the air conditioner.
ステップS523において、負債感情判定部123は、車両C1に乗車する各ユーザをセンシングする。
In step S523, the debt
ステップS524において、負債感情判定部123は、車両C1に乗車する各ユーザの負債感情に関する度合、不満感情に関する度合をそれぞれ算出する。これらの各度合に基づいて、負債感情が生じたユーザ、不満感情が生じたユーザを判定可能となる。例えば、車両C1に2人のユーザU1、U2が乗車している場合には、一方に負債感情が生じると、他方に不満感情が生じる可能性がある。また、車両C1に3人のユーザが乗車している場合には、1人又は2人に負債感情が生じると、他の人に不満感情が生じる可能性がある。このように、複数のユーザのうち、負債感情に関する度合、不満感情に関する度合をそれぞれ算出し、負債感情が生じたユーザを第1ユーザとし、不満感情が生じたユーザを第2ユーザとする。例えば、車両C1の車室内の温度が所定温度以下であり、かつ、寒さに震えるユーザU2が検出された場合において、エアコンの設定温度を上げる制御が実行されたときには、ユーザU2には得した感情が生じるとともに、負債感情が生じることも想定される。
In step S524, the debt
このように、エージェント機器200による自動的な処理の実行により、第1ユーザに負債感情が生じた場合、第2ユーザに知覚され難い態様で第1ユーザに対するフォローを実行することが可能である。
In this way, when the first user feels indebted, the
図8では、負債感情が生じたユーザと、不満感情が生じたユーザとの双方に対するフォローを実行する例を示した。ただし、これらの一部を省略してもよい。例えば、負債感情が生じたユーザに対するフォローのみを実行し、不満感情が生じたユーザに対するフォローを省略してもよい。この場合には、ステップS507、S508、S510乃至S514の各処理、ステップS524の一部の処理を省略することが可能である。 Figure 8 shows an example in which follow-up is performed for both users who have developed feelings of indebtedness and users who have developed feelings of dissatisfaction. However, some of these steps may be omitted. For example, follow-up may be performed only for users who have developed feelings of indebtedness, and follow-up for users who have developed feelings of dissatisfaction may be omitted. In this case, it is possible to omit the processes of steps S507, S508, S510 to S514, and some of the processes of step S524.
例えば、ステップS524では、車両C1に乗車する各ユーザの負債感情に関する度合のみを算出し、第2ユーザに関するセンシング(ステップS507、S512)を省略してもよい。この場合には、ステップS507、S512で第2ユーザに関するセンシングを実行せずに(又は、第2ユーザに関するセンシングが実行できなくても)、第1ユーザの負債感情のみを用いて、第2ユーザに知覚され難い態様で第1ユーザの感情を緩和させる演出を実行する(ステップS509)ことが可能である。 For example, in step S524, only the degree of indebtedness of each user riding in vehicle C1 may be calculated, and sensing of the second user (steps S507, S512) may be omitted. In this case, it is possible to perform a performance (step S509) that alleviates the first user's emotion in a manner that is difficult for the second user to perceive, using only the indebtedness of the first user, without performing sensing of the second user in steps S507 and S512 (or even if sensing of the second user cannot be performed).
なお、図8では、各ユーザに生じた負債感情、不満感情に基づいて、各ユーザに対するフォローを実行する例を示した。ただし、これらの各感情を用いずに、相対的に得をしたか損をしたかを判定して、各ユーザに対するフォローを実行してもよい。そこで、相対的に得をしたか損をしたかに基づいて、各ユーザに対するフォローを実行する場合の例を図9に示す。 In FIG. 8, an example is shown in which each user is followed up based on the feelings of indebtedness and dissatisfaction that each user has experienced. However, it is also possible to follow up with each user by determining whether they have experienced a relative gain or loss without using these feelings. Thus, FIG. 9 shows an example of following up with each user based on whether they have experienced a relative gain or loss.
[情報処理装置の動作例]
図9は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、エージェント機器200がオン状態である場合に制御周期毎に常時実行される。また、この制御処理では、図1乃至図8を適宜参照して説明する。また、この制御処理は、図8に示す制御処理の一部を変形したものであるため、図8と共通する処理には、同一の符号を付してこれらの説明の一部を省略する。
[Example of operation of information processing device]
Fig. 9 is a flow chart showing an example of a control process in the
ステップS531において、損得感情判定部131は、車両C1に乗車する各ユーザの損得感情に関する度合を算出する。このように、複数のユーザのうち、得感情に関する度合、損感情に関する度合をそれぞれ算出し、得感情が生じたユーザを第1ユーザとし、損感情が生じたユーザを第2ユーザとする。例えば、車両C1の車室内の温度が所定温度以下であり、かつ、寒さに震えるユーザU2が検出された場合において、エアコンの設定温度を上げる制御が実行されたときには、ユーザU2には得感情が生じ、ユーザU1には損感情が生じると判定することが可能である。なお、損得感情に関する度合については、上述した負債感情に関する度合、不満感情に関する度合の算出方法と同様に、ユーザの生体情報等に基づいて算出が可能である。例えば、ユーザの表情、発話、動き等に基づいて損得感情に関する度合が算出可能である。 In step S531, the profit/loss emotion determination unit 131 calculates the degree of profit/loss emotion of each user riding in the vehicle C1. In this way, the degree of profit/loss emotion and the degree of loss emotion are calculated for each of the multiple users, and the user who has experienced a profit emotion is the first user, and the user who has experienced a loss emotion is the second user. For example, when the temperature inside the vehicle C1 is below a predetermined temperature and user U2 who is shivering from the cold is detected, it is possible to determine that user U2 has experienced a profit emotion and user U1 has experienced a loss emotion when control is executed to increase the set temperature of the air conditioner. The degree of profit/loss emotion can be calculated based on the user's biological information, etc., in the same way as the calculation method for the degree of debt emotion and the degree of dissatisfaction emotion described above. For example, the degree of profit/loss emotion can be calculated based on the user's facial expression, speech, movement, etc.
ステップS532において、損得感情判定部131は、ステップS531で算出された第1ユーザの第2ユーザに対する得感情に関する度合が第3閾値以上であるか否かを判定する。得感情に関する度合が第3閾値以上である場合には、ステップS509に進む。一方、得感情に関する度合が第3閾値未満である場合には、制御処理の動作を終了する。なお、第3閾値は、ユーザの得債感情が高いことを判定するための閾値であり、実験データ等に基づいて適宜設定可能である。 In step S532, the profit/loss emotion determination unit 131 determines whether the degree of the first user's profit/loss emotion toward the second user calculated in step S531 is equal to or greater than a third threshold. If the degree of the profit/loss emotion is equal to or greater than the third threshold, the process proceeds to step S509. On the other hand, if the degree of the profit/loss emotion is less than the third threshold, the control process ends. The third threshold is a threshold for determining whether the user's profit/loss emotion is high, and can be set appropriately based on experimental data, etc.
このように、エージェント機器200による自動的な処理の実行により、第1ユーザが得した場合、第2ユーザに知覚され難い態様で第1ユーザに対するフォローを実行することが可能である。
In this way, when the first user benefits from automatic processing performed by the
[車両以外に設置可能なエージェント機器の例]
以上では、車両C1に設置されるエージェント機器200、車両C1に表示されるエージェント画像の例を示した。ただし、車両C1から取り外し可能なエージェント機器、車両以外に設置可能なエージェント機器等についても本実施形態を適用可能である。例えば、例えば、携帯型のエージェント機器を所持するユーザが、車両C1に乗車するときには、車両C1のダッシュボード2上にそのエージェント機器を設置し、車両C1から降りる場合には、ユーザがそのエージェント機器を所持して持ち歩くことも想定される。また、ユーザが家庭内でエージェント機器を使用することも想定される。また、エージェント画像(エージェント機器200に相当)を表示させることが可能な各種機器(例えば、ゲーム機器、眼鏡型ディスプレイ、AR(Augmented Reality)グラス)を使用することも想定される。また、エージェント機器を制御可能なエレベータの制御装置、エージェント画像(エージェント機器200に相当)を表示させることが可能なエレベータの制御装置についても適用可能である。
[Examples of agent devices that can be installed outside of vehicles]
The above describes an example of the
例えば、家庭内では、家庭内に設置されている各機器に関する制御を実行することが考えられる。例えば、お風呂を沸かす制御、調理器具での調理の制御、音楽を出力する制御、玄関のドア、窓を開ける制御等を実行することが想定される。これらの場合には、お風呂、各調理器具、ドア、窓、音声出力等に関する報知情報を提供することが想定される。 For example, in a home, it is conceivable to execute control over each device installed in the home. For example, it is envisaged to execute control over heating the bath, cooking with kitchen utensils, outputting music, opening the front door and windows, etc. In these cases, it is envisaged to provide notification information regarding the bath, each kitchen utensil, doors, windows, audio output, etc.
例えば、複数のユーザからの指示に基づく処理、又は、センシングに基づく自動的な処理に対して、あるユーザに特定感情(負債感情、得感情)が生じた場合には、そのユーザに対して特定感情を緩和させるための演出を実行する。また、複数のユーザからの指示に基づく処理、又は、センシングに基づく自動的な処理に対して、あるユーザに不満感情(又は、損感情)が生じた場合には、そのユーザに対して不満感情を緩和させるための演出(例えば、謝罪演出)を実行する。なお、ユーザの特定感情、不満感情等については、上述した例と同様に、ユーザの生体情報(例えば、心拍、血脈)と、ユーザから発せられる音と、ユーザの外観(例えば、表情、動き)とに基づいて算出可能である。また、特定感情を緩和させるための演出については、図5(D)、図6(D1)乃至(D3)に示す例と同様である。また、不満感情を緩和させるための演出については、図5(E)(F)に示す例と同様である。なお、これらの各演出については、例えば、エージェント画像を表示可能な機器(例えば、ゲーム機器、眼鏡型ディスプレイ、ARグラス)を用いて、エージェント画像に実行させてもよい。なお、これらの場合には、エージェント画像を表示可能な機器がエージェント機器200に相当する。
For example, when a certain user feels a certain emotion (debt emotion, gain emotion) in response to a process based on instructions from multiple users or an automatic process based on sensing, a performance is executed to alleviate the certain emotion for the user. When a certain user feels dissatisfied (or a loss emotion) in response to a process based on instructions from multiple users or an automatic process based on sensing, a performance is executed to alleviate the dissatisfied emotion for the user (for example, an apology performance). Note that the user's specific emotion, dissatisfied emotion, etc. can be calculated based on the user's biometric information (for example, heart rate, blood vessels), the sound emitted by the user, and the user's appearance (for example, facial expression, movement), as in the above-mentioned example. Also, the performance to alleviate the certain emotion is the same as the example shown in FIG. 5 (D), FIG. 6 (D1) to (D3). Also, the performance to alleviate the dissatisfied emotion is the same as the example shown in FIG. 5 (E) (F). Note that each of these performances may be executed by the agent image using, for example, a device capable of displaying the agent image (for example, a game device, a glasses-type display, AR glasses). In these cases, the device capable of displaying the agent image corresponds to the
例えば、エレベータの制御装置が負債感情を緩和させる演出を実行する場合に、エレベータ内で音声を出力すると、全員に聞こえる可能性がある。そこで、特定の対象者だけにその演出に関する音声を伝えるようにする。例えば、エレベータに新たに乗った人に対して、「混雑しているけど、迷惑はかかっていないよ」、「あなたは急いでいるからしょうがないよね」等の音声を、指向性スピーカを用いてその人だけに伝わるように出力したり、それらを表現する表情のエージェント画像を、その人が所持する電子機器(例えば、スマートフォン)に表示したりすることが可能である。これらの各演出のうち一部の演出については、例えば、エレベータに新たに乗った人が、エレベータから降りた後のタイミングで実行してもよい。なお、エレベータに新たに乗った人の位置については、エレベータ内に設置されているカメラにより取得されたエレベータ内の画像に基づいて判定可能である。 For example, when an elevator control device executes an effect to ease feelings of indebtedness, if a voice is output in the elevator, it may be heard by everyone. Therefore, the voice related to the effect is transmitted only to specific targets. For example, to a person who has just entered the elevator, voice such as "It's crowded, but you're not bothering anyone" or "It can't be helped, since you're in a hurry" can be output using a directional speaker so that only that person can hear it, or an agent image with a facial expression expressing these can be displayed on an electronic device (e.g., a smartphone) carried by the person. Some of these effects may be executed, for example, after the person who has just entered the elevator gets off the elevator. The position of the person who has just entered the elevator can be determined based on an image of the inside of the elevator acquired by a camera installed in the elevator.
ここで、エレベータに新たに乗った人が所持する電子機器の検出方法について説明する。例えば、電子機器との無線通信が可能な通信部をエレベータ内に備える場合を想定する。この場合には、エレベータの制御装置は、エレベータに乗り込む人が所持する電子機器から発信されている電波を検出することが可能である。そこで、新たなユーザがエレベータに乗り込む際に新たに検出された電子機器を、その新たに乗った人が所持する電子機器として検出可能である。また、未登録の電子機器に情報を送信する送信方法については、公知の通信技術を用いることが可能である。 Here, we will explain a method for detecting electronic devices carried by a person who has newly entered an elevator. For example, assume that the elevator is equipped with a communication unit capable of wireless communication with electronic devices. In this case, the elevator control device can detect radio waves emitted from an electronic device carried by a person entering the elevator. Therefore, when a new user enters the elevator, the newly detected electronic device can be detected as an electronic device carried by the new user. In addition, known communication technology can be used as a transmission method for transmitting information to unregistered electronic devices.
このように、エレベータに元々乗っている人(ユーザB)と、エレベータに新たに乗る人(ユーザA)とについても、本実施形態を適用することが可能である。例えば、ユーザAは、エレベータに乗るための指示(例えば、上下方向を指示するボタン操作)を行うが、ユーザBは所定の階に移動することを指示しているものとする。この場合に、エレベータの制御装置は、ユーザAの指示に基づいて、ユーザAが存在する階で停止し、扉を開く制御を実行する。この場合には、ユーザA、Bが異なる指示を出した上で、エレベータの制御装置がユーザAの指示を最初に採用することになる。このため、上述したように、ユーザAがユーザBに対して負債感情を持つことも想定される。このような場合には、エレベータの制御装置は、ユーザBに知覚され難い態様でユーザAに対するフォローを実行する。 In this way, this embodiment can be applied to both a person already in the elevator (user B) and a new person getting in the elevator (user A). For example, assume that user A gives an instruction to get in the elevator (for example, pressing a button to instruct up or down), while user B gives an instruction to move to a specific floor. In this case, the elevator control device executes control to stop at the floor where user A is located and open the door based on the instruction from user A. In this case, after users A and B give different instructions, the elevator control device will adopt the instruction from user A first. For this reason, as described above, it is also assumed that user A will have a feeling of indebtedness toward user B. In such a case, the elevator control device will follow up on user A in a manner that is difficult for user B to perceive.
[本実施形態の効果例]
このように、本実施形態では、ユーザからの指示、周囲の環境情報等に基づいて、エージェント機器200が実行する処理が決定される。この場合に、各ユーザのそれぞれの感情(例えば、損得感情、負債感情、不満感情)が推定され、特定の感情が発生したと推定されたユーザについては、そのユーザに対してエージェント機器200が適切なフォローをするようにする。例えば、エージェント機器200による処理の実行により得感情が生じたユーザが存在し、そのユーザが他のユーザに対して謝罪したいような感情(例えば、負債感情)が発生している場合には、そのユーザに対してその感情を緩和させる演出を実行する。このように、エージェント機器200が自己の利益のためではなく、他のユーザのために行動しているように見える演出を実行することにより、ユーザの受容性と共感を高める演出を実現することが可能である。
[Examples of Effects of This Embodiment]
In this way, in this embodiment, the process executed by the
また、本実施形態では、複数人のユーザがいる状況において、エージェント機器200が処理した後に、少なくとも一方のユーザに対するフォローを、他方のユーザに知覚され難い態様で実行する。これにより、一方のユーザに嫌な気持ちにさせないようにすることが可能である。
In addition, in this embodiment, in a situation where there are multiple users, after the
また、本実施形態では、複数人のユーザがいる状況において、第1ユーザの指示(又は意見)をエージェント機器200が採用した場合に、第1ユーザに対するフォローを第2ユーザに知覚され難い態様で実行する。これにより、第1ユーザが第2ユーザに対して感じる負債感情(例えば、申し訳なさ)を解消することが可能となる。
In addition, in this embodiment, in a situation where there are multiple users, when the
また、本実施形態では、複数人のユーザがいる状況において、エージェント機器200が所定の処理を実行した後に、複数人のユーザに対するフォローを実行することが可能である。特に、本実施形態では、エージェント機器200による選択により得感情が生じたユーザに対する適切なフォローを実現することが可能である。
In addition, in this embodiment, in a situation where there are multiple users, the
また、本実施形態では、車両C1の乗員のうち、負の感情が生じた乗員に対して他者に知覚され難い態様でその感情を抑制する演出(例えば、振舞い)を行うことで、車両C1の乗員の全ての負の感情を抑制することができる。 In addition, in this embodiment, by performing a performance (e.g., behavior) that suppresses the emotion of any occupant of vehicle C1 who has experienced a negative emotion in a manner that is difficult for others to perceive, it is possible to suppress all negative emotions among the occupants of vehicle C1.
また、本実施形態では、エージェント機器200を使用して車両C1の乗員に生じた負の感情を抑制することにより、より快適なドライブアシストを実現することが可能である。
In addition, in this embodiment, it is possible to achieve a more comfortable drive assistance by using the
また、本実施形態では、得したユーザ(得感情が生じたユーザ)、負債感情が生じたユーザに対するフォローとともに、損をしたユーザ(損感情が生じたユーザ)、不満感情が生じたユーザに対しても何らかの対応をする。これにより、車両C1の乗員に生じた各種の感情を適切に抑制するが可能である。 In addition, in this embodiment, in addition to providing support to users who have gained (users who have developed feelings of gain) and users who have developed feelings of indebtedness, some kind of response is also provided to users who have incurred losses (users who have developed feelings of loss) and users who have developed feelings of dissatisfaction. This makes it possible to appropriately suppress various emotions that arise in the occupants of vehicle C1.
[他の機器、他のシステムにおいて処理を実行させる例]
なお、以上では、制御処理等をエージェント機器200、情報処理装置110(又は情報処理システム100)において実行する例を示したが、それらの各処理の全部又は一部を他の機器において実行してもよい。この場合には、それらの各処理の一部を実行する各機器により情報処理システムが構成される。例えば、車載機器、ユーザが使用可能な機器(例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、カーナビゲーション装置、IVI)、インターネット等の所定のネットワークを介して接続可能なサーバ等の各種情報処理装置、各種電子機器を用いて各処理の少なくとも一部を実行させることができる。
[Example of executing processing in other devices or systems]
In the above, examples have been shown in which the control processes and the like are executed in the
また、情報処理装置110(又は情報処理システム100)の機能を実行可能な情報処理システムの一部(又は全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。 In addition, a part (or all) of the information processing system capable of executing the functions of the information processing device 110 (or the information processing system 100) may be provided by an application that can be provided via a predetermined network such as the Internet. This application is, for example, SaaS (Software as a Service).
[本実施形態の構成例及びその効果]
本実施形態に係る情報処理方法は、ユーザU1、U2に対する複数の処理を実行可能なエージェント機器200(機器の一例)を制御する情報処理方法である。この情報処理方法は、複数のユーザU1、U2が存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザU1、U2のうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザU2(第1ユーザの一例)を検出する検出処理(ステップS506、S532)と、ユーザU2が検出された場合には、ユーザU2以外のユーザU1(第2ユーザの一例)に知覚され難い態様で、ユーザU2に対して特定感情を緩和させる演出をエージェント機器200に実行させる制御処理(ステップS509、S511)とを含む。また、本実施形態に係るプログラムは、これらの各処理をコンピュータに実行させるプログラムである。言い換えると、本実施形態に係るプログラムは、情報処理装置110が実行可能な各機能をコンピュータに実現させるプログラムである。
[Configuration Example and Effects of This Embodiment]
The information processing method according to the present embodiment is an information processing method for controlling an agent device 200 (an example of a device) capable of executing a plurality of processes for users U1 and U2. This information processing method includes a detection process (steps S506, S532) for detecting a user U2 (an example of a first user) who has a specific emotion including at least one of a debt emotion and a gain emotion caused by the selection from among the plurality of users U1 and U2 when a predetermined process is selected from among a plurality of processes in a state where a plurality of users U1 and U2 exist, and a control process (steps S509, S511) for causing the
この構成によれば、所定の処理の選択に起因して、ユーザU1に対する特定感情が生じたユーザU2に対して、ユーザU1に知覚され難い態様でその特定感情を緩和させる演出を実行することができる。これにより、ユーザU2に対して適切なフォローをすることが可能であり、エージェント機器200の使い易さを高めることが可能である。また、ユーザU2の嫌な気持ちを解消することが可能である。
According to this configuration, when user U2 develops a specific emotion toward user U1 due to the selection of a specific process, it is possible to execute a performance that alleviates the specific emotion in a manner that is difficult for user U1 to perceive. This makes it possible to provide appropriate support to user U2, and to increase the ease of use of the
本実施形態に係る情報処理方法では、ユーザU1(第2ユーザの一例)に知覚され難い態様は、ユーザU1に知覚され難い方法で演出をエージェント機器200(機器の一例)に実行させる第1態様と、ユーザU1に知覚され難いタイミングで演出をエージェント機器200に実行させる第2態様とのうちの少なくとも1つである。
In the information processing method according to this embodiment, the aspect that is difficult for the user U1 (an example of a second user) to perceive is at least one of a first aspect in which the agent device 200 (an example of a device) executes a performance in a manner that is difficult for the user U1 to perceive, and a second aspect in which the
この構成によれば、ユーザU1に知覚され難い態様として、第1態様及び第2態様のうちから適切な態様を採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate mode from the first mode and the second mode as a mode that is difficult for user U1 to perceive, and it is possible to realize appropriate follow-up for user U2.
本実施形態に係る情報処理方法では、エージェント機器200(機器の一例)は、複数のユーザU1、U2とのコミュニケーションを行うことが可能なエージェント機器であり、第1態様は、エージェント機器200をユーザU2(第1ユーザの一例)の方向に向けた状態でエージェント機器200に所定の振舞いをさせる態様と、ユーザU2にだけ聞こえる音をエージェント機器200から出力させる態様と、ユーザU2が所持する電子機器MC2からエージェント機器200に関連する所定情報を出力させる態様と、エージェント機器200以外の機器(例えば、HUD、HUD表示装置)における表示領域(例えば、表示領域4a)にエージェント機器200に関連する所定情報を表示させる態様とのうちの少なくとも1つである。
In the information processing method according to this embodiment, the agent device 200 (an example of a device) is an agent device capable of communicating with multiple users U1 and U2, and the first aspect is at least one of the following: having the
この構成によれば、ユーザU1に知覚され難い態様として、複数のユーザU1、U2が存在する環境等に応じて、複数の態様のうちから適切な態様を採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate mode from among multiple modes as a mode that is difficult for user U1 to perceive, depending on the environment in which multiple users U1 and U2 exist, and it is possible to realize appropriate follow-up for user U2.
本実施形態に係る情報処理方法では、エージェント機器200(機器の一例)は、複数のユーザU1、U2とのコミュニケーションを行うことが可能なエージェント機器であり、演出は、特定感情を緩和させる振舞いを表現させる演出と、特定感情を緩和させる音声を出力させる演出とのうちの少なくとも1つである。 In the information processing method according to this embodiment, the agent device 200 (one example of a device) is an agent device capable of communicating with multiple users U1 and U2, and the presentation is at least one of a presentation that expresses a behavior that alleviates a specific emotion and a presentation that outputs a sound that alleviates a specific emotion.
この構成によれば、特定感情を緩和させる演出として、複数の演出のうちから適切な演出を採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate effect from among multiple effects to alleviate a particular emotion, and it is possible to provide appropriate support to user U2.
本実施形態に係る情報処理方法では、エージェント機器200は、顔部を備える機器であり、エージェント機器200の振舞いは、ユーザU2(第1ユーザの一例)の眼をエージェント機器200の眼が見つめる動きと、ユーザU2を見ながらエージェント機器200の顔部がうなずく動きと、ユーザU2を見ながらエージェント機器200が行う所定の口の動きと、エージェント機器200の表面において所定画像又は所定文字を表示させることと、のうちの少なくとも1つである。
In the information processing method according to this embodiment, the
この構成によれば、エージェント機器200の振舞いとして、複数の振舞いのうちから適切な振舞いを採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。
With this configuration, it is possible to adopt an appropriate behavior from among multiple behaviors as the behavior of the
本実施形態に係る情報処理方法では、第2態様のタイミングは、ユーザU1(第2ユーザの一例)の集中状態に基づいて設定されるタイミングと、エージェント機器200(機器の一例)が存在する場所からユーザU1が離れたタイミングと、のうちの少なくとも1つのタイミングである。なお、ユーザU1の集中状態に基づいて設定されるタイミングは、例えば、ユーザU1が何らかのことに集中している度合いに基づいて設定されるタイミングを意味する。ユーザU1が何らかのことに集中している度合いは、例えば、車両C1における運転シーンに基づいて判定可能である。 In the information processing method according to this embodiment, the timing of the second aspect is at least one of the timing set based on the concentration state of the user U1 (an example of a second user) and the timing when the user U1 moves away from the location where the agent device 200 (an example of a device) is located. Note that the timing set based on the concentration state of the user U1 means, for example, the timing set based on the degree to which the user U1 is concentrating on something. The degree to which the user U1 is concentrating on something can be determined, for example, based on the driving scene in the vehicle C1.
この構成によれば、第2態様のタイミングとして、複数のタイミングのうちから適切なタイミングを採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate timing from among multiple timings as the timing of the second mode, and it is possible to realize appropriate follow-up for user U2.
本実施形態に係る情報処理方法では、エージェント機器200(機器の一例)は、複数のユーザU1、U2からの指示に基づいて複数の処理を実行可能なエージェント機器であり、検出処理(ステップS506)では、複数のユーザU1、U2のそれぞれから相反する異なる複数の指示が出された場合において、複数の指示のうちからエージェント機器200により選択された指示を出したユーザU2をその選択により得感情が生じたユーザとして推定し、その得感情が生じたユーザU2を第1ユーザとして検出する。
In the information processing method according to this embodiment, the agent device 200 (one example of a device) is an agent device capable of executing multiple processes based on instructions from multiple users U1, U2, and in the detection process (step S506), when multiple conflicting and different instructions are issued from each of the multiple users U1, U2, the user U2 who issued an instruction selected by the
この構成によれば、複数のユーザU1、U2のそれぞれから相反する異なる複数の指示が出された場合に、特定感情を緩和させる演出の実行対象となるユーザU2を適切に検出可能となる。 With this configuration, when multiple users U1 and U2 issue multiple, conflicting instructions, it becomes possible to appropriately detect user U2 who is the target of the performance to alleviate a specific emotion.
本実施形態に係る情報処理方法において、検出処理(ステップS506)では、エージェント機器200により選択された指示を出したユーザU2に関する生体情報と発話内容と動作とのうちの少なくとも1つに基づいて、その指示がユーザU2の本心であるか否かを推定し、その指示がユーザU2の本心でないと推定された場合には、特定感情を緩和させる演出をエージェント機器200に実行させない。例えば、その指示がユーザU2の本心でないと推定された場合には、ユーザU2を本心でない指示により損をしたユーザとして検出することが可能である。
In the information processing method according to this embodiment, the detection process (step S506) estimates whether the instruction selected by the
この構成によれば、本心でない指示を出したユーザU2に対しては、特定感情を緩和させる演出を実行しないため、無駄な演出を削減することが可能である。これにより、本心でない指示を出したユーザU2を検出した以降の演算処理を低減させることが可能であり、消費電力も低減させることが可能である。 With this configuration, for user U2 who has issued an instruction that is not sincere, no effect is performed to alleviate a particular emotion, making it possible to reduce unnecessary effects. This makes it possible to reduce the amount of calculation processing that is required after detecting user U2 who has issued an instruction that is not sincere, and also to reduce power consumption.
本実施形態に係る情報処理方法において、検出処理(ステップS506、S532)では、複数のユーザU1、U2の周囲の環境情報(例えば、車両C1の車室内の温度)と、複数のユーザU1、U2に関する生体情報と、複数のユーザU1、U2に関する発話内容と、複数のユーザU1、U2に関する動作と、のうちの少なくとも1つの要素に基づいて、複数のユーザU1、U2のうちから選択により得感情が生じたユーザU2を推定し、その得感情が生じたユーザU2を第1ユーザとして検出する。例えば、車両C1の車室内の温度、ユーザU1、U2の各表情、ユーザU1、U2の各視線の遷移、ユーザU1、U2の各発話内容、ユーザU1、U2の各発話のトーン、ユーザU1、U2の動き等に基づいて、ユーザU1、U2のうちから選択により得をしたと推定されるユーザU2を検出可能である。例えば、車両C1の車室内の温度が所定値以下であり、ユーザU2が「寒い寒い」の声を連続して発し、かつ、ユーザU2の身体がブルブルと震え、上着を新たに着ていることが検出され、ユーザU1は通常の状態であると判定された場合を想定する。この場合には、エージェント機器200は、ユーザU2は寒さの限度を超えているが、ユーザU1は暑さに耐えられると判定し、ユーザU2の指示「エアコンの温度を上げて」を採用することを選択する。また、検出処理(ステップS506、S532)では、それらの各要素(車室内の温度、「寒い寒い」の声、ブルブルと震え、新たな上着の着用)に基づいて、特定感情が生じた第1ユーザとして、ユーザU2を検出する。なお、エージェント機器200(又は情報処理装置110)は、ユーザU1、U2の周囲の環境情報、ユーザU1、U2に関する生体情報、ユーザU1、U2に関する発話内容、ユーザU1、U2に関する動作等の各要素に基づいて、複数の処理(例えば、エアコンの温度設定、報知情報の提供、ラジオの制御)のうちの少なくとも1つを自動で実行可能である。このように、所定の処理(例えば、エアコンの温度設定)が自動で実行された場合には、検出処理(ステップS506、S532)では、それらの各要素に基づいて、得感情が生じたと推定される第1ユーザを検出する。
In the information processing method according to the present embodiment, in the detection process (steps S506 and S532), a user U2 who has gained a feeling of gain from the selection is estimated from among the multiple users U1 and U2 based on at least one element of environmental information (e.g., the temperature in the cabin of the vehicle C1) surrounding the multiple users U1 and U2, bioinformation regarding the multiple users U1 and U2, the contents of speech regarding the multiple users U1 and U2, and the actions of the multiple users U1 and U2, and the user U2 who has gained a feeling of gain is detected as the first user. For example, it is possible to detect a user U2 who is estimated to have gained a feeling of gain from the selection from among the users U1 and U2 based on the temperature in the cabin of the vehicle C1, the facial expressions of the users U1 and U2, the transition of the gaze of the users U1 and U2, the contents of speech of the users U1 and U2, the tone of speech of the users U1 and U2, the movements of the users U1 and U2, etc. For example, assume that the temperature inside the vehicle C1 is below a predetermined value, the user U2 repeatedly utters the voice "It's cold, it's cold," the user U2 is shivering, and the user U1 is wearing a new jacket, and the user U1 is determined to be in a normal state. In this case, the
この構成によれば、適切なパラメータを用いて、得感情が生じたユーザを推定することが可能である。また、複数の処理のうちから実行すべき処理として選択された際のその選択に用いた要素に基づいて、得感情が生じたユーザを適切に検出することが可能である。 With this configuration, it is possible to estimate users who have experienced a feeling of gain using appropriate parameters. It is also possible to appropriately detect users who have experienced a feeling of gain based on the elements used when selecting a process to be executed from among multiple processes.
情報処理装置110は、ユーザU1、U2に対する複数の処理を実行可能なエージェント機器200(機器の一例)を制御する情報処理装置である。情報処理装置110は、複数のユーザU1、U2が存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザU1、U2のうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザU2(第1ユーザの一例)を検出する損得感情判定部122、負債感情判定部123(検出部の一例)と、ユーザU2が検出された場合には、ユーザU2以外のユーザU1(第2ユーザの一例)に知覚され難い態様で、ユーザU2に対して特定感情を緩和させる演出をエージェント機器200に実行させるエージェント制御部125(制御部の一例)とを備える。なお、情報処理装置110は、エージェント機器200に内蔵される機器としてもよく、エージェント機器200とは異なる機器としてもよい。また、情報処理装置110の代わりに、情報処理装置110により実現される各処理を実行可能な複数の機器により構成される情報処理システムとしてもよい。
The
この構成によれば、所定の処理の選択に起因して、ユーザU1に対する特定感情が生じたユーザU2に対して、ユーザU1に知覚され難い態様でその特定感情を緩和させる演出を実行することができる。これにより、ユーザU2に対して適切なフォローをすることが可能であり、エージェント機器200の使い易さを高めることが可能である。また、ユーザU2の嫌な気持ちを解消することが可能である。
According to this configuration, when user U2 develops a specific emotion toward user U1 due to the selection of a specific process, it is possible to execute a performance that alleviates the specific emotion in a manner that is difficult for user U1 to perceive. This makes it possible to provide appropriate support to user U2, and to increase the ease of use of the
なお、本実施形態で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。 Note that each processing step shown in this embodiment is an example for realizing this embodiment, and the order of some of the processing steps may be changed within the scope that allows this embodiment to be realized, and some of the processing steps may be omitted or other processing steps may be added.
なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、情報処理装置に新機能を追加するためのアップデート処理により、そのプログラムを情報処理装置の記憶装置に記憶させることができる。これにより、そのアップデートされた情報処理装置に本実施形態で示した各処理を実施させることが可能となる。 Note that each process shown in this embodiment is executed based on a program for causing a computer to execute each processing procedure. Therefore, this embodiment can also be understood as an embodiment of a program that realizes the function of executing each of these processes, and a recording medium that stores the program. For example, the program can be stored in the storage device of the information processing device by an update process for adding a new function to the information processing device. This makes it possible to cause the updated information processing device to execute each of the processes shown in this embodiment.
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 The above describes embodiments of the present invention, but the above embodiments merely show some examples of applications of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above embodiments.
100 情報処理システム、110 情報処理装置、120 制御部、121 指示受付部、122 損得感情判定部、123 負債感情判定部、124 不満感情判定部、125 エージェント制御部、130 記憶部、131 エージェント情報DB、132 指示情報DB、133 報知情報DB、134 地図情報DB、135 周囲状況DB、136 ユーザ状態DB、140 通信部、200 エージェント機器、210 表示部、220 音出力部、230 駆動部、MC1、MC2 電子機器
100 Information processing system, 110 Information processing device, 120 Control unit, 121 Instruction receiving unit, 122 Profit/loss emotion determination unit, 123 Debt emotion determination unit, 124 Dissatisfaction emotion determination unit, 125 Agent control unit, 130 Memory unit, 131 Agent information DB, 132 Instruction information DB, 133 Notification information DB, 134 Map information DB, 135 Surrounding situation DB, 136 User state DB, 140 Communication unit, 200 Agent device, 210 Display unit, 220 Sound output unit, 230 Drive unit, MC1, MC2 Electronic device
Claims (10)
複数のユーザが存在する状態で前記複数の処理のうちから所定の処理が選択された場合に、前記複数のユーザのうちから、当該選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザである第1ユーザを検出する検出処理と、
前記第1ユーザが検出された場合には、当該第1ユーザ以外のユーザである第2ユーザに知覚され難い態様で、前記第1ユーザに対して前記特定感情を緩和させる演出を前記機器に実行させる制御処理と、を含む
情報処理方法。 An information processing method for controlling a device capable of executing a plurality of processes for a user, comprising:
a detection process for detecting, when a predetermined process is selected from among a plurality of processes in a state where a plurality of users exists, a first user who is a user who has experienced a specific emotion including at least one of a debt emotion and a gain emotion due to the selection from among the plurality of users;
and when the first user is detected, a control process that causes the device to execute a performance that alleviates the specific emotion for the first user in a manner that is difficult to perceive by a second user other than the first user.
前記第2ユーザに知覚され難い態様は、前記第2ユーザに知覚され難い方法で前記演出を前記機器に実行させる第1態様と、前記第2ユーザに知覚され難いタイミングで前記演出を前記機器に実行させる第2態様と、のうちの少なくとも1つである、
情報処理方法。 2. The information processing method according to claim 1,
The aspect that is difficult to be perceived by the second user is at least one of a first aspect in which the device executes the performance in a manner that is difficult to be perceived by the second user, and a second aspect in which the device executes the performance at a timing that is difficult to be perceived by the second user.
Information processing methods.
前記機器は、前記複数のユーザとのコミュニケーションを行うことが可能なエージェント機器であり、
前記第1態様は、前記エージェント機器を前記第1ユーザの方向に向けた状態で前記エージェント機器に所定の振舞いをさせる態様と、前記第1ユーザにだけ聞こえる音を前記エージェント機器から出力させる態様と、前記第1ユーザが所持する電子機器から前記エージェント機器に関連する所定情報を出力させる態様と、前記エージェント機器以外の機器における表示領域に前記エージェント機器に関連する所定情報を表示させる態様と、のうちの少なくとも1つである、
情報処理方法。 3. The information processing method according to claim 2,
the device is an agent device capable of communicating with the plurality of users,
The first aspect is at least one of an aspect of causing the agent device to perform a predetermined behavior while facing the agent device toward the first user, an aspect of causing the agent device to output a sound that can only be heard by the first user, an aspect of causing an electronic device possessed by the first user to output predetermined information related to the agent device, and an aspect of causing a device other than the agent device to display predetermined information related to the agent device in a display area.
Information processing methods.
前記機器は、前記複数のユーザとのコミュニケーションを行うことが可能なエージェント機器であり、
前記演出は、前記特定感情を緩和させる振舞いを表現させる演出と、前記特定感情を緩和させる音声を出力させる演出と、のうちの少なくとも1つである、
情報処理方法。 2. The information processing method according to claim 1,
the device is an agent device capable of communicating with the plurality of users,
The effect is at least one of an effect of expressing a behavior that alleviates the specific emotion and an effect of outputting a sound that alleviates the specific emotion.
Information processing methods.
前記エージェント機器は、顔部を備える機器であり、
前記振舞いは、前記第1ユーザの眼を前記エージェント機器の眼が見つめる動きと、前記第1ユーザを見ながら前記エージェント機器の顔部がうなずく動きと、前記第1ユーザを見ながら前記エージェント機器が行う所定の口の動きと、前記エージェント機器の表面において所定画像又は所定文字を表示させることと、のうちの少なくとも1つである、
情報処理方法。 5. The information processing method according to claim 3, further comprising:
the agent device is a device having a face part,
The behavior is at least one of the following: a movement of the eyes of the agent device gazing at the eyes of the first user; a movement of the face of the agent device nodding while looking at the first user; a predetermined mouth movement performed by the agent device while looking at the first user; and displaying a predetermined image or predetermined text on a surface of the agent device.
Information processing methods.
前記タイミングは、前記第2ユーザの集中状態に基づいて設定されるタイミングと、前記機器が存在する場所から前記第2ユーザが離れたタイミングと、のうちの少なくとも1つのタイミングである、
情報処理方法。 3. The information processing method according to claim 2,
The timing is at least one of a timing set based on a concentration state of the second user and a timing when the second user moves away from a location where the device is located.
Information processing methods.
前記機器は、前記複数のユーザからの指示に基づいて前記複数の処理を実行可能なエージェント機器であり、
前記検出処理では、前記複数のユーザのそれぞれから相反する異なる複数の指示が出された場合において、前記複数の指示のうちから前記エージェント機器により選択された指示を出したユーザを当該選択により前記得感情が生じたユーザとして推定し、当該得感情が生じたユーザを前記第1ユーザとして検出する、
情報処理方法。 2. The information processing method according to claim 1,
the device is an agent device capable of executing the plurality of processes based on instructions from the plurality of users;
in the detection process, when a plurality of different and conflicting instructions are issued from each of the plurality of users, a user who issued an instruction selected by the agent device from among the plurality of instructions is inferred as a user who has experienced the gained emotion as a result of the selection, and the user who has experienced the gained emotion is detected as the first user;
Information processing methods.
前記検出処理では、前記エージェント機器により選択された指示を出したユーザに関する生体情報と発話内容と動作とのうちの少なくとも1つに基づいて、当該指示が当該ユーザの本心であるか否かを推定し、
当該指示が当該ユーザの本心でないと推定された場合には、前記演出を前記機器に実行させない、
情報処理方法。 8. An information processing method according to claim 7,
In the detection process, it is estimated whether the instruction selected by the agent device is the true intention of the user based on at least one of biometric information, speech content, and movement of the user who issued the instruction;
If it is estimated that the instruction is not the user's true intention, the device is not allowed to execute the performance.
Information processing methods.
前記検出処理では、前記複数のユーザの周囲の環境情報と、前記複数のユーザに関する生体情報と、前記複数のユーザに関する発話内容と、前記複数のユーザに関する動作と、のうちの少なくとも1つの要素に基づいて、前記複数のユーザのうちから前記選択により前記得感情が生じたユーザを推定し、当該得感情が生じたユーザを前記第1ユーザとして検出する、
情報処理方法。 2. The information processing method according to claim 1,
In the detection process, a user who has experienced the feeling of gain due to the selection is estimated from among the plurality of users based on at least one element of environmental information around the plurality of users, biological information about the plurality of users, speech contents about the plurality of users, and actions about the plurality of users, and the user who has experienced the feeling of gain is detected as the first user.
Information processing methods.
複数のユーザが存在する状態で前記複数の処理のうちから所定の処理が選択された場合に、前記複数のユーザのうちから、当該選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザである第1ユーザを検出する検出部と、
前記第1ユーザが検出された場合には、当該第1ユーザ以外のユーザである第2ユーザに知覚され難い態様で、前記第1ユーザに対して前記特定感情を緩和させる演出を前記機器に実行させる制御部と、を備える
情報処理装置。
An information processing device that controls a device capable of executing a plurality of processes for a user,
a detection unit that detects, when a predetermined process is selected from a plurality of processes in a state where a plurality of users exists, a first user who is a user from the plurality of users and who has experienced a specific emotion including at least one of a debt emotion and a gain emotion due to the selection;
An information processing device comprising: a control unit that, when the first user is detected, causes the device to execute a performance that alleviates the specific emotion for the first user in a manner that is difficult to perceive by a second user other than the first user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022197371A JP2024083068A (en) | 2022-12-09 | 2022-12-09 | Information processing method and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022197371A JP2024083068A (en) | 2022-12-09 | 2022-12-09 | Information processing method and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024083068A true JP2024083068A (en) | 2024-06-20 |
Family
ID=91539435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022197371A Pending JP2024083068A (en) | 2022-12-09 | 2022-12-09 | Information processing method and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024083068A (en) |
-
2022
- 2022-12-09 JP JP2022197371A patent/JP2024083068A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6656079B2 (en) | Control method of information presentation device and information presentation device | |
US10585471B2 (en) | Systems and methods to provide an interactive space based on predicted events | |
JP4380541B2 (en) | Vehicle agent device | |
JP7329755B2 (en) | Support method and support system and support device using the same | |
JP6083441B2 (en) | Vehicle occupant emotion response control device | |
JP6213489B2 (en) | Vehicle occupant emotion response control device | |
JPH11259446A (en) | Agent device | |
US20160288708A1 (en) | Intelligent caring user interface | |
JP6115577B2 (en) | Vehicle occupant emotion response control device | |
US11535261B2 (en) | Medical monitoring virtual human with situational awareness | |
WO2019124158A1 (en) | Information processing device, information processing method, program, display system, and moving body | |
WO2016181670A1 (en) | Information processing device, information processing method, and program | |
JP2016137200A (en) | Control device for coping with feeling of passenger for vehicle | |
WO2021258671A1 (en) | Assisted driving interaction method and apparatus based on vehicle-mounted digital human, and storage medium | |
JP2016137202A (en) | Control device for coping with feeling of passenger for vehicle | |
JP2020020987A (en) | In-car system | |
JP6213488B2 (en) | Vehicle occupant emotion response control device | |
JP2024083068A (en) | Information processing method and information processing device | |
JP2024073110A (en) | Control method and information processing device | |
WO2022124164A1 (en) | Attention object sharing device, and attention object sharing method | |
JP2024073109A (en) | Information processing method and information processing device | |
JP2020130502A (en) | Information processing device and information processing method | |
JP2024073108A (en) | Information processing method and information processing device | |
JP2024092633A (en) | Information processing method and information processing device | |
WO2024042359A1 (en) | Information processing method and information processing device |