JP2024083068A - Information processing method and information processing device - Google Patents

Information processing method and information processing device Download PDF

Info

Publication number
JP2024083068A
JP2024083068A JP2022197371A JP2022197371A JP2024083068A JP 2024083068 A JP2024083068 A JP 2024083068A JP 2022197371 A JP2022197371 A JP 2022197371A JP 2022197371 A JP2022197371 A JP 2022197371A JP 2024083068 A JP2024083068 A JP 2024083068A
Authority
JP
Japan
Prior art keywords
user
users
agent device
emotion
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022197371A
Other languages
Japanese (ja)
Inventor
元伸 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2022197371A priority Critical patent/JP2024083068A/en
Publication of JP2024083068A publication Critical patent/JP2024083068A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】他のユーザに対して特定の感情が生じたユーザに対して適切なフォローをして機器の使い易さを高める。【解決手段】ユーザU1、U2に対する複数の処理を実行可能なエージェント機器200を制御する情報処理方法である。この情報処理方法は、複数のユーザU1、U2が存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザU1、U2のうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザU2を検出する検出処理(ステップS506)と、ユーザU2が検出された場合には、ユーザU2以外のユーザU1に知覚され難い態様で、ユーザU2に対して特定感情を緩和させる演出をエージェント機器200に実行させる制御処理(ステップS509、S511)とを含む。【選択図】図7[Problem] To improve the ease of use of a device by providing appropriate support to a user who has developed a specific emotion toward another user. [Solution] An information processing method for controlling an agent device 200 capable of executing multiple processes for users U1 and U2. When a predetermined process is selected from multiple processes in a state where multiple users U1 and U2 exist, this information processing method includes a detection process (step S506) for detecting a user U2 from among the multiple users U1 and U2 who has developed a specific emotion including at least one of a debt emotion and a gain emotion resulting from the selection, and a control process (steps S509, S511) for causing the agent device 200 to perform a performance for alleviating the specific emotion for user U2 in a manner that is difficult to perceive by users U1 other than user U2 when user U2 is detected. [Selected Figure] FIG.

Description

本発明は、ユーザに対する複数の処理を実行可能な機器を制御する情報処理方法及び情報処理装置に関する。 The present invention relates to an information processing method and an information processing device that controls a device capable of performing multiple processes for a user.

従来、ユーザに対する複数の処理を実行可能な機器が存在する。例えば、戸を開閉した後のエレベータ内の利用者数が戸開前の利用者数よりも増加していたと判断した場合に、利用者の乗車協力に対する謝意を示す情報をエレベータ内の出力装置から出力させる技術が提案されている(例えば、特許文献1参照)。 Conventionally, there are devices that can execute multiple processes for users. For example, a technology has been proposed that, if it is determined that the number of users in an elevator after the doors have been opened and closed is greater than the number of users before the doors were opened, output information from an output device in the elevator expressing gratitude to the users for their cooperation in boarding the elevator (see, for example, Patent Document 1).

特開2022-14601号公報JP 2022-14601 A

上述した従来技術では、謝意を示す情報がエレベータ内の出力装置から出力されるため、エレベータに新たに乗った人と、エレベータに元々乗っている人との双方にその情報が伝わる。この場合に、勝手に自分たちの気持ちを新たに乗った人に聞こえるように伝えてほしくないと、エレベータに元々乗っていた人が考えることも想定される。一方、エレベータに新たに乗った人がその情報を聞くと、気まずい気持ち、その場にいることに耐えがたい気持、申し訳ない気持ちになることも想定される。すなわち、謝意を示す情報が出力されることにより、エレベータに新たに乗った人には、エレベータに元々乗っていた人に対して、申し訳ない気持ち等の特定の感情が生じ得る。 In the above-mentioned conventional technology, the information indicating gratitude is output from an output device in the elevator, so that the information is conveyed to both the new person in the elevator and the person originally in the elevator. In this case, it is conceivable that the person originally in the elevator would not want their feelings to be conveyed audibly to the new person. On the other hand, it is conceivable that when the new person in the elevator hears the information, they may feel awkward, unable to bear being in the situation, or feel sorry. In other words, the output of the information indicating gratitude may cause the new person in the elevator to have certain feelings, such as a sense of guilt, toward the person originally in the elevator.

本発明は、他のユーザに対して特定の感情が生じたユーザに対して適切なフォローをして機器の使い易さ(ユーザビリティ)を高めることを目的とする。 The present invention aims to improve the ease of use (usability) of devices by providing appropriate follow-up to users who have specific feelings toward other users.

本発明の一態様は、ユーザに対する複数の処理を実行可能な機器を制御する情報処理方法である。この情報処理方法は、複数のユーザが存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザのうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザ(第1ユーザ)を検出する検出処理と、第1ユーザが検出された場合には、第1ユーザ以外のユーザ(第2ユーザ)に知覚され難い態様で、第1ユーザに対して特定感情を緩和させる演出を機器に実行させる制御処理とを含む。 One aspect of the present invention is an information processing method for controlling a device capable of executing multiple processes for a user. This information processing method includes a detection process for detecting a user (first user) from among the multiple users who has experienced a specific emotion including at least one of a debt emotion and a gain emotion resulting from a selection of a specific process when multiple users are present, and a control process for causing the device to execute a performance that alleviates the specific emotion for the first user in a manner that is difficult to perceive by users other than the first user (second user) when the first user is detected.

本発明によれば、他のユーザに対して特定の感情が生じたユーザに対して適切なフォローをして機器の使い易さを高めることができる。 According to the present invention, it is possible to improve the usability of a device by providing appropriate support to a user who has developed a particular emotion toward another user.

図1は、車両の車室内の構成例を簡略化して示す図である。FIG. 1 is a simplified diagram showing an example of the configuration of the interior of a vehicle. 図2は、車両に乗車する2人のユーザから相反する異なる指示がエージェント機器に出された場合の例を簡略化して示す図である。FIG. 2 is a simplified diagram showing an example in which two users in a vehicle give different, conflicting instructions to an agent device. 図3は、エージェント機器の外観構成の一例を簡略化して示す正面図である。FIG. 3 is a front view showing, in a simplified form, an example of the external configuration of an agent device. 図4は、車両に設置されている情報処理システムのシステム構成の一例を示す図である。FIG. 4 is a diagram showing an example of a system configuration of an information processing system installed in a vehicle. 図5は、ユーザからの指示に応じた処理を実行後にユーザの感情に応じてエージェント機器の各態様を変化させる場合の遷移例を示す図である。FIG. 5 shows an example of a transition when each state of an agent device is changed in response to the user's emotion after a process is executed in response to an instruction from the user. 図6は、ユーザからの指示に応じた処理を実行後にユーザの感情に応じてエージェント機器の各態様を変化させる場合の遷移例を示す図である。FIG. 6 shows an example of a transition when each state of the agent device is changed in response to the user's emotion after the process is executed in response to an instruction from the user. 図7は、情報処理装置における制御処理の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of a control process in the information processing device. 図8は、情報処理装置における制御処理の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of a control process in the information processing device. 図9は、情報処理装置における制御処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of a control process in the information processing device.

以下、添付図面を参照しながら本発明の実施形態について説明する。 The following describes an embodiment of the present invention with reference to the attached drawings.

[エージェント機器の設置例]
図1は、車両C1の車室内の構成例を簡略化して示す図である。なお、図1では、運転席、助手席(図示省略)よりも前側を、車両C1の後ろ側から見た場合の外観構成例を示す。また、図1では、説明を容易にするため、ダッシュボード2、ステアリングホイール3、フロントウインド4、バックミラー5、カメラ101、エージェント機器200以外の図示は省略する。
[Agent device installation example]
Fig. 1 is a simplified diagram showing an example of the configuration of the interior of a vehicle C1. Fig. 1 shows an example of the exterior configuration when the area in front of the driver's seat and passenger seat (not shown) is viewed from the rear of the vehicle C1. To facilitate explanation, Fig. 1 omits the illustration of anything other than a dashboard 2, a steering wheel 3, a windshield 4, a rearview mirror 5, a camera 101, and an agent device 200.

エージェント機器200は、車両C1のダッシュボード2上に設置される小型のロボットである。本実施形態では、人間を模したロボットをエージェント機器200とする例を示す。なお、図1では、ダッシュボード2上にエージェント機器200を設置する例を示すが、これに限定されない。例えば、フロントウインド4の上部にエージェント機器200を設置してもよい。また、図1では、人間の顔を模したロボットをエージェント機器200とする例を示すが、これに限定されない。例えば、人間の全身を模したロボット、ウサギ、豚等のような動物を模したロボット、仮想物の生物(例えばアニメのキャラクターの顔)を模したロボット、他の物体(例えばテレビ型の機器、ラジオ型の機器)を模したロボットをエージェント機器200としてもよい。このように、擬生物化されたエージェントをエージェント機器200とすることが可能である。 The agent device 200 is a small robot installed on the dashboard 2 of the vehicle C1. In this embodiment, an example in which a robot that mimics a human being is used as the agent device 200 is shown. Note that FIG. 1 shows an example in which the agent device 200 is installed on the dashboard 2, but this is not limited thereto. For example, the agent device 200 may be installed on the upper part of the windshield 4. Also, FIG. 1 shows an example in which a robot that mimics a human face is used as the agent device 200, but this is not limited thereto. For example, the agent device 200 may be a robot that mimics a whole human body, a robot that mimics an animal such as a rabbit or a pig, a robot that mimics a virtual creature (for example, the face of an anime character), or a robot that mimics another object (for example, a television-type device, a radio-type device). In this way, it is possible to use an agent that has been mimicked as the agent device 200.

エージェント機器200は、情報処理装置110(図4参照)からの指示に基づいて各種の動作を実行する。例えば、エージェント機器200は、情報処理装置110の制御に基づいて、ユーザU1が運転操作をする際における運転支援、周囲の施設等に関する各種情報を出力する。この運転支援として、前方又は後方の動体の報知等が想定される。例えば、前方の動体の報知として、「この先踏切だから気を付けてよ」と音声出力したり、「前方に人がいるよ」と音声出力したりすることができる。このように、エージェント機器200は、運転支援を実行する。また、例えば、エージェント機器200は、情報処理装置110の制御に基づいて、各種処理を実行する。例えば、エージェント機器200は、ユーザU1からの指示に基づいて、その指示に応じた処理を実行する。なお、図1では、ユーザU1からの音声S1による指示「エアコンの温度を上げて」に基づいて、その指示に応じたエアコンの温度調整処理を実行する例を示す。この場合には、エージェント機器200は、その指示に応じてエアコンの温度調整を実行した旨を示す音声情報S2を出力する。 The agent device 200 executes various operations based on instructions from the information processing device 110 (see FIG. 4). For example, the agent device 200 outputs various information related to driving assistance when the user U1 drives the vehicle and surrounding facilities, etc., based on the control of the information processing device 110. As the driving assistance, a notification of a moving object in front or behind is assumed. For example, as a notification of a moving object in front, a voice output of "Be careful because there is a railroad crossing ahead" or a voice output of "There is a person ahead" can be used. In this way, the agent device 200 executes driving assistance. Also, for example, the agent device 200 executes various processes based on the control of the information processing device 110. For example, the agent device 200 executes processes according to instructions from the user U1 based on the instructions. Note that FIG. 1 shows an example in which, based on a voice S1 instruction from the user U1 to "Turn up the temperature of the air conditioner," a process of adjusting the temperature of the air conditioner is executed according to the instruction. In this case, the agent device 200 outputs voice information S2 indicating that the temperature adjustment of the air conditioner has been executed according to the instruction.

カメラ101は、車両C1の内部の天井に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成するものである。なお、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、フロントウインド4の上部、すなわち、バックミラー5の上側にカメラ101を設けることができる。なお、図1では、少なくとも1つのカメラ101を備える例を示すが、2以上の撮像装置を備え、これらの撮像装置のうちの全部又は一部の画像を用いてもよい。また、各撮像装置の設置場所については、図1に示す例に限定されず、適宜変更可能である。また、車両C1の全方位に存在する被写体と、車両C1の内部の被写体とを取得可能な1又は複数の機器、例えば、360度カメラを用いてもよい。 The camera 101 is provided on the ceiling inside the vehicle C1 and captures an image of a subject inside the vehicle C1 to generate an image (image data). The camera 101 is, for example, composed of one or more camera devices or image sensors capable of capturing an image of a subject. For example, the camera 101 can be provided on the upper part of the windshield 4, i.e., above the rearview mirror 5. Although FIG. 1 shows an example in which at least one camera 101 is provided, two or more imaging devices may be provided and all or some of the images from these imaging devices may be used. The installation locations of each imaging device are not limited to the example shown in FIG. 1 and can be changed as appropriate. One or more devices capable of capturing subjects present in all directions around the vehicle C1 and subjects inside the vehicle C1, for example, a 360-degree camera, may be used.

[エージェント機器に異なる指示が出された場合の例]
図2は、車両C1に乗車する2人のユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合の例を簡略化して示す図である。なお、図2に示す例は、図1に示す構成例においてユーザU2を追加したものであり、これら以外の部分については図1と共通する。
[Example of when different instructions are given to agent devices]
Fig. 2 is a simplified diagram showing an example of a case where two users U1 and U2 riding in a vehicle C1 give different, conflicting instructions to the agent device 200. Note that the example shown in Fig. 2 is the same as the example shown in Fig. 1 except that a user U2 is added to the configuration example shown in Fig. 1.

図2では、寒さに震えるユーザU2から「エアコンの温度を上げて」の音声S6が発せられ、暑さで汗をかいているユーザU1から「エアコンの温度を下げて」の音声S5が発せられた場合の例を示す。このように、ユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合には、エージェント機器200は、それらの各指示を略同時に実行することは不可能である。このため、エージェント機器200は、それらの各指示のうちの一方を選択して実行する。例えば、エージェント機器200は、車両C1の車室内の状況、ユーザU1、U2等をセンシングし、ユーザU1、U2からの各指示のうちから、適切な指示を選択して実行することが考えられる。 Figure 2 shows an example in which user U2, shivering from the cold, makes a speech S6 saying "Turn up the air conditioner temperature," and user U1, sweating from the heat, makes a speech S5 saying "Turn down the air conditioner temperature." In this way, when users U1 and U2 give conflicting instructions to the agent device 200, it is impossible for the agent device 200 to execute those instructions approximately simultaneously. For this reason, the agent device 200 selects and executes one of those instructions. For example, the agent device 200 can sense the situation inside the vehicle C1, users U1, U2, etc., and select and execute the appropriate instruction from among the instructions from users U1 and U2.

[複数のユーザから相反する異なる指示が出された場合の指示の選択例]
ここで、複数のユーザのそれぞれから各指示が出された場合について説明する。なお、複数のユーザのそれぞれからの各指示が異なるタイミングで出された場合には、その各指示が出されたタイミングで各指示を実行することが可能である。そこで、ここでは、複数のユーザのそれぞれから各指示が略同じタイミングで出された場合について説明する。なお、略同じタイミングは、例えば、数秒程度の間隔を意味する。
[Example of instruction selection when conflicting instructions are given by multiple users]
Here, a case where each instruction is issued by each of a plurality of users will be described. If each instruction is issued by each of a plurality of users at different timings, each instruction can be executed at the timing at which the instruction was issued. Here, a case where each instruction is issued by each of a plurality of users at approximately the same timing will be described. Note that approximately the same timing means, for example, an interval of about several seconds.

例えば、複数のユーザのそれぞれから同じ内容の指示が略同じタイミングで出された場合には、エージェント機器200は、その指示を実行する。例えば、ユーザU1、U2が「エアコンの温度を上げて」又は「ラジオをかけて」等のように同じ内容の指示を同じタイミングで出した場合には、それらが同一の内容であるため、エージェント機器200は、その指示を実行することが可能である。 For example, if multiple users each issue an instruction with the same content at approximately the same time, the agent device 200 executes that instruction. For example, if users U1 and U2 issue the same instruction at the same time, such as "Turn up the air conditioner temperature" or "Turn on the radio," the instructions are the same, so the agent device 200 can execute the instruction.

また、例えば、複数のユーザのそれぞれから異なる内容の指示が略同じタイミングで出された場合において、それらの各指示が相反するものでなければ、エージェント機器200は、その各指示を、同時に、又は、順次、実行する。例えば、略同じタイミングで、ユーザU1が「エアコンの温度を上げて」の指示を出し、ユーザU2が「ラジオをかけて」の指示を出した場合を想定する。この場合には、複数のユーザのそれぞれから異なる内容の指示が略同じタイミングで出されているが、それらの各指示が相反するものでないため、エージェント機器200は、その各指示を、同時に、又は、順次、実行する。具体的には、エージェント機器200は、ユーザU1の指示「エアコンの温度を上げて」に基づいて、エアコンの温度設定を上げる制御を実行するとともに、ユーザU2の指示「ラジオをかけて」に基づいて、ラジオの電源をオンする制御を実行する。これらの各制御については、同時に実行してもよく、順次実行してもよい。 For example, when multiple users issue different instructions at approximately the same time, the agent device 200 executes the instructions simultaneously or sequentially, unless the instructions are contradictory. For example, assume that user U1 issues an instruction to "turn up the air conditioner temperature" and user U2 issues an instruction to "turn on the radio" at approximately the same time. In this case, multiple users issue different instructions at approximately the same time, but since the instructions are not contradictory, the agent device 200 executes the instructions simultaneously or sequentially. Specifically, the agent device 200 executes control to raise the temperature setting of the air conditioner based on the instruction from user U1 to "turn up the air conditioner temperature," and executes control to turn on the radio based on the instruction from user U2 to "turn on the radio." These controls may be executed simultaneously or sequentially.

また、例えば、複数のユーザのそれぞれから異なる内容の指示が略同じタイミングで出され、かつ、それらの各指示が相反する場合を想定する。例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合には、各指示が相反することになる。また、例えば、略同じタイミングで、ユーザU1が「ラジオ局Aをかけて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合も、各指示が相反することになる。 Also, for example, consider a case where multiple users each issue different instructions at approximately the same time, and these instructions are contradictory. For example, if user U1 issues an instruction to "turn down the air conditioner temperature" and user U2 issues an instruction to "turn up the air conditioner temperature" at approximately the same time, the instructions will be contradictory. Also, for example, if user U1 issues an instruction to "play radio station A" and user U2 issues an instruction to "play radio station B" at approximately the same time, the instructions will be contradictory.

これらの場合には、エージェント機器200は、その相反する各指示を実行することができないため、何れかの指示を選択して実行することになる。例えば、図2に示すように、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合を想定する。この場合には、ユーザU1、U2から相反する異なる内容の指示が出されているため、それらの各指示を略同じタイミングで実行することは不可能である。そこで、このような場合には、エージェント機器200(又は、情報処理装置110)は、ユーザU1、U2に関する生体情報、ユーザU1、U2の発話内容、ユーザU1、U2の動作、ユーザU1、U2の周囲の環境等に基づいて、ユーザU1、U2から出された各指示のうちから適切な指示を選択する。 In these cases, the agent device 200 cannot execute the conflicting instructions, and will select and execute one of the instructions. For example, as shown in FIG. 2, assume that user U1 issues an instruction to "lower the air conditioner temperature" and user U2 issues an instruction to "raise the air conditioner temperature" at approximately the same time. In this case, since users U1 and U2 issue conflicting instructions, it is impossible to execute these instructions at approximately the same time. In such a case, the agent device 200 (or the information processing device 110) selects an appropriate instruction from among the instructions issued by users U1 and U2 based on biometric information on users U1 and U2, the speech of users U1 and U2, the actions of users U1 and U2, the environment around users U1 and U2, etc.

例えば、ユーザU1が「暑い暑い」の声を連続して発し、かつ、ユーザU1が多量の汗をかき、上着のボタンを外していることが検出され、ユーザU2は通常の状態であると判定された場合を想定する。この場合には、エージェント機器200は、ユーザU1は暑さの限度を超えているが、ユーザU2は寒さに耐えられると判定し、ユーザU1の指示「エアコンの温度を下げて」を採用することを選択する。一方、ユーザU2が「寒い寒い」の声を連続して発し、かつ、ユーザU2の身体がブルブルと震え、上着を新たに着ていることが検出され、ユーザU1は通常の状態であると判定された場合を想定する。この場合には、エージェント機器200は、ユーザU2は寒さの限度を超えているが、ユーザU1は暑さに耐えられると判定し、ユーザU2の指示「エアコンの温度を上げて」を採用することを選択する。このように、ユーザU1、U2の健康に関する指示については、エージェント機器200は、各指示のうちから、各ユーザの生体状態等に最適な指示を選択して実行するようにする。すなわち、エージェント機器200は、ユーザU1、U2の声、動き、汗、体温等を参照して、どちらの体調が悪いかを総合的に判定して、最適な指示を選択して実行するようにする。言い換えると、エージェント機器200は、ユーザU1、U2をセンシングして、どちらが危機的な状況かを判定し、危機的な状況のユーザの指示を選択して実行するようにする。なお、各指示の緊急度、各指示に基づく実行時間、各指示に基づく処理の完了時間の長さ等に基づいて、最適な指示の処理を選択して実行してもよい。 For example, assume that user U1 continuously utters the voice "It's hot, it's hot" and that user U1 is sweating profusely and has unbuttoned his jacket, and that user U2 is determined to be in a normal state. In this case, the agent device 200 determines that user U1 is over the limit of heat, but user U2 can tolerate the cold, and selects to adopt user U1's instruction "Turn down the temperature of the air conditioner." On the other hand, assume that user U2 continuously utters the voice "It's cold, it's cold," and that user U2 is shivering and putting on a new jacket, and that user U1 is determined to be in a normal state. In this case, the agent device 200 determines that user U2 is over the limit of cold, but user U1 can tolerate the heat, and selects to adopt user U2's instruction "Turn up the temperature of the air conditioner." In this way, with regard to instructions related to the health of users U1 and U2, the agent device 200 selects and executes the instruction that is most suitable for the biological condition, etc. of each user from among the instructions. That is, the agent device 200 refers to the voices, movements, sweat, body temperature, etc. of users U1 and U2 to comprehensively determine which of them is in poor physical condition, and selects and executes the most appropriate instructions. In other words, the agent device 200 senses users U1 and U2 to determine which of them is in a critical situation, and selects and executes the instructions of the user in the critical situation. Note that the agent device 200 may also select and execute the most appropriate processing of instructions based on the urgency of each instruction, the execution time based on each instruction, the length of time it takes to complete the processing based on each instruction, etc.

なお、略同じタイミングで、ユーザU1が「ラジオ局Aをかけて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合を想定する。この場合には、ユーザU1、U2から相反する異なる内容の指示が出されているため、それらの各指示を略同じタイミングで実行することは不可能である。そこで、このような場合についても同様に、エージェント機器200は、ユーザU1、U2に関する生体情報、ユーザU1、U2の発話内容、ユーザU1、U2の動作、ユーザU1、U2の周囲の環境等に基づいて、ユーザU1、U2から出された各指示のうちから適切な指示を選択する。ただし、ラジオ局の選択の場合には、これらの各情報に基づいて適切な放送局を選択することが困難となることも想定される。そこで、このような指示については、予め設定されている選択基準に基づいて選択処理を実行してもよい。 Assume that user U1 issues the instruction "Play radio station A" and user U2 issues the instruction "Play radio station B" at approximately the same time. In this case, since users U1 and U2 issue conflicting instructions, it is impossible to execute these instructions at approximately the same time. In such a case, the agent device 200 similarly selects an appropriate instruction from among the instructions issued by users U1 and U2 based on the biometric information on users U1 and U2, the speech of users U1 and U2, the actions of users U1 and U2, the environment around users U1 and U2, etc. However, in the case of selecting a radio station, it is assumed that it may be difficult to select an appropriate broadcasting station based on each of these pieces of information. Therefore, for such instructions, a selection process may be performed based on a selection criterion that is set in advance.

ここで、選択基準は、複数の相反する異なる指示が出された場合に、優先的に実行する指示を選択するための基準である。例えば、複数の相反する異なる指示のうち、出された指示の順番で優先的に選択する指示を決定してもよい。この場合には、最初に出された指示を選択することが可能である。 The selection criteria here are criteria for selecting an instruction to be executed with priority when multiple conflicting and different instructions are issued. For example, the instruction to be selected with priority among multiple conflicting and different instructions may be determined based on the order in which the instructions were issued. In this case, it is possible to select the instruction issued first.

また、例えば、複数の相反する異なる指示が出された場合において、指示を選択するユーザを順次変更してもよい。例えば、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザAから出された指示を選択する。この場合には、次のタイミングで、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザBから出された指示を選択する。また、次のタイミングで、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザCから出された指示を選択する。 In addition, for example, when multiple conflicting and different instructions are issued, the user from whom the instruction is selected may be changed sequentially. For example, when multiple conflicting and different instructions are issued from users A to C, the instruction issued by user A is selected. In this case, when multiple conflicting and different instructions are issued from users A to C at the next timing, the instruction issued by user B is selected. Also, when multiple conflicting and different instructions are issued from users A to C at the next timing, the instruction issued by user C is selected.

なお、優先すべき指示をユーザ毎に設定しておいてもよい。例えば、ユーザA乃至Cが存在する場合において、ユーザAの優先順位を1位とし、ユーザBの優先順位を2位とし、ユーザCの優先順位を3位とする。この場合において、ユーザA乃至Cから複数の相反する異なる指示が出された場合には、ユーザAから出された指示を選択する。また、ユーザB、Cから複数の相反する異なる指示が出された場合には、ユーザBから出された指示を選択する。また、ユーザA、Cから複数の相反する異なる指示が出された場合には、ユーザAから出された指示を選択する。 Note that instructions to be prioritized may be set for each user. For example, if there are users A to C, the priority of user A may be set to 1st, that of user B to 2nd, and that of user C to 3rd. In this case, if multiple conflicting and different instructions are issued by users A to C, the instruction issued by user A is selected. Also, if multiple conflicting and different instructions are issued by users B and C, the instruction issued by user B is selected. Also, if multiple conflicting and different instructions are issued by users A and C, the instruction issued by user A is selected.

また、指示に基づく処理時間に基づいて、優先すべき指示を決定しておいてもよい。例えば、ユーザA乃至Cから複数の相反する異なる指示が出された場合において、ユーザAの指示に基づく処理時間が11分であり、ユーザBの指示に基づく処理時間が3分であり、ユーザCの指示に基づく処理時間が7分である場合を想定する。この場合には、ユーザBから出された指示を最初に選択して実行する。次に、ユーザCから出された指示を選択して実行し、最後に、ユーザBから出された指示を選択して実行する。 The instruction to be prioritized may also be determined based on the processing time required for the instruction. For example, assume that multiple conflicting instructions are issued by users A to C, and the processing time required for the instructions from user A is 11 minutes, the processing time required for the instructions from user B is 3 minutes, and the processing time required for the instructions from user C is 7 minutes. In this case, the instruction from user B is selected and executed first. Next, the instruction from user C is selected and executed, and finally the instruction from user B is selected and executed.

なお、相反する異なる指示については、指示情報DB132(図4参照)に格納しておくことが可能である。そして、相反する異なる指示が出された場合には、指示情報DB132(図4参照)に格納されている指示情報に基づいて、優先的に選択する指示を決定してもよい。 Note that conflicting instructions can be stored in the instruction information DB 132 (see FIG. 4). When conflicting instructions are issued, the instruction to be preferentially selected may be determined based on the instruction information stored in the instruction information DB 132 (see FIG. 4).

このように、複数のユーザから相反する異なる複数の指示が出された場合には、複数の指示のうちから選択された少なくとも1つの指示が実行されることになる。この場合には、指示が採用されたユーザは相対的に得をする立場となり、指示が採用されなかったユーザは相対的に損をする立場となることが多い。このような場合において、相対的に得する立場となったユーザには、相対的に損する立場となったユーザに対して、申し訳ない、心苦しい等の負債の感情が発生することが多い。このように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに生じる、申し訳ない、心苦しい等の負債の感情(又は負の感情)を、本実施形態では、負債感情と称して説明する。すなわち、負債感情は、得をしたときに負い目があるような感情を意味する。なお、負債感情は、特定感情の一例である。 In this way, when multiple users issue different and conflicting instructions, at least one instruction selected from the multiple instructions will be executed. In this case, the user whose instruction is adopted will be in a relatively advantageous position, and the user whose instruction is not adopted will often be in a relatively disadvantaged position. In such a case, the user who is in a relatively advantageous position will often feel a sense of indebtedness, such as guilt or remorse, toward the user who is in a relatively disadvantaged position. In this way, when there are multiple users, the feelings of indebtedness (or negative feelings), such as guilt or remorse, that arise in some users toward other users will be referred to as indebtedness feelings in this embodiment. In other words, indebtedness feelings refer to feelings of indebtedness when a gain is made. In addition, indebtedness feelings are an example of a specific emotion.

一方、相対的に損する立場となったユーザには、相対的に得する立場となったユーザに対する不満の感情が発生することが多い。このように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに生じる、不満の感情を、本実施形態では、不満感情と称して説明する。すなわち、不満感情は、損をしたことに不満があるような感情を意味する。なお、不満感情は、特定感情の一例である。 On the other hand, users who are relatively at a disadvantage often feel dissatisfied with users who are relatively at a disadvantage. In this embodiment, when there are multiple users, dissatisfaction felt by some users toward other users is referred to as dissatisfaction. In other words, dissatisfaction means a feeling of dissatisfaction at having suffered a disadvantage. Dissatisfaction is an example of a specific emotion.

このように、複数のユーザから相反する異なる複数の指示が出された場合において、指示が採用されたユーザには、他のユーザに対する負債感情が生じる可能性がある。この場合には、指示が採用されたユーザに対して、何らかのフォローをすることが考えられる。例えば、ユーザU1、U2からの相反する異なる複数の指示が出された場合において、ユーザU2の指示が採用された場合を想定する。この場合には、ユーザU2には、ユーザU1に対する負債感情が生じる可能性がある。そこで、エージェント機器200は、負債感情が生じたユーザU2に対して何らかのフォローをすることが考えられる。例えば、エージェント機器200が、負債感情が生じたユーザU2に対して、「だいじょうぶだよ」等の音声情報を発することが考えられる。しかし、エージェント機器200が、「だいじょうぶだよ」等の音声情報を発すると、この音声情報がユーザU1、U2の双方に伝わる。この場合には、ユーザU1は、ユーザU2に対するフォローの気持ちを勝手にユーザU2に聞こえるように伝えてほしくないと考えることも想定される。一方、ユーザU2がその音声情報を聞くと、気まずい気持ち、その場にいることに耐えがたい気持になることも想定される。すなわち、その音声情報が出力されることにより、ユーザU2には、ユーザU1に対する負債感情がさらに高まり、エージェント機器200の使用感が悪くなることも想定される。また、ユーザU2がさらに嫌な気持ちを持つことも想定される。 In this way, when multiple different and conflicting instructions are issued from multiple users, the user whose instructions are adopted may feel indebted to the other users. In this case, it is possible to provide some kind of follow-up to the user whose instructions are adopted. For example, assume that multiple different and conflicting instructions are issued from users U1 and U2, and the instruction from user U2 is adopted. In this case, user U2 may feel indebted to user U1. Therefore, it is possible for the agent device 200 to provide some kind of follow-up to user U2 who has developed a feeling of indebtedness. For example, it is possible for the agent device 200 to emit voice information such as "It's okay" to user U2 who has developed a feeling of indebtedness. However, when the agent device 200 emits voice information such as "It's okay," this voice information is transmitted to both users U1 and U2. In this case, it is also possible that user U1 does not want user U2 to hear his or her feelings of support for user U2 without permission. On the other hand, when user U2 hears that voice information, it is expected that he or she will feel awkward and will find it unbearable to be in that situation. In other words, it is expected that the output of that voice information will further increase user U2's sense of indebtedness toward user U1, and will worsen the user's experience of using the agent device 200. It is also expected that user U2 will feel even more uncomfortable.

そこで、本実施形態では、ユーザU1に知覚され難い態様で、負債感情が生じたユーザU2に対して、その負債感情を緩和させる演出をエージェント機器200に実行させる。このように、負債感情が生じたユーザU2に対して適切なフォローをすることによりエージェント機器200の使い易さを高めることが可能である。また、ユーザU2の嫌な気持ちを解消することが可能である。なお、エージェント機器200に実行させる演出については、図5、図6等を参照して詳細に説明する。 In this embodiment, therefore, the agent device 200 executes a performance that alleviates the feelings of indebtedness felt by user U2, in a manner that is difficult for user U1 to perceive. In this way, by providing appropriate support to user U2 who has developed feelings of indebtedness, it is possible to increase the ease of use of the agent device 200. It is also possible to eliminate the unpleasant feelings of user U2. The performance executed by the agent device 200 will be described in detail with reference to Figures 5, 6, etc.

なお、相反する複数の異なる指示が出されていない場合についても本実施形態を適用可能である。例えば、あるユーザ(ユーザA)の指示に基づく実行が長時間となり、他のユーザ(ユーザB)の指示に基づく実行を待たせるような状況が発生することも想定される。例えば、略同じタイミングで、ユーザU1が「この近くの焼肉が美味しい店を教えて」の指示を出し、ユーザU2が「鎌倉幕府の歴史を教えて」の指示を出した場合を想定する。この場合には、ユーザU1、U2からは相反する内容の指示が出されているわけではないが、それらの各指示を略同じタイミングで実行することは不可能である。そこで、このような場合についても、上述したように、選択基準に基づいて、ユーザU1、U2から出された各指示のうちから適切な指示を実行する順序を選択する。この場合に、例えば、ユーザU2の指示が最初に選択され、「鎌倉幕府の歴史を教えて」に関する情報の出力時間が長くなることも想定される。この場合には、ユーザU1は、自己の指示が実行されるまでの間、待たされることになる。このため、指示が最初に採用されたユーザU2は相対的に得をする立場となり、指示が最初に採用されなかったユーザU1は相対的に損をする立場となる。この場合には、相対的に得する立場となったユーザU2には、相対的に損する立場となったユーザU1に対する負債感情が発生すると考えられる。そこで、このような場合についても、上述したように、ユーザU1に知覚され難い態様で、負債感情が生じたユーザU2に対して、その負債感情を緩和させる演出をエージェント機器200に実行させることが可能である。 This embodiment can also be applied to cases where multiple conflicting instructions are not issued. For example, it is assumed that a situation will occur in which execution based on an instruction from a certain user (user A) takes a long time, causing execution based on an instruction from another user (user B) to wait. For example, assume that user U1 issues an instruction "Tell me a restaurant nearby that serves delicious yakiniku" at approximately the same time, and user U2 issues an instruction "Tell me the history of the Kamakura Shogunate." In this case, although instructions with conflicting contents are not issued from users U1 and U2, it is impossible to execute each of these instructions at approximately the same time. Therefore, even in such a case, as described above, the order of execution of appropriate instructions is selected from among the instructions issued by users U1 and U2 based on the selection criteria. In this case, it is assumed that, for example, the instruction from user U2 is selected first, and the output time of information related to "Tell me the history of the Kamakura Shogunate" will be long. In this case, user U1 will be made to wait until his/her instruction is executed. As a result, user U2, whose instructions were adopted first, is in a position to relatively gain, while user U1, whose instructions were not adopted first, is in a position to relatively lose. In this case, user U2, who is in a relatively advantageous position, is likely to develop a feeling of indebtedness toward user U1, who is in a relatively disadvantaged position. Therefore, even in such a case, as described above, it is possible to cause the agent device 200 to execute a performance that alleviates the feeling of indebtedness of user U2, in a manner that is difficult for user U1 to perceive.

なお、ユーザの損得に関する損得感情については、エージェント機器200に指示が採用されたか否かに基づいて推定が可能である。また、ユーザの損得に関する損得感情については、ユーザの生体情報(例えば、心拍、体温、顔の表面温度、血流、興奮度に関係する情報)と、ユーザの発話内容(例えば、寒いよね等の所定のキーワード)と、ユーザの動作(例えば、体の動きの大きさ、速さ、表情)と、のうちの少なくとも1つに基づいて推定が可能である。また、ユーザの負債感情、不満感情についても同様に、ユーザの生体情報と、ユーザの発話内容と、ユーザの動作と、のうちの少なくとも1つに基づいて推定が可能である。例えば、ユーザの表情、ユーザの動き、ユーザが発する声等に基づいて、ユーザの負債感情を検出することが可能である。なお、ユーザの表情、ユーザの動きについては、カメラ101により取得された画像に基づいて取得可能である。また、ユーザの表情には、ユーザの視線も含まれる。また、ユーザが発する声については、音声入力部103(図4参照)により取得された音声情報に基づいて取得可能である。なお、ユーザの損得感情、負債感情、不満感情の推定方法については、図4等を参照して詳細に説明する。 The user's feelings of gain or loss regarding gain or loss can be estimated based on whether or not the instruction was adopted by the agent device 200. The user's feelings of gain or loss regarding gain or loss can be estimated based on at least one of the following: the user's biometric information (e.g., information related to heart rate, body temperature, surface temperature of the face, blood flow, and excitement level), the user's speech (e.g., a predetermined keyword such as "It's cold"), and the user's movement (e.g., the magnitude, speed, and facial expression of body movement). Similarly, the user's feelings of indebtedness and dissatisfaction can be estimated based on at least one of the user's biometric information, the user's speech, and the user's movement. For example, the user's feelings of indebtedness can be detected based on the user's facial expression, the user's movement, the user's voice, and the like. The user's facial expression and the user's movement can be acquired based on an image acquired by the camera 101. The user's facial expression also includes the user's gaze. The user's voice can be acquired based on voice information acquired by the voice input unit 103 (see FIG. 4). The method for estimating the user's feelings of gain/loss, debt, and dissatisfaction will be described in detail with reference to Figure 4 etc.

なお、本実施形態では、車両C1の乗員として運転席に乗車するユーザU1、U2を例にして説明する。ただし、車両C1に3人以上の乗員が乗車している場合についても本実施形態を適用可能である。 In this embodiment, the following description will be given using an example of users U1 and U2 who are occupants of the vehicle C1 and sit in the driver's seat. However, this embodiment can also be applied to a case where three or more occupants are in the vehicle C1.

[エージェント機器の外観構成例]
図3は、エージェント機器200の外観構成の一例を簡略化して示す正面図である。本実施形態では、エージェント機器200がオン状態であり、かつ、エージェント機器200が通常態様である場合には、表示部210(図4参照)に顔画像が表示される例を示す。なお、車両C1のオン操作に応じて、エージェント機器200をオン状態とすることが可能である。また、エージェント機器200に関するユーザ操作に応じて、エージェント機器200をオン状態とすることが可能である。なお、車両C1のオンオフ操作は、車両C1の起動又は停止に関するスタートキーのオン操作又はオフ操作を意味する。
[Example of agent device appearance]
3 is a front view showing a simplified example of the external configuration of the agent device 200. In this embodiment, an example is shown in which a face image is displayed on the display unit 210 (see FIG. 4) when the agent device 200 is on and in a normal state. The agent device 200 can be turned on in response to an on operation of the vehicle C1. The agent device 200 can also be turned on in response to a user operation on the agent device 200. The on/off operation of the vehicle C1 refers to the on or off operation of a start key related to starting or stopping the vehicle C1.

図3(A)には、エージェント機器200の斜視図を示す。図3(B)には、エージェント機器200の正面図を示す。なお、図3(B)に示すエージェント機器200は、図1に示すエージェント機器200に対応する。図3(C)には、エージェント機器200の上面図を示す。図3(D)には、エージェント機器200の側面図を示す。また、図3(E)(F)には、エージェント機器200の動作態様として、負債感情を緩和させるための特定演出を実行する場合の外観構成例を示す。また、図3(G)には、エージェント機器200の動作態様として、困惑した表情の演出を実行する場合の外観構成例を示す。また、図3(H)には、エージェント機器200の動作態様として、負債感情が緩和した後の演出を実行する場合の外観構成例を示す。なお、負債感情を緩和させるための特定演出は、負債感情が生じたと判定されたタイミングで実行される。また、負債感情が緩和した後の演出は、特定演出の実行後に、負債感情が解消したと判定されたタイミングで実行される。 3A shows a perspective view of the agent device 200. FIG. 3B shows a front view of the agent device 200. The agent device 200 shown in FIG. 3B corresponds to the agent device 200 shown in FIG. 1. FIG. 3C shows a top view of the agent device 200. FIG. 3D shows a side view of the agent device 200. Also, FIG. 3E and FIG. 3F show an example of an external configuration when a specific performance for alleviating the debt feeling is executed as an operation mode of the agent device 200. Also, FIG. 3G shows an example of an external configuration when a performance of a confused expression is executed as an operation mode of the agent device 200. Also, FIG. 3H shows an example of an external configuration when a performance after the debt feeling is alleviated is executed as an operation mode of the agent device 200. The specific performance for alleviating the debt feeling is executed at the timing when it is determined that the debt feeling has occurred. Also, the performance after the debt feeling is alleviated is executed at the timing when it is determined that the debt feeling has been resolved after the execution of the specific performance.

エージェント機器200は、略球状の本体部201から構成される機器であり、本体部201の表面には表示部210が設けられる。表示部210には、各種画像、例えば眼部E1、E2、口部M1が表示される。なお、本体部201の表面の全部に表示部210を設けてもよく、本体部201の表面のうちの一部に表示部210を設けてもよい。また、本体部201の表面のうちの一部に表示部210を設ける場合には、表示部210が設けられている部分以外の部分には、顔を構成する物理的な各部(例えば、耳、鼻)を設けてもよい。 The agent device 200 is a device composed of a roughly spherical main body 201, and a display 210 is provided on the surface of the main body 201. Various images, for example, eyes E1, E2, and mouth M1 are displayed on the display 210. The display 210 may be provided on the entire surface of the main body 201, or on a portion of the surface of the main body 201. Furthermore, when the display 210 is provided on a portion of the surface of the main body 201, the physical parts that make up the face (for example, ears and nose) may be provided on the portions other than the portion where the display 210 is provided.

本実施形態では、車両C1のダッシュボード2上に、眼部E1、E2が車内側を見る方向にエージェント機器200が設置される例を示す。このため、エージェント機器200における眼部E1、E2が表示される部分を含む一の面を前部又は顔部と称して説明する。また、エージェント機器200の前部をエージェント機器200の前側と称し、エージェント機器200の前部とは反対側をエージェント機器200の後側と称して説明する。また、エージェント機器200において、図3における右側をエージェント機器200の左側と称し、図3における左側をエージェント機器200の右側と称して説明する。 In this embodiment, an example is shown in which the agent device 200 is installed on the dashboard 2 of the vehicle C1 in a direction in which the eyes E1 and E2 face the inside of the vehicle. For this reason, in the following description, one side of the agent device 200 including the part where the eyes E1 and E2 are displayed will be referred to as the front or face. In addition, the front of the agent device 200 will be referred to as the front side of the agent device 200, and the side opposite the front of the agent device 200 will be referred to as the rear side of the agent device 200. In addition, in the agent device 200, the right side in FIG. 3 will be referred to as the left side of the agent device 200, and the left side in FIG. 3 will be referred to as the right side of the agent device 200.

本体部201は、エージェント機器200の下部を回動中心として、エージェント機器200の前後方向、すなわち矢印A1(図3(A)(D)参照)方向に回動する。同様に、本体部201は、エージェント機器200の下部を回動中心として、エージェント機器200の左右方向、すなわち矢印A2(図3(B)参照)方向に回動する。同様に、本体部201は、エージェント機器200の下部を回動中心として、硬直方向を軸として回転する方向、すなわち矢印A3(図3(C)参照)方向に回動する。このように、エージェント機器200の下部には、本体部201を駆動させるための駆動部230(図4参照)が設けられる。そして、エージェント機器200の本体部201を左右方向に回転移動させたり、本体部201を前後方向に回転移動させたり、本体部201を左右方向に揺らせたり、本体部201を前後方向に揺らせたりすることが可能となる。 The main body 201 rotates in the forward and backward directions of the agent device 200, i.e., in the direction of arrow A1 (see Figs. 3A and 3D), with the lower part of the agent device 200 as the rotation center. Similarly, the main body 201 rotates in the left and right directions of the agent device 200, i.e., in the direction of arrow A2 (see Fig. 3B), with the lower part of the agent device 200 as the rotation center. Similarly, the main body 201 rotates in the direction of rotation around the rigid direction as the axis, i.e., in the direction of arrow A3 (see Fig. 3C), with the lower part of the agent device 200 as the rotation center. In this way, a drive unit 230 (see Fig. 4) for driving the main body 201 is provided at the lower part of the agent device 200. It is then possible to rotate the main body 201 of the agent device 200 left and right, rotate the main body 201 forward and backward, swing the main body 201 left and right, and swing the main body 201 forward and backward.

また、表示部210は、各種画像を表示することが可能な表示媒体として構成することが可能である。この表示媒体として、例えば、発光シート、液晶表示器、有機EL(Electro Luminescence)等の各種表示媒体を使用可能である。例えば、図3(A)乃至(D)に示すように、通常の眼部E1、E2、口部M1を表示させることができる。 The display unit 210 can be configured as a display medium capable of displaying various images. As this display medium, various display media such as a light-emitting sheet, a liquid crystal display, an organic EL (Electro Luminescence), etc. can be used. For example, as shown in Figs. 3(A) to (D), it is possible to display normal eye parts E1, E2, and mouth part M1.

また、例えば、図3(E)に示すように、眉毛をひそめた状態の眼部E1、E2とともに、汗画像SW1を表示させることができる。また、本体部201を振動させることにより、エージェント機器200が震えている状態を表現することも可能である。また、例えば、図3(F)に示すように、顔の上側に相当する部分B1を、不安の表情を示す所定色(例えば青色)とし、不安の表情を示す縦線画像V1を、その部分B1の一部に表示させることができる。また、図3(E)、(F)に示すように、左右方向(矢印A4、A5方向)に本体部201を揺らせることにより、さらに不安な態度を強調することが可能である。 For example, as shown in FIG. 3(E), a sweat image SW1 can be displayed along with frowning eyes E1, E2. By vibrating the main body 201, it is also possible to express a state in which the agent device 200 is shaking. For example, as shown in FIG. 3(F), the portion B1 corresponding to the upper part of the face can be colored a predetermined color (e.g., blue) indicating an anxious expression, and a vertical line image V1 indicating an anxious expression can be displayed in part of that portion B1. By shaking the main body 201 in the left-right direction (the directions of arrows A4, A5) as shown in FIG. 3(E) and (F), it is possible to further emphasize an anxious attitude.

また、例えば、図3(G)に示すように、困ったような口部M1、眼部E1、E2を表示させることができる。なお、図3(G)に示す表情は、困惑の表情の一例である。また、例えば、図3(H)に示すように、笑ったような口部M1、眼部E1、E2を表示させるとともに、頬を赤くしたような態様の頬画像RS1を表示させることができる。なお、図3(H)に示す表情は、安堵の表情の一例である。 Also, for example, as shown in FIG. 3(G), a troubled-looking mouth M1 and eyes E1, E2 can be displayed. Note that the facial expression shown in FIG. 3(G) is an example of a bewildered facial expression. Also, for example, as shown in FIG. 3(H), a smiling mouth M1 and eyes E1, E2 can be displayed, and a cheek image RS1 with red cheeks can be displayed. Note that the facial expression shown in FIG. 3(H) is an example of a relieved facial expression.

このように、表示部210のうちの少なくとも一部の色を特定色としたり、眼部E1、E2、口部M1を変形させたりすることにより、エージェント機器200が不安の表情、困惑の表情、安堵の表情等をしているような表示態様とすることが可能である。なお、ここで示す表示態様は、一例であり、他の表示態様により各表情を実現してもよい。例えば、眼部E1、E2を左右に早く動かしたり、眼部E1、E2をきょろきょろさせたり、本体部201を左右方向に早く動かしたり、本体部201を左右方向にきょろきょろさせたりすることにより不安の表情を実現してもよい。 In this way, by setting the color of at least a portion of the display unit 210 to a specific color or by deforming the eyes E1, E2 and mouth M1, it is possible to display the agent device 200 in such a manner that it appears anxious, confused, relieved, or the like. Note that the display mode shown here is merely an example, and each expression may be realized by other display modes. For example, an anxious expression may be realized by quickly moving the eyes E1, E2 from side to side, by looking around the eyes E1, E2, by quickly moving the main body unit 201 left and right, or by looking around the main body unit 201 left and right.

このように、本実施形態では、エージェント機器200の各部のうちの少なくとも一部を変化させる動作態様と、エージェント機器200の表面のうちの少なくとも一部の表示状態を変化させる表示態様とによりエージェント機器200を変化させることが可能である。また、その変化を見た車両C1の乗員は、エージェント機器200が何らかの動きをしていると認識可能となる。このため、本実施形態では、これらのエージェント機器200の変化をエージェント機器200の動作態様と称して説明する。 In this manner, in this embodiment, it is possible to change the agent device 200 by an operation mode that changes at least a portion of each part of the agent device 200, and a display mode that changes the display state of at least a portion of the surface of the agent device 200. Furthermore, an occupant of the vehicle C1 who sees the change can recognize that the agent device 200 is making some kind of movement. For this reason, in this embodiment, these changes in the agent device 200 are described as the operation mode of the agent device 200.

なお、これらのエージェント機器200の動作態様は、一例であり、他の動作態様とすることも可能である。例えば、ダッシュボード2上の所定範囲内において、エージェント機器200をスライド移動させることも可能である。例えば、エージェント機器200を前後左右方向にスライド移動させることも可能である。また、例えば、エージェント機器200を一時的に浮かせるような演出も可能である。 Note that these operating modes of the agent device 200 are merely examples, and other operating modes are also possible. For example, the agent device 200 can be slid within a specified range on the dashboard 2. For example, the agent device 200 can be slid forward, backward, left, and right. In addition, for example, it is also possible to create an effect in which the agent device 200 temporarily floats.

なお、図3では、表示部210の表示態様を変更することにより、各表情を2次元的に表現する例を示すが、物理的に設置された眼部、鼻部、口部等の各部材を変化させることにより、各表情を3次元的に表現して実現してもよい。この場合には、例えば、眼部材を移動させたり、眼部材の表面に黒画像、白画像を表示させたりして眼の動きを表現してもよい。 Note that FIG. 3 shows an example in which each facial expression is expressed two-dimensionally by changing the display mode of the display unit 210, but each facial expression may be expressed three-dimensionally by changing each physically installed component such as the eyes, nose, and mouth. In this case, eye movement may be expressed, for example, by moving the eye component or by displaying a black or white image on the surface of the eye component.

また、本実施形態では、顔部のみを備えるエージェント機器200の例を示すが、他の身体の一部(例えば、手、足)をエージェント機器200に備えてもよい。この場合には、これらの各部(例えば、手、足)を変化させて各態度(例えば緩和させる態度、安堵の態度)を実現してもよい。例えば、手を頭や顔に当てるように変化させたり、足や手をバタバタさせたりする動きを各態度として表現してもよい。 In addition, although this embodiment shows an example of an agent device 200 that only has a face, other body parts (e.g., hands, feet) may also be provided in the agent device 200. In this case, each of these parts (e.g., hands, feet) may be changed to realize each attitude (e.g., a relaxed attitude, a relieved attitude). For example, each attitude may be expressed by changing the hands to touch the head or face, or by flapping the feet or hands.

なお、これらのエージェント機器200の形状、表示態様、音声出力態様は、一例であり、他の形状、表示態様、音声出力態様とすることも可能である。また、図3では、略球状の本体部201が顔部として機能するエージェント機器200を例にして示すが、本発明はこれに限定されない。例えば、平板状の本体部(例えば、平面状の表示パネル)が顔部として機能する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を一体の筐体として構成する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を別体として構成する機器をエージェント機器200としてもよい。 These shapes, display modes, and audio output modes of the agent device 200 are merely examples, and other shapes, display modes, and audio output modes are also possible. Also, while FIG. 3 shows an example of an agent device 200 in which an approximately spherical main body 201 functions as a face, the present invention is not limited to this. For example, the agent device 200 may be a device in which a flat main body (e.g., a planar display panel) functions as a face. Also, the agent device 200 may be a device in which the face and body are configured as an integrated housing. Also, the agent device 200 may be a device in which the face and body are configured as separate bodies.

また、本実施形態では、生き物らしさを表す画像(生き物表示)として顔画像を表示する例を示すが、他の画像(例えば、エージェントの全身、機械的なもの、仮想的な顔)を生き物らしさを表す画像として表示してもよい。 In addition, in this embodiment, an example is shown in which a face image is displayed as an image that represents lifelikeness (animal display), but other images (for example, the entire body of an agent, a mechanical object, or a virtual face) may also be displayed as an image that represents lifelikeness.

[情報処理システムの構成例]
図4は、車両C1に設置されている情報処理システム100のシステム構成の一例を示す図である。
[Example of configuration of information processing system]
FIG. 4 is a diagram showing an example of a system configuration of an information processing system 100 installed in the vehicle C1.

情報処理システム100は、カメラ101と、位置情報取得センサ102と、音声入力部103と、センサ類104と、情報処理装置110と、エージェント機器200とを備える。なお、情報処理装置110及びエージェント機器200は、有線通信又は無線通信を利用した通信方式によって接続される。また、情報処理装置110は、無線通信を利用した通信方式によってネットワーク20に接続されている。ネットワーク20は、公衆回線網、インターネット等のネットワークである。なお、エージェント機器200についても、無線通信を利用した通信方式によってネットワーク20に接続してもよい。なお、図3では、情報処理装置110及びエージェント機器200を別体として構成する例を示すが、情報処理装置110及びエージェント機器200を一体の機器として構成してもよい。 The information processing system 100 includes a camera 101, a position information acquisition sensor 102, a voice input unit 103, sensors 104, an information processing device 110, and an agent device 200. The information processing device 110 and the agent device 200 are connected by a communication method using wired communication or wireless communication. The information processing device 110 is connected to a network 20 by a communication method using wireless communication. The network 20 is a network such as a public line network or the Internet. The agent device 200 may also be connected to the network 20 by a communication method using wireless communication. Although FIG. 3 shows an example in which the information processing device 110 and the agent device 200 are configured as separate entities, the information processing device 110 and the agent device 200 may also be configured as an integrated device.

カメラ101は、情報処理装置110の制御に基づいて、被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する画像情報を情報処理装置110に出力する。カメラ101は、車両C1のうちの少なくとも内部に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成する。なお、図1では、車両C1の内部に設けられているカメラ101を示す。上述したように、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、1つのカメラ101を車両C1の前方に設け、車両C1の前方からの被写体を撮像して画像(画像データ)を生成してもよく、他のカメラ101を車両C1の後方に設け、車両C1からの後方の被写体を撮像して画像(画像データ)を生成してもよい。 The camera 101 captures an image of a subject and generates an image (image data) based on the control of the information processing device 110, and outputs image information related to the generated image to the information processing device 110. The camera 101 is provided at least inside the vehicle C1, and captures an image of a subject inside the vehicle C1 to generate an image (image data). Note that FIG. 1 shows the camera 101 provided inside the vehicle C1. As described above, the camera 101 is composed of, for example, one or more camera devices or image sensors capable of capturing an image of a subject. For example, one camera 101 may be provided in front of the vehicle C1 to capture an image of a subject from in front of the vehicle C1 to generate an image (image data), and another camera 101 may be provided behind the vehicle C1 to capture an image of a subject behind the vehicle C1 to generate an image (image data).

位置情報取得センサ102は、車両C1が存在する位置に関する位置情報を取得するものであり、取得された位置情報を情報処理装置110に出力する。例えば、GNSS(Global Navigation Satellite System:全球測位衛星システム)を利用して位置情報を取得するGNSS受信機により実現できる。また、その位置情報には、GNSS信号の受信時における緯度、経度、高度等の位置に関する各データが含まれる。また、他の位置情報の取得方法により位置情報を取得してもよい。例えば、周囲に存在するアクセスポイントや基地局からの情報を用いて位置情報を導き出してもよい。また、ビーコンを用いて位置情報を取得してもよい。例えば、位置情報取得センサ102により取得された情報に基づいて、車両C1の状態、例えば、走行中、停止中、後進中を判定可能である。 The position information acquisition sensor 102 acquires position information on the position where the vehicle C1 is located, and outputs the acquired position information to the information processing device 110. For example, this can be realized by a GNSS receiver that acquires position information using the Global Navigation Satellite System (GNSS). The position information includes data on the position such as latitude, longitude, and altitude at the time of receiving the GNSS signal. The position information may also be acquired by other methods of acquiring position information. For example, the position information may be derived using information from access points or base stations in the vicinity. The position information may also be acquired using a beacon. For example, the state of the vehicle C1, for example, whether it is running, stopped, or reversing, can be determined based on the information acquired by the position information acquisition sensor 102.

また、例えば、車両C1が走行する道路を位置情報取得センサ102により取得された位置情報に基づいて判定可能である。 In addition, for example, the road on which the vehicle C1 is traveling can be determined based on the position information acquired by the position information acquisition sensor 102.

音声入力部103は、車両C1の内部に設けられ、情報処理装置110の制御に基づいて、車両C1の内部の音を取得するものであり、取得された音に関する音情報を情報処理装置110に出力する。音声入力部103として、例えば、1又は複数のマイクや音取得センサを用いることができる。 The audio input unit 103 is provided inside the vehicle C1 and acquires sounds inside the vehicle C1 based on the control of the information processing device 110, and outputs sound information related to the acquired sounds to the information processing device 110. As the audio input unit 103, for example, one or more microphones or sound acquisition sensors can be used.

センサ類104は、車両C1に設置されている各種のセンサであり、各センサにより取得された検出情報を情報処理装置110に出力する。センサ類は、例えば、LiDAR(Light Detection And Ranging)、RADAR(Radio Detection And Ranging)、Sonar、人感センサ、車速センサ、加速度センサ、着座センサ、シートベルトセンサ、非接触温度センサ等である。なお、これらは一例であり、他のセンサを用いてもよい。また、これらのうちの一部のセンサのみを用いてもよい。 The sensors 104 are various sensors installed in the vehicle C1, and output detection information acquired by each sensor to the information processing device 110. The sensors are, for example, LiDAR (Light Detection And Ranging), RADAR (Radio Detection And Ranging), Sonar, a human presence sensor, a vehicle speed sensor, an acceleration sensor, a seating sensor, a seat belt sensor, a non-contact temperature sensor, etc. Note that these are only examples, and other sensors may be used. Also, only some of these sensors may be used.

人感センサは、車両C1の内部に存在する人の有無、人数、位置、状態等を検出するセンサである。例えば、赤外線、超音波、可視光、撮像素子等を用いる人感センサを用いることが可能である。例えば、運転席、助手席、後部座席の何れかに人が着座している場合には、その人の存在を人感センサにより検出可能である。また、人感センサ及び着座センサの双方を用いることにより、各座席の着座状態の検出精度を高めることが可能である。また、これらにより、エージェント機器200が対象とする人物の位置を特定することが可能である。 The human presence sensor is a sensor that detects the presence, number, location, and status of people inside the vehicle C1. For example, a human presence sensor that uses infrared rays, ultrasound, visible light, an image sensor, or the like can be used. For example, if a person is seated in the driver's seat, the passenger seat, or the back seat, the presence of that person can be detected by the human presence sensor. Furthermore, by using both a human presence sensor and a seating sensor, it is possible to increase the accuracy of detecting the seating status of each seat. These also make it possible for the agent device 200 to identify the location of the person of interest.

着座センサ(又はシートセンサ)は、車両C1の各座席に着座している乗員の有無を検出するセンサである。シートベルトセンサは、車両C1の各座席に着座している乗員がシートベルトを着用しているか否かを検出するセンサである。 The seating sensor (or seat sensor) is a sensor that detects whether or not an occupant is seated in each seat of the vehicle C1. The seat belt sensor is a sensor that detects whether or not an occupant is wearing a seat belt.

非接触温度センサは、車両C1の乗員の体温を非接触状態で検出するセンサである。例えば、ユーザU1の顔の表面の温度を非接触温度センサにより計測可能である。これらの各センサについては、公知のセンサを用いることが可能である。 The non-contact temperature sensor is a sensor that detects the body temperature of an occupant of the vehicle C1 in a non-contact manner. For example, the temperature of the surface of the face of the user U1 can be measured by the non-contact temperature sensor. Publicly known sensors can be used for each of these sensors.

情報処理装置110は、制御部120と、記憶部130と、通信部140とを備える。通信部140は、制御部120の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。例えば、通信部140は、ユーザU1が所持する電子機器MC1、ユーザU2が所持する電子機器MC2等との間で各種情報のやりとりを行うものである。この場合に、通信部140は、ネットワーク20を介して電子機器MC1、MC2との間で無線通信を実行してもよく、ネットワーク20を介さずに電子機器MC1、MC2との間で直接無線通信(例えば、近距離無線通信)を実行してもよい。なお、電子機器MC1、MC2は、例えば、スマートフォン、タブレット端末、携帯型のパーソナルコンピュータ等の情報処理装置である。例えば、電子機器MC1、MC2は、表示部に各種画像を表示したり、音出力部から音声出力をしたりする出力機器として機能する。 The information processing device 110 includes a control unit 120, a storage unit 130, and a communication unit 140. The communication unit 140 exchanges various information with other devices using wired or wireless communication based on the control of the control unit 120. For example, the communication unit 140 exchanges various information with an electronic device MC1 owned by a user U1, an electronic device MC2 owned by a user U2, and the like. In this case, the communication unit 140 may perform wireless communication with the electronic devices MC1 and MC2 via the network 20, or may perform direct wireless communication (for example, short-range wireless communication) with the electronic devices MC1 and MC2 without using the network 20. The electronic devices MC1 and MC2 are, for example, information processing devices such as smartphones, tablet terminals, and portable personal computers. For example, the electronic devices MC1 and MC2 function as output devices that display various images on a display unit and output sound from a sound output unit.

制御部120は、記憶部130に記憶されている各種プログラムに基づいて各部を制御するものである。制御部120は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の処理装置により実現される。例えば、GPUを用いて画像処理を実行することにより演算速度を速めることが可能である。また、GPUを用いて並列演算を実行することにより演算速度をさらに速めることが可能である。なお、車両C1の車両ECU(Electronic Control Unit)を制御部120としても使用してもよく、車両ECUとは異なる処理装置を制御部120として設けてもよい。なお、制御部120は、文字を音声に変換する変換機能を備える。この変換機能は、例えば、TTS(Text to Speech)により実現される。 The control unit 120 controls each unit based on various programs stored in the storage unit 130. The control unit 120 is realized by a processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). For example, the calculation speed can be increased by performing image processing using the GPU. The calculation speed can be further increased by performing parallel calculations using the GPU. The vehicle ECU (Electronic Control Unit) of the vehicle C1 may be used as the control unit 120, or a processing device different from the vehicle ECU may be provided as the control unit 120. The control unit 120 has a conversion function that converts characters into speech. This conversion function is realized by, for example, TTS (Text to Speech).

制御部120は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、エージェント機器200の動作状態を制御する制御処理を実行する。具体的には、制御部120は、指示受付部121と、損得感情判定部122と、負債感情判定部123と、不満感情判定部124と、エージェント制御部125とを備える。 The control unit 120 executes a control process to control the operating state of the agent device 200 based on the information output from the camera 101, the position information acquisition sensor 102, the voice input unit 103, the sensors 104, the communication unit 140, etc. Specifically, the control unit 120 includes an instruction receiving unit 121, a profit/loss emotion determination unit 122, a debt emotion determination unit 123, a dissatisfaction emotion determination unit 124, and an agent control unit 125.

指示受付部121は、車両C1の乗員から出された1又は複数の指示に関する指示情報を受け付けるものであり、受け付けた指示情報を、損得感情判定部122、負債感情判定部123、不満感情判定部124、エージェント制御部125に出力する。例えば、車両C1の乗員が発した音声(指示をする音声)が音声入力部103により取得され、この音声に関する情報が指示情報として指示受付部121に出力される。ここで、上述したように、車両C1の複数の乗員から複数の指示が出された場合に、これらの各指示が相反する異なる指示であることも想定される。このような場合には、指示受付部121は、相反する異なる複数の指示のうちから、エージェント機器200に実行させる指示を選択する選択処理を実行し、その選択した指示に関する選択情報を、損得感情判定部122、負債感情判定部123、不満感情判定部124、エージェント制御部125に出力する。なお、この選択処理については、上述した選択処理と同様である。 The instruction receiving unit 121 receives instruction information regarding one or more instructions issued by the occupant of the vehicle C1, and outputs the received instruction information to the profit/loss emotion determination unit 122, the debt emotion determination unit 123, the dissatisfaction emotion determination unit 124, and the agent control unit 125. For example, the voice (voice giving instructions) uttered by the occupant of the vehicle C1 is acquired by the voice input unit 103, and information regarding this voice is output to the instruction receiving unit 121 as instruction information. Here, as described above, when multiple instructions are issued by multiple occupants of the vehicle C1, it is assumed that these instructions are different and contradictory. In such a case, the instruction receiving unit 121 executes a selection process to select an instruction to be executed by the agent device 200 from the multiple contradictory and different instructions, and outputs selection information regarding the selected instruction to the profit/loss emotion determination unit 122, the debt emotion determination unit 123, the dissatisfaction emotion determination unit 124, and the agent control unit 125. Note that this selection process is the same as the selection process described above.

損得感情判定部122は、車両C1の乗員から相反する異なる複数の指示が出された場合に、指示受付部121による選択処理の選択結果に基づいて、車両C1の乗員の損得感情を判定するものである。そして、損得感情判定部122は、その判定結果を負債感情判定部123、不満感情判定部124、エージェント制御部125に出力する。また、損得感情判定部122は、指示受付部121による選択処理の選択結果とともに、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1の乗員の損得感情を判定してもよい。なお、損得感情の判定方法については後述する。 The profit/loss emotion determination unit 122 determines the profit/loss emotion of the occupant of the vehicle C1 based on the selection result of the selection process by the instruction receiving unit 121 when multiple conflicting instructions are issued by the occupant of the vehicle C1. The profit/loss emotion determination unit 122 then outputs the determination result to the debt emotion determination unit 123, the dissatisfaction emotion determination unit 124, and the agent control unit 125. The profit/loss emotion determination unit 122 may also determine the profit/loss emotion of the occupant of the vehicle C1 based on the selection result of the selection process by the instruction receiving unit 121, as well as each piece of information output from the camera 101, the position information acquisition sensor 102, the voice input unit 103, the sensors 104, the communication unit 140, etc. The method of determining the profit/loss emotion will be described later.

負債感情判定部123は、車両C1の乗員から相反する異なる複数の指示が出された場合に、車両C1の乗員の負債感情を判定するものであり、その判定結果をエージェント制御部125に出力する。具体的には、負債感情判定部123は、損得感情判定部122から出力された損得感情の判定結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1の乗員の負債感情を判定する。なお、負債感情の判定方法については後述する。 The debt emotion determination unit 123 determines the debt emotion of the occupant of the vehicle C1 when multiple conflicting instructions are issued by the occupant of the vehicle C1, and outputs the determination result to the agent control unit 125. Specifically, the debt emotion determination unit 123 determines the debt emotion of the occupant of the vehicle C1 based on the judgment result of the gain/loss emotion output from the gain/loss emotion determination unit 122 and each piece of information output from the camera 101, the position information acquisition sensor 102, the voice input unit 103, the sensors 104, the communication unit 140, etc. The method of determining the debt emotion will be described later.

不満感情判定部124は、車両C1の乗員から相反する異なる複数の指示が出された場合に、車両C1の乗員の不満感情を判定するものであり、その判定結果をエージェント制御部125に出力する。具体的には、不満感情判定部124は、損得感情判定部122から出力された損得感情の判定結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1の乗員の不満感情を判定する。なお、不満感情の判定方法については後述する。 The dissatisfied emotion determination unit 124 determines the dissatisfied emotion of the occupant of the vehicle C1 when multiple conflicting instructions are issued by the occupant of the vehicle C1, and outputs the determination result to the agent control unit 125. Specifically, the dissatisfied emotion determination unit 124 determines the dissatisfied emotion of the occupant of the vehicle C1 based on the determination result of the gain/loss emotion output from the gain/loss emotion determination unit 122 and each piece of information output from the camera 101, the position information acquisition sensor 102, the voice input unit 103, the sensors 104, the communication unit 140, etc. The method of determining dissatisfaction will be described later.

このように、損得感情判定部122、負債感情判定部123、不満感情判定部124は、車両C1の乗員のうち、得したユーザ、損したユーザ、負債感情が生じたユーザ、不満が生じたユーザ等を判定するものである。すなわち、損得感情判定部122、負債感情判定部123、不満感情判定部124は、車両C1の乗員に関する特定感情、不快状態等を検出する検出部として機能する。 In this way, the gain/loss emotion determination unit 122, the liability emotion determination unit 123, and the dissatisfaction emotion determination unit 124 determine, among the occupants of the vehicle C1, users who have gained, users who have lost, users who have incurred liabilities, users who have incurred dissatisfaction, etc. In other words, the gain/loss emotion determination unit 122, the liability emotion determination unit 123, and the dissatisfaction emotion determination unit 124 function as detection units that detect specific emotions, unpleasant states, etc., related to the occupants of the vehicle C1.

エージェント制御部125は、エージェント機器200の動作状態を制御するものである。具体的には、エージェント制御部125は、指示受付部121から出力された指示情報と、損得感情判定部122、負債感情判定部123、不満感情判定部124による判定結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報とに基づいて、エージェント機器200の動作状態を制御する。例えば、エージェント制御部125は、擬生物化されたエージェントの顔を構成する各部(例えば、眼部E1、E2、口部M1)を表示部210に表示させる。また、エージェント制御部125は、車両C1の乗員に報知すべき情報(報知情報)を表示部210に表示させる。また、エージェント制御部125は、擬生物化されたエージェントの音声、車両C1の乗員に報知すべき情報に対応する音声等を音出力部220から出力させる。 The agent control unit 125 controls the operating state of the agent device 200. Specifically, the agent control unit 125 controls the operating state of the agent device 200 based on the instruction information output from the instruction receiving unit 121, the judgment results by the profit/loss emotion judgment unit 122, the debt emotion judgment unit 123, and the dissatisfaction emotion judgment unit 124, and each piece of information output from the camera 101, the position information acquisition sensor 102, the voice input unit 103, the sensors 104, the communication unit 140, and the like. For example, the agent control unit 125 displays each part (e.g., the eyes E1, E2, and the mouth M1) constituting the face of the mimicked agent on the display unit 210. The agent control unit 125 also displays information (notification information) to be notified to the occupant of the vehicle C1 on the display unit 210. The agent control unit 125 also outputs the voice of the mimicked agent, the voice corresponding to the information to be notified to the occupant of the vehicle C1, and the like from the sound output unit 220.

例えば、エージェント制御部125は、表示部210に表示させる報知情報と、音出力部220から出力させる報知情報とを決定し、それらの報知情報を出力させる制御を実行する。なお、車両C1の内部に存在する対象物に関する報知情報については、報知情報DB133に格納されている。例えば、シートベルトの着用に関する報知情報である場合には、シートベルトの着用に関する音声情報を報知情報として出力する。なお、シートベルトを示す画像を報知情報として表示部210に表示してもよい。 For example, the agent control unit 125 determines the notification information to be displayed on the display unit 210 and the notification information to be output from the sound output unit 220, and executes control to output the notification information. Note that notification information related to objects present inside the vehicle C1 is stored in the notification information DB 133. For example, in the case of notification information related to fastening a seat belt, audio information related to fastening a seat belt is output as the notification information. Note that an image showing a seat belt may be displayed on the display unit 210 as the notification information.

また、例えば、エージェント制御部125は、負債感情(又は得感情)が生じたユーザが検出された場合には、そのユーザ以外の他のユーザに知覚され難い態様で、そのユーザに対して負債感情を緩和させる演出をエージェント機器200に実行させる。例えば、図5(D)、図6(D1)乃至(D3)に示すように、エージェント機器200に所定の演出を実行させる。この演出として、所定の音声出力、所定の振舞い等を実行することが可能である。 For example, when the agent control unit 125 detects a user who has developed a feeling of indebtedness (or a feeling of gain), it causes the agent device 200 to execute a performance that alleviates the feeling of indebtedness of the user in a manner that is difficult for other users to perceive. For example, as shown in FIG. 5 (D) and FIG. 6 (D1) to (D3), it causes the agent device 200 to execute a predetermined performance. As this performance, it is possible to execute a predetermined sound output, a predetermined behavior, etc.

また、例えば、エージェント制御部125は、不満感情が生じたユーザが検出された場合には、そのユーザ以外の他のユーザに知覚され難い態様で、そのユーザに対して不満感情を緩和させる演出をエージェント機器200に実行させる。例えば、図5(E)、図5(F)に示すように、エージェント機器200に所定の演出を実行させる。この演出として、所定の音声出力、所定の振舞い等を実行することが可能である。このように、エージェント制御部125は、車両C1の乗員のうち、他方に知覚され難い態様で一方をフォローする装置として機能する。 Furthermore, for example, when the agent control unit 125 detects a user who is feeling dissatisfied, it causes the agent device 200 to execute a performance that alleviates the user's feeling of dissatisfaction in a manner that is difficult for other users to perceive. For example, as shown in Figures 5 (E) and 5 (F), it causes the agent device 200 to execute a predetermined performance. This performance can include a predetermined voice output, a predetermined behavior, and the like. In this way, the agent control unit 125 functions as a device that follows one of the occupants of the vehicle C1 in a manner that is difficult for the other users to perceive.

記憶部130は、各種情報を記憶する記憶媒体である。例えば、記憶部130には制御部120が各種処理を行うために必要となる各種情報(例えば、制御プログラム、エージェント情報DB131、指示情報DB132、報知情報DB133、地図情報DB134、周囲状況DB135、ユーザ状態DB136)が記憶される。また、記憶部130には、通信部140を介して取得された各種情報が記憶される。記憶部130として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせを用いることができる。 The storage unit 130 is a storage medium that stores various types of information. For example, the storage unit 130 stores various types of information (e.g., a control program, an agent information DB 131, an instruction information DB 132, an alarm information DB 133, a map information DB 134, a surrounding situation DB 135, and a user state DB 136) that is required for the control unit 120 to perform various processes. The storage unit 130 also stores various types of information acquired via the communication unit 140. For example, the storage unit 130 can be a read only memory (ROM), a random access memory (RAM), a static random access memory (SRAM), a hard disk drive (HDD), a solid state drive (SSD), or a combination of these.

エージェント情報DB131には、エージェント機器200の各種動作を実現するために必要となる情報が格納されている。例えば、表示部210に表示される顔画像情報(例えば、眼部E1、E2、汗画像SW1、縦線画像V1、頬画像RS1、口部M1)と、音出力部220から出力される音声情報とがエージェント情報DB131に格納される。また、例えば、負債感情を緩和させる演出、不満感情を緩和させる演出の実行時にエージェント機器200を動作させるための動作情報等がエージェント情報DB131に格納される。 The agent information DB 131 stores information required to realize various operations of the agent device 200. For example, facial image information (e.g., eyes E1, E2, sweat image SW1, vertical line image V1, cheek image RS1, mouth M1) displayed on the display unit 210 and audio information output from the sound output unit 220 are stored in the agent information DB 131. In addition, for example, operation information for operating the agent device 200 when performing an effect to alleviate feelings of indebtedness or an effect to alleviate feelings of dissatisfaction is stored in the agent information DB 131.

指示情報DB132には、車両C1の乗員から出される各指示のうち、相反する異なる複数の指示を特定するために必要となる情報が格納されている。例えば、相反する異なる複数の指示の組み合わせに関する情報(例えば、エアコンの温度を上げてとエアコンの温度を下げての組み合わせ、同時に出されるラジオ局の選択)が指示情報DB132に格納される。 The instruction information DB132 stores information required to identify multiple conflicting instructions issued by the occupants of the vehicle C1. For example, information regarding combinations of multiple conflicting instructions (e.g., a combination of increasing the air conditioner temperature and decreasing the air conditioner temperature, and a selection of radio stations issued at the same time) is stored in the instruction information DB132.

報知情報DB133には、車両C1の内部又は外部に存在する対象物に関する報知情報を出力するために必要となる情報が格納されている。例えば、半ドアに関する報知情報である場合には、ドアを示す画像情報と半ドアを報知するための音声情報とが報知情報として報知情報DB133に格納される。また、例えば、シートベルトの着用に関する報知情報である場合には、シートベルトを示す画像情報とシートベルトの着用を報知するための音声情報とが報知情報として報知情報DB133に格納される。 Information DB133 is stored information required to output notification information regarding objects present inside or outside vehicle C1. For example, in the case of notification information regarding a half-open door, image information showing the door and audio information for notifying the driver of the half-open door are stored as notification information in the notification information DB133. In addition, in the case of notification information regarding fastening a seat belt, image information showing the seat belt and audio information for notifying the driver to fasten the seat belt are stored as notification information in the notification information DB133.

地図情報DB134には、車両C1の経路案内に必要となる道路に関する道路情報等の地図情報が格納されている。その地図情報には、道路の勾配、道路の交差点、道路の車線数、道幅情報、道路の起伏情報、悪路状態が含まれる。また、地図情報には、速度制限、一方通行等を示す道路標識、横断歩道、区画線等を示す道路標示も含まれる。また、地図情報には、道路構造物(例えば信号機、電信柱)、建物等の施設情報、周囲の観光案内情報等を含めてもよい。なお、エージェント情報DB131、指示情報DB132、報知情報DB133、地図情報DB134については、車両C1が備える記憶部130に記憶して用いてもよく、ネットワーク20を介して外部機器から取得して用いてもよい。 The map information DB 134 stores map information such as road information on roads required for route guidance of the vehicle C1. The map information includes road gradients, road intersections, the number of lanes on the road, road width information, road undulation information, and bad road conditions. The map information also includes road signs indicating speed limits and one-way streets, crosswalks, dividing lines, and other road markings. The map information may also include information on facilities such as road structures (e.g., traffic lights and telephone poles), buildings, and tourist information about the surrounding area. The agent information DB 131, instruction information DB 132, notification information DB 133, and map information DB 134 may be stored in the memory unit 130 of the vehicle C1 and used, or may be obtained from an external device via the network 20 and used.

周囲状況DB135には、車両C1の周囲の状況に関する情報が格納されている。これらの情報は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。 The surrounding situation DB 135 stores information about the surrounding situation of the vehicle C1. This information is acquired and stored based on the information output from the camera 101, the position information acquisition sensor 102, the voice input unit 103, the sensors 104, the communication unit 140, etc.

周囲状況DB135に格納された情報については、車両C1の周囲の状況に関する情報を検出する際における検出精度を向上させるための学習に使用することが可能である。 The information stored in the surrounding conditions DB135 can be used for learning to improve the detection accuracy when detecting information about the surrounding conditions of the vehicle C1.

ユーザ状態DB136には、ユーザU1の状態に関する情報が格納されている。これらの情報は、カメラ101、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。 The user status DB 136 stores information about the status of the user U1. This information is acquired and stored based on the information output from the camera 101, the voice input unit 103, the sensors 104, the communication unit 140, etc.

ユーザ状態DB136については、ユーザU1の状態に関する情報を検出する際における検出精度を向上させるための学習に使用することが可能である。 The user status DB136 can be used for learning to improve the detection accuracy when detecting information about the status of user U1.

エージェント機器200は、情報処理装置110からの指示に基づいて各種動作を実行するロボット機器である。エージェント機器200は、表示部210と、音出力部220と、駆動部230とを備える。なお、表示部210、音出力部220及び駆動部230は、エージェント機器200が備える制御部(図示省略)に基づいて制御される。 The agent device 200 is a robot device that performs various operations based on instructions from the information processing device 110. The agent device 200 includes a display unit 210, a sound output unit 220, and a drive unit 230. The display unit 210, the sound output unit 220, and the drive unit 230 are controlled based on a control unit (not shown) included in the agent device 200.

表示部210は、情報処理装置110からの指示に基づいて、各種画像を表示する表示部である。なお、表示部210として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)パネル等の表示パネルを用いることができる。なお、表示部210については、使用者がその指を表示面に接触又は近接することにより操作入力を行うことが可能なタッチパネルとして構成してもよく、別体のユーザインタフェースとして構成してもよい。 The display unit 210 is a display unit that displays various images based on instructions from the information processing device 110. As the display unit 210, for example, a display panel such as an organic EL (Electro Luminescence) panel or an LCD (Liquid Crystal Display) panel can be used. The display unit 210 may be configured as a touch panel that allows a user to input operations by touching or approaching the display surface with their finger, or may be configured as a separate user interface.

音出力部220は、情報処理装置110からの指示に基づいて、各種音声を出力するものである。音出力部220として、例えば、1又は複数のスピーカを用いることができる。なお、表示部210及び音出力部220は、ユーザインタフェースの一例であり、これらのうちの一部を省略してもよく、他のユーザインタフェースを用いてもよい。 The sound output unit 220 outputs various sounds based on instructions from the information processing device 110. For example, one or more speakers can be used as the sound output unit 220. Note that the display unit 210 and the sound output unit 220 are examples of user interfaces, and some of them may be omitted, or other user interfaces may be used.

駆動部230は、情報処理装置110からの指示に基づいて、エージェント機器200の本体部201、エージェント機器200の各部を駆動するものである。例えば、駆動部230は、図3(A)乃至(H)に示すように、本体部201を回動させたり、振動させたりする機構を実現する駆動装置である。例えば、駆動部230は、エージェント機器200を移動させたり、本体部201を回動させたりすることが可能なモータ、サーボモータ等により構成される。 The driving unit 230 drives the main body 201 of the agent device 200 and each part of the agent device 200 based on instructions from the information processing device 110. For example, the driving unit 230 is a driving device that realizes a mechanism for rotating and vibrating the main body 201, as shown in Figures 3 (A) to (H). For example, the driving unit 230 is composed of a motor, servo motor, etc. that can move the agent device 200 and rotate the main body 201.

[ユーザの損得感情の判定例]
次に、ユーザの損得感情を判定する判定方法について説明する。ユーザの損得感情は、上述したように、指示受付部121によるユーザからの指示の選択結果、エージェント機器200による処理の実行後の状況等に基づいて判定が可能である。エージェント機器200による処理の実行後の状況は、例えば、その処理の対象となった周囲の環境に関する環境情報、その処理の対象となった各ユーザに関する検出情報等である。なお、各ユーザに関する検出情報は、例えば、ユーザの生体情報(例えば、心拍、血脈)、ユーザから発せられる音、ユーザの外観(例えば、表情、動き)等である。
[Example of determining user's gain/loss feelings]
Next, a method for determining the user's feelings of gain or loss will be described. As described above, the user's feelings of gain or loss can be determined based on the result of the selection of the instruction from the user by the instruction receiving unit 121, the situation after the execution of the processing by the agent device 200, and the like. The situation after the execution of the processing by the agent device 200 is, for example, environmental information related to the surrounding environment that was the target of the processing, detected information related to each user that was the target of the processing, and the like. The detected information related to each user is, for example, the user's biological information (for example, heart rate, blood vessels), sounds emitted by the user, the user's appearance (for example, facial expression, movement), and the like.

[エージェント機器による指示の選択結果に基づく判定例]
例えば、複数のユーザから相反する異なる複数の指示が出された場合には、指示受付部121は、それらの各指示のうちからエージェント機器200に実行させる指示を選択する。この選択処理については、上述した選択処理と同様である。次に、損得感情判定部122は、指示受付部121から出力された指示情報及び選択情報に基づいて、それらの各指示のうちから指示受付部121により選択された指示を出したユーザを、得感情が生じたユーザとして判定する。一方、損得感情判定部122は、得感情が生じたと判定されたユーザ以外のユーザを、損感情が生じたユーザとして判定する。例えば、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合を想定する。この場合には、エージェント機器200は、周囲の状況、ユーザU1、U2に関する各検出情報等に基づいて、実行対象とする指示を選択する。例えば、ユーザU2の指示「エアコンの温度を上げて」が選択された場合を想定する。この場合には、損得感情判定部122は、ユーザU2を得感情が生じたユーザとして判定し、ユーザU1を損感情が生じたユーザとして判定する。
[Example of judgment based on the selection result of the instruction by the agent device]
For example, when multiple users issue multiple conflicting instructions, the instruction receiving unit 121 selects an instruction to be executed by the agent device 200 from among the instructions. This selection process is the same as the selection process described above. Next, the gain/loss emotion determination unit 122 determines the user who issued the instruction selected by the instruction receiving unit 121 from among the instructions based on the instruction information and selection information output from the instruction receiving unit 121 as a user who has experienced a gain emotion. On the other hand, the gain/loss emotion determination unit 122 determines the users other than the user who has been determined to have experienced a gain emotion as a user who has experienced a loss emotion. For example, assume that user U1 issues an instruction to "lower the temperature of the air conditioner" and user U2 issues an instruction to "increase the temperature of the air conditioner." In this case, the agent device 200 selects an instruction to be executed based on the surrounding situation, each of the detection information related to users U1 and U2, and the like. For example, assume that the instruction "increase the temperature of the air conditioner" from user U2 is selected. In this case, the gain/loss emotion determination unit 122 determines user U2 as a user who has experienced a gain emotion, and determines user U1 as a user who has experienced a loss emotion.

なお、車両C1に乗車する各ユーザ及びその位置については、カメラ101により取得された車両C1の車室内の画像に基づいて取得可能である。また、人感センサ及び着座センサにより検出された検出情報に基づいて、車両C1に乗車する各ユーザ及びその位置を取得することも可能である。また、車両C1に乗車する各ユーザのうち、エージェント機器200に指示を出したユーザの位置については、その指示に対応する音声が発せられた方向等に基づいて検出可能である。なお、音声が発せられた方向の検出方法については、公知の音声認識技術を用いることが可能である。また、また、車両C1に乗車する各ユーザのうち、エージェント機器200に指示を出したユーザの位置については、カメラ101により取得された車両C1の車室内の画像に基づいて取得可能である。例えば、その指示に対応する音声を発する表情(特に、口の動き)等に基づいて検出可能である。なお、表情に基づく声の検出方法については、公知の画像認識技術を用いることが可能である。 The users and their positions aboard the vehicle C1 can be obtained based on the images of the interior of the vehicle C1 acquired by the camera 101. The users and their positions aboard the vehicle C1 can also be obtained based on the detection information detected by the human sensor and the seat sensor. The positions of the users who have issued instructions to the agent device 200 among the users aboard the vehicle C1 can be detected based on the direction from which the voice corresponding to the instruction was emitted. A known voice recognition technology can be used to detect the direction from which the voice was emitted. The positions of the users who have issued instructions to the agent device 200 among the users aboard the vehicle C1 can be obtained based on the images of the interior of the vehicle C1 acquired by the camera 101. For example, the positions can be detected based on facial expressions (particularly mouth movements) that emit the voice corresponding to the instruction. A known image recognition technology can be used to detect the voice based on facial expressions.

[エージェント機器による処理の実行後の状況等に基づく判定例]
上述したように、エージェント機器200は、周囲の状況、ユーザに関する各検出情報等に基づいて適宜処理を実行する。例えば、カメラ101、音声入力部103、センサ類104からの各情報に基づいて、エージェント機器200は、車両C1に乗車するユーザU1、U2の暑さを検出可能である。例えば、カメラ101により取得されたユーザU1の顔画像に基づいてユーザU1の大量の汗が検出され、センサ類104の非接触温度センサに基づいてユーザU1の体温上昇が検出された場合を想定する。この場合には、エージェント機器200は、エアコンの温度設定を下げる制御を実行する。また、この場合には、損得感情判定部122は、エージェント機器200により実行された処理の原因となったユーザU1を、得感情が生じたユーザとして判定する。一方、損得感情判定部122は、得感情が生じたと判定されたユーザU1以外のユーザU2を、損感情が生じたユーザとして判定する。このように、エージェント機器200により実行された処理の原因となったユーザを得感情が生じたユーザとして判定し、このユーザ以外の他のユーザを、損感情が生じたユーザとして判定することが可能である。
[Example of determination based on the situation after execution of processing by the agent device]
As described above, the agent device 200 executes appropriate processing based on the surrounding situation, each detected information related to the user, and the like. For example, based on each information from the camera 101, the voice input unit 103, and the sensors 104, the agent device 200 can detect the heat of the users U1 and U2 who are riding in the vehicle C1. For example, assume that a large amount of sweat of the user U1 is detected based on the face image of the user U1 acquired by the camera 101, and an increase in the body temperature of the user U1 is detected based on the non-contact temperature sensor of the sensors 104. In this case, the agent device 200 executes control to lower the temperature setting of the air conditioner. In addition, in this case, the gain/loss emotion determination unit 122 determines the user U1 who caused the processing executed by the agent device 200 as a user who has experienced a gain emotion. On the other hand, the gain/loss emotion determination unit 122 determines the user U2 other than the user U1 who has been determined to have experienced a gain emotion as a user who has experienced a loss emotion. In this way, it is possible to determine the user who caused the processing executed by the agent device 200 as the user who experienced a gain emotion, and determine other users as users who experienced a loss emotion.

[ユーザの負債感情の判定例]
次に、ユーザの負債感情を判定する判定方法について説明する。なお、本実施形態では、ユーザの負債感情の判定は、得感情が生じたユーザに対して実行される。具体的には、ユーザの生体情報(例えば、心拍、血脈)と、ユーザから発せられる音と、ユーザの外観(例えば、表情、動き)とに基づいてユーザの負債感情を判定可能である。なお、得感情が生じたユーザ以外のユーザについても負債感情を判定し、この判定結果を用いるようにしてもよい。
[Example of determining user's debt sentiment]
Next, a method for determining a user's debt feeling will be described. In this embodiment, the debt feeling of a user is determined for a user who has a gain feeling. Specifically, the debt feeling of a user can be determined based on the user's biometric information (e.g., heart rate, blood vessels), the sound emitted by the user, and the user's appearance (e.g., facial expression, movement). The debt feeling of users other than the user who has a gain feeling may also be determined, and the determination result may be used.

上述したように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに負債感情が生じることがある。すなわち、負債感情は、複数のユーザが存在する場合に、一部のユーザに生じる感情である。例えば、複数のユーザに対してある現象が生じた場合に、一部のユーザが相対的に得する立場となり、他のユーザが相対的に損する立場となることが想定される。例えば、暑がりのユーザU1と、寒がりのユーザU2とに対してエアコンの温度設定を上げるという現象が生じた場合に、ユーザU2が相対的に得する立場となり、ユーザU1が相対的に損する立場となることが想定される。このような場合において、相対的に得する立場となったユーザU2には、相対的に損する立場となったユーザU1に対して、申し訳ない、心苦しい等の負債感情が発生することが多い。そこで、本実施形態では、他のユーザに対して負債感情が生じたユーザに対して適切なフォローをしてその負債感情を緩和させる。 As described above, when there are multiple users, some users may feel indebted to other users. In other words, indebtedness is an emotion that occurs in some users when there are multiple users. For example, when a certain phenomenon occurs for multiple users, it is assumed that some users will be in a relatively advantageous position and other users will be in a relatively disadvantaged position. For example, when a phenomenon occurs in which a user U1 who is sensitive to heat and a user U2 who is sensitive to cold raise the temperature setting of an air conditioner, it is assumed that user U2 will be in a relatively advantageous position and user U1 will be in a relatively disadvantaged position. In such a case, user U2 who is in a relatively advantageous position often feels indebted, such as feeling sorry or sorry, toward user U1 who is in a relatively disadvantaged position. Therefore, in this embodiment, appropriate follow-up is provided to the user who has felt indebted to other users to alleviate the indebtedness.

例えば、ユーザU2に負債感情が生じると、ユーザU2の顔が悲しい表情となったり、申し訳ないような表情となったりすることが想定される。そこで、ユーザU2の顔を含む画像を解析することによりユーザU2の表情の変化を取得し、その変化の程度に基づいて、ユーザU2の負債感情を算出可能である。例えば、ユーザU2の表情が急激に変化し、かつ、その変化後の表情が所定の表情(例えば、悲しい表情、申し訳ないような表情)になった場合に、ユーザU2の負債感情に関する度合が高いと判定することが可能である。なお、ユーザU2の負債感情に関する度合は、ユーザU2の負債感情を数値化したものであり、数値が高くなるのに応じて、ユーザU2の負債感情が高いと判定することが可能である。また、ユーザU2の顔が所定の表情(例えば、悲しい表情、申し訳ないような表情)になった場合に、ユーザU2の負債感情に関する度合が高いと判定することも可能である。なお、ユーザU2の顔を含む画像については、カメラ101(図4参照)により取得可能である。また、表情の判定については、公知の表情認識技術(例えば表情判定プログラム)を用いることが可能である。なお、負債感情に関する度合は、負債感情の確信度等と称してもよい。 For example, when the user U2 feels a sense of indebtedness, it is assumed that the face of the user U2 will have a sad or apologetic expression. Therefore, by analyzing an image including the face of the user U2, the change in the expression of the user U2 can be acquired, and the indebtedness of the user U2 can be calculated based on the degree of the change. For example, when the expression of the user U2 changes suddenly and the expression after the change becomes a predetermined expression (for example, a sad expression, apologetic expression), it is possible to determine that the degree of the indebtedness of the user U2 is high. Note that the degree of the indebtedness of the user U2 is a numerical representation of the indebtedness of the user U2, and it is possible to determine that the indebtedness of the user U2 is high as the numerical value increases. It is also possible to determine that the degree of the indebtedness of the user U2 is high when the face of the user U2 has a predetermined expression (for example, a sad expression, apologetic expression). Note that the image including the face of the user U2 can be acquired by the camera 101 (see FIG. 4). It is also possible to use a known facial expression recognition technology (for example, a facial expression determination program) to determine the facial expression. The degree of indebtedness may also be referred to as the degree of certainty of indebtedness.

なお、顔に関する他の情報を用いてユーザU2の負債感情を判定してもよい。例えば、ユーザU2に負債感情が生じると、ユーザU2の顔に冷や汗が生じることも想定される。そこで、カメラ101により取得された画像(ユーザU2の顔を含む)等に基づいて、ユーザU2の顔に冷や汗が生じたか否かを検出し、ユーザU2の顔に冷や汗が生じた場合に、ユーザU2に負債感情が発生したと判定することが可能である。 Note that the indebtedness of user U2 may be determined using other information related to the face. For example, when user U2 feels indebted, it is expected that user U2 may break out in a cold sweat on his/her face. Therefore, based on an image (including user U2's face) acquired by camera 101, it is possible to detect whether user U2 has broken out in a cold sweat on his/her face, and to determine that user U2 has broken out in a cold sweat on his/her face.

また、例えば、ユーザU2に負債感情が生じると、ユーザU2が視線をユーザU1に向けることが多くなると想定される。例えば、ユーザU2が悲しい表情で視線をユーザU1に頻繁に向けることが想定される。そこで、カメラ101により取得された画像(ユーザU2の顔を含む)等に基づいて、ユーザU2が視線をユーザU1に向ける回数を検出し、その回数に基づいて、ユーザU2の負債感情を判定することが可能である。例えば、ユーザU2が視線をユーザU1に向ける回数が閾値以上である場合には、ユーザU2の負債感情が高いと判定可能である。すなわち、ユーザU2の動きとして、ユーザU2が視線をユーザU1に向ける頻度に基づいて、ユーザU2の負債感情が高いか否かを判定可能である。また、ユーザU2の体温の変化に基づいて、ユーザU2の負債感情が高いか否かを判定してもよい。 Also, for example, when user U2 feels a sense of indebtedness, it is assumed that user U2 will often turn his/her gaze towards user U1. For example, it is assumed that user U2 will frequently turn his/her gaze towards user U1 with a sad expression. Therefore, based on the image (including user U2's face) acquired by camera 101, etc., it is possible to detect the number of times user U2 turns his/her gaze towards user U1, and to determine user U2's sense of indebtedness based on the number of times. For example, if the number of times user U2 turns his/her gaze towards user U1 is equal to or greater than a threshold, it is possible to determine that user U2's sense of indebtedness is high. In other words, it is possible to determine whether user U2's sense of indebtedness is high or not based on the frequency with which user U2 turns his/her gaze towards user U1 as the movement of user U2. Also, it is possible to determine whether user U2's sense of indebtedness is high or not based on a change in user U2's body temperature.

また、ユーザU2に負債感情が生じると、ユーザU2が特定のキーワード(例えば、ごめんなさい、本当は温度を下げたかったんだよね、暑いよね)を発したり、ユーザU2が声のトーンを下げて声を発したりすることが想定される。なお、特定のキーワードは、例えば、ユーザU1に対してユーザU2が申し訳ない、心苦しい等の感情を表現するような文言である。また、声のトーンは、声の高低、テンポ、音量等を意味する。例えば、ユーザU2に負債感情が生じると、ユーザU2が「ごめんなさい」を低めの声で発することが想定される。そこで、ユーザU2から発せられる声を解析することにより、ユーザU2が発した特定のキーワード(例えば、ごめんなさい)、ユーザU2から発せられる声のトーンを取得する。そして、ユーザU2が特定のキーワード(例えば、ごめんなさい)を発した場合、又は、ユーザU2から発せられた声のトーンが閾値未満となった場合に、ユーザU2の負債感情が高いと判定することが可能である。なお、ユーザU2が発する声については、音声入力部103(図4参照)により取得可能である。また、声の判定については、公知の音認識技術(例えば音判定プログラム)を用いることが可能である。また、表情及び音声を合わせて感情を推定する公知の推定技術を用いることも可能である。例えば、表情及び音声を合わせて負債感情を推定し、その負債感情を数値化(負債感情に関する度合)することが可能である。なお、ユーザU2の生体情報と、ユーザU2の発話内容と、ユーザU2の動作とのうちの少なくとも1つに基づいて算出が可能なユーザU2の負債感情に関する他の数値を用いてもよい。 In addition, when a feeling of indebtedness arises in user U2, it is assumed that user U2 will utter a specific keyword (e.g., I'm sorry, I actually wanted to turn down the temperature, it's hot, isn't it?) or will speak in a lower tone of voice. The specific keyword is, for example, a phrase that expresses the feeling of user U2 being sorry or feeling sorry toward user U1. The tone of voice means the pitch, tempo, volume, etc. of the voice. For example, when a feeling of indebtedness arises in user U2, it is assumed that user U2 will utter "I'm sorry" in a lower voice. Therefore, by analyzing the voice uttered by user U2, the specific keyword uttered by user U2 (e.g., I'm sorry) and the tone of voice uttered by user U2 are obtained. Then, when user U2 utters a specific keyword (e.g., I'm sorry), or when the tone of voice uttered by user U2 is below a threshold, it is possible to determine that user U2 has a high feeling of indebtedness. The voice uttered by user U2 can be acquired by the voice input unit 103 (see FIG. 4). A known sound recognition technology (e.g., a sound determination program) can be used to determine the voice. A known estimation technology can also be used to estimate emotions by combining facial expressions and voice. For example, it is possible to estimate a debt emotion by combining facial expressions and voice, and to quantify the debt emotion (degree of debt emotion). Other numerical values related to the debt emotion of user U2 that can be calculated based on at least one of the biometric information of user U2, the content of the speech of user U2, and the actions of user U2 may also be used.

なお、上述した負債感情の判定条件のうちの2以上を用いて、負債感情を総合的に判定してもよい。これにより、負債感情に関する度合の算出精度を高めることが可能である。 Note that two or more of the above-mentioned criteria for determining indebtedness may be used to comprehensively determine the indebtedness feeling. This can improve the accuracy of calculating the degree of indebtedness feeling.

[ユーザの不満感情の判定例]
次に、ユーザの不満感情を判定する判定方法について説明する。なお、本実施形態では、ユーザの不満感情の判定は、損感情が生じたユーザに対して実行される。具体的には、ユーザの生体情報(例えば、心拍、血脈)と、ユーザから発せられる音と、ユーザの外観(例えば、表情、動き)とに基づいてユーザの不満感情を判定可能である。なお、損感情が生じたユーザ以外のユーザについても不満感情を判定し、この判定結果を用いるようにしてもよい。
[Example of Determining User's Dissatisfaction]
Next, a method for determining the dissatisfaction of a user will be described. In this embodiment, the determination of the dissatisfaction of a user is performed for a user who has experienced a loss. Specifically, the dissatisfaction of a user can be determined based on the user's biometric information (e.g., heart rate, blood vessels), the sound emitted by the user, and the user's appearance (e.g., facial expression, movement). The dissatisfaction of users other than the user who has experienced a loss may also be determined, and the determination result may be used.

上述したように、複数のユーザが存在する場合において、他のユーザに対して一部のユーザに負債感情が生じることがある。一方、負債感情が生じたユーザ以外のユーザについては、不満感情が生じることがある。すなわち、不満感情は、複数のユーザが存在する場合に、一部のユーザに生じる感情である。例えば、暑がりのユーザU1と、寒がりのユーザU2とに対してエアコンの温度設定を上げるという現象が生じた場合に、ユーザU2が相対的に得する立場となり、ユーザU1が相対的に損する立場となることが想定される。このような場合において、相対的に損する立場となったユーザU1には、相対的に得する立場となったユーザU2に対する不満の感情が発生することが多い。そこで、本実施形態では、他のユーザに対して不満感情が生じたユーザに対しても適切なフォローをしてその不満感情を緩和させる。 As described above, when there are multiple users, some users may feel indebted to other users. On the other hand, users other than the user who feels indebted may feel dissatisfied. In other words, dissatisfaction is a feeling that occurs in some users when there are multiple users. For example, when a phenomenon occurs in which the temperature setting of an air conditioner is increased for user U1 who is sensitive to heat and user U2 who is sensitive to cold, it is assumed that user U2 will be in a relatively advantageous position and user U1 will be in a relatively disadvantaged position. In such a case, user U1 who is in a relatively disadvantaged position often feels dissatisfied with user U2 who is in a relatively advantageous position. Therefore, in this embodiment, appropriate follow-up is provided to users who feel dissatisfied with other users to alleviate their dissatisfaction.

なお、ユーザの不満感情についても、ユーザの負債感情と同様に、ユーザの顔に関する各情報(例えば、表情、口の動き、視線)、ユーザが発する声等に基づいて判定可能である。また、ユーザの不満感情に関する度合についても、ユーザの負債感情に関する度合と同様に、ユーザの顔に関する各情報、ユーザが発する声等に基づいて算出可能である。なお、ユーザの不満感情に関する度合は、ユーザの不満感情を数値化したものであり、数値が高くなるのに応じて、ユーザの不満感情が高いと判定することが可能である。ただし、ユーザの負債感情とは、表情、発話等の内容が異なる。例えば、ユーザU1に不満感情が生じると、ユーザU1の顔が怒りの表情となったり、ユーザU1から怒りの声、強いトーンの声が、声を荒げた発声がされたりすることが想定される。また、例えば、ユーザU1に不満感情が生じると、ユーザU1の動きが力強くなり大きくなることも想定される。そこで、ユーザの不満感情の判定処理においては、これらの要素を基準にして、判定することが可能である。 The user's dissatisfaction can be determined based on various information related to the user's face (e.g., facial expression, mouth movement, gaze), the user's voice, etc., in the same way as the user's debt. The degree of the user's dissatisfaction can be calculated based on various information related to the user's face, the user's voice, etc., in the same way as the degree of the user's debt. The degree of the user's dissatisfaction is a numerical representation of the user's dissatisfaction, and it is possible to determine that the user's dissatisfaction is high as the numerical value increases. However, the content of the user's debt is different from the content of the facial expression, speech, etc. For example, when the user U1 becomes dissatisfied, it is assumed that the user U1's face will have an angry expression, or that the user U1 will speak in an angry voice, a strong tone, or a loud voice. For example, when the user U1 becomes dissatisfied, it is assumed that the user U1's movements will become stronger and larger. Therefore, in the process of determining the user's dissatisfaction, it is possible to make a determination based on these factors.

また、不満感情の判定条件のうちの2以上を用いて、不満感情を総合的に判定してもよい。これにより、不満感情に関する度合の算出精度を高めることが可能である。 In addition, two or more of the conditions for determining dissatisfaction may be used to comprehensively determine dissatisfaction. This can improve the accuracy of calculating the degree of dissatisfaction.

[ユーザの感情に応じてエージェント機器の各態様を変化させる例]
次に、ユーザU1、U2の感情に応じてエージェント機器200の各態様を変化させる場合の遷移例について説明する。
[Example of changing each aspect of the agent device according to the user's emotions]
Next, a transition example in which the aspects of the agent device 200 are changed in response to the emotions of the users U1 and U2 will be described.

[ユーザからの指示に応じた処理を実行後にユーザの感情に応じてエージェント機器の各態様を変化させる場合の遷移例]
図5、図6は、ユーザU1、U2からの指示に応じた処理を実行後にユーザU1、U2の感情に応じてエージェント機器200の各態様を変化させる場合の遷移例を示す図である。具体的には、ユーザU1、U2から相反する指示が出された場合に、ユーザU2からの指示に応じた処理を実行後に、ユーザU1、U2の感情に応じてエージェント機器200の各態様を変化させる場合の遷移例を示す。
[Example of transition when changing each state of the agent device according to the user's emotion after executing a process according to the user's instruction]
5 and 6 are diagrams showing examples of transitions when each aspect of the agent device 200 is changed according to the emotions of users U1 and U2 after processing according to instructions from users U1 and U2 is executed. Specifically, in a case where conflicting instructions are given by users U1 and U2, a transition example is shown in which each aspect of the agent device 200 is changed according to the emotions of users U1 and U2 after processing according to instructions from user U2 is executed.

図5(A)には、車両C1に乗車する2人のユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合の例を示す。なお、図5(A)に示す例は、図2と同様である。すなわち、寒さに震えるユーザU2から「エアコンの温度を上げて」の音声S12が発せられ、暑さで汗をかいているユーザU1から「エアコンの温度を下げて」の音声S11が発せられた場合の例を示す。このように、ユーザU1、U2から相反する異なる指示がエージェント機器200に出された場合には、上述したように、エージェント機器200は、それらの各指示のうちの一方を選択して実行する。 Figure 5 (A) shows an example of a case where two users U1 and U2 in a vehicle C1 give different, conflicting instructions to the agent device 200. Note that the example shown in Figure 5 (A) is the same as that in Figure 2. That is, an example is shown of a case where user U2, who is shivering from the cold, utters voice S12 saying "Turn up the air conditioner temperature," and user U1, who is sweating from the heat, utters voice S11 saying "Turn down the air conditioner temperature." In this way, when users U1 and U2 give different, conflicting instructions to the agent device 200, as described above, the agent device 200 selects and executes one of those instructions.

図5(B)には、図5(A)に示す各指示がされた後に、選択された指示が実行された場合のエージェント機器200の態様例を示す。図5(B)では、ユーザU2の指示が選択され、エアコンの温度設定を上げる温度調整処理が実行された場合の例を示す。この場合には、エージェント機器200が「エアコンの温度を上げます」の音声情報S13を発する。これにより、ユーザU1、U2の双方が、ユーザU2の指示がエージェント機器200により実行されたことを把握可能となる。 Figure 5 (B) shows an example of the behavior of the agent device 200 when a selected instruction is executed after each instruction shown in Figure 5 (A) has been given. Figure 5 (B) shows an example of a case where an instruction from user U2 is selected and a temperature adjustment process to increase the temperature setting of the air conditioner is executed. In this case, the agent device 200 emits voice information S13 saying "Increasing the air conditioner temperature." This allows both users U1 and U2 to understand that the instruction from user U2 has been executed by the agent device 200.

図5(B)に示すように、指示が選択されたユーザU2は、車両C1の車室内のエアコンの温度設定を上げてもらうことにより、車両C1の車室内の温度が上がるため、寒さを緩和することができ、肯定的な感情(例えば、喜び、信頼)が発生すると想定される。一方、指示が選択されなかったユーザU1は、エアコンの温度設定が上げられてしまうことにより、車両C1の車室内の温度が上がるため、暑さが増し、否定的な感情(例えば、困惑、落胆、悲しさ、虚しさ、怒り)が発生すると想定される。 As shown in FIG. 5(B), user U2 for whom the instruction was selected will be able to alleviate the coldness by having the temperature setting of the air conditioner in the passenger compartment of vehicle C1 increased, which is expected to cause positive emotions (e.g., joy, trust). On the other hand, user U1 for whom the instruction was not selected will feel hotter as the temperature setting of the air conditioner in the passenger compartment of vehicle C1 is increased, which is expected to cause negative emotions (e.g., confusion, disappointment, sadness, emptiness, anger).

このように、相反する異なる指示が複数のユーザから出された場合には、少なくとも1つの指示が採用されることになる。このため、指示が採用されたユーザには肯定的な感情が発生し、指示が採用されなかったユーザには否定的な感情が発生することが想定される。ただし、上述したように、指示が採用されたユーザには肯定的な感情が発生するとともに、指示が採用されなかったユーザに対する負債感情、得感情等も発生することが想定される。そこで、本実施形態では、相反する異なる指示が複数のユーザから出された場合において、それらの指示のうちから少なくとも1つの指示が選択されて実行された後に、各ユーザに関するセンシングを実行する。そして、各ユーザの損得感情、負債感情、不満感情等を判定する。 In this way, when conflicting and different instructions are issued by multiple users, at least one instruction will be adopted. For this reason, it is expected that the user whose instructions are adopted will experience positive emotions, and the user whose instructions are not adopted will experience negative emotions. However, as described above, it is expected that in addition to positive emotions, the user whose instructions are adopted will also experience feelings of indebtedness, gain, etc. toward the user whose instructions are not adopted. Therefore, in this embodiment, when conflicting and different instructions are issued by multiple users, at least one of those instructions is selected and executed, and then sensing is performed for each user. Then, each user's feelings of gain/loss, indebtedness, dissatisfaction, etc. are determined.

図5(C)には、図5(B)に示すように、ユーザU2の指示が採用された後におけるユーザU1、U2の感情を模式的に示す。具体的には、指示が採用されなかったユーザU1は、エアコンの温度設定が上げられ、車両C1の車室内の温度が上昇することに応じて、「暑すぎる」という思いAF1が発生することが想定される。一方、指示が採用されたユーザU2は、エアコンの温度設定が上げられ、車両C1の車室内の温度が上昇することに応じて快適となるが、暑そうなユーザU1に対して「ごめんなさい。Bさん、暑いよね」等の思いAF2が発生することが想定される。この場合には、ユーザU1、U2の負債感情に関する度合、不満感情に関する度合等に基づいて、エージェント機器200は、各態様を実行する。 Figure 5 (C) shows a schematic diagram of the emotions of users U1 and U2 after the instruction of user U2 is adopted as shown in Figure 5 (B). Specifically, it is assumed that user U1, whose instruction was not adopted, will have the feeling AF1 of "it's too hot" as the temperature setting of the air conditioner is raised and the temperature inside the vehicle C1 rises. On the other hand, user U2, whose instruction was adopted, will feel comfortable as the temperature setting of the air conditioner is raised and the temperature inside the vehicle C1 rises, but will have the feeling AF2 of "I'm sorry, Mr. B, it's hot, isn't it?" in response to user U1 who looks hot. In this case, the agent device 200 executes each aspect based on the degree of indebtedness, the degree of dissatisfaction, etc. of users U1 and U2.

[他のユーザに知覚され難い態様で、対象ユーザに対して負債感情を緩和させる演出を実行する例]
図5(D)には、ユーザU2の負債感情に関する度合が第1閾値以上の場合のエージェント機器200の態様例を示す。この場合には、ユーザU2のユーザU1に対する負債感情に関する度合が高いため、ユーザU2に対するフォローを行うようにする。ただし、ユーザU1に知覚される態様でユーザU2に対するフォローを行うと、ユーザU1は、勝手に自分の気持ちをユーザU2に伝えてほしくないと考えることも想定される。一方、ユーザU1に知覚される態様でユーザU2に対するフォローを行うと、ユーザU2はいたたまれない気持ちになることも想定される。そこで、本実施形態では、ユーザU2のユーザU1に対する負債感情に関する度合が高い場合には、ユーザU1に知覚され難い態様でユーザU2に対するフォローを行うようにする。なお、ユーザU1に知覚され難い態様については、後述する。また、第1閾値は、ユーザの負債感情が高いことを判定するための閾値であり、実験データ等に基づいて適宜設定可能である。
[Example of performing a performance to reduce a target user's sense of indebtedness in a manner that is difficult for other users to perceive]
FIG. 5D shows an example of the manner of the agent device 200 when the degree of the indebtedness of the user U2 is equal to or greater than the first threshold. In this case, since the degree of the indebtedness of the user U2 to the user U1 is high, the agent device 200 follows the user U2. However, if the agent device 200 follows the user U2 in a manner that is perceived by the user U1, the user U1 may not want the user U1 to freely convey his/her feelings to the user U2. On the other hand, if the agent device 200 follows the user U2 in a manner that is perceived by the user U1, the user U2 may feel uncomfortable. Therefore, in this embodiment, if the degree of the indebtedness of the user U2 to the user U1 is high, the agent device 200 follows the user U2 in a manner that is difficult for the user U1 to perceive. The manner that is difficult for the user U1 to perceive will be described later. The first threshold is a threshold for determining that the user's indebtedness is high, and can be set appropriately based on experimental data, etc.

図5(D)に示すように、ユーザU1に対するユーザU2の負債感情を緩和させるような表情としたエージェント機器200がユーザU2の方向を向き、「寒いもんね。しょうがないよ」の音声情報S14を発する。なお、駆動部230の回転動作により、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。ただし、エージェント機器200の表示部210の表示内容を変更することにより、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。例えば、球体のエージェント機器200の顔部における眼部、口部の表示位置を、ユーザU2の方向に移動させることにより、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。 As shown in FIG. 5(D), the agent device 200, with a facial expression designed to ease the indebtedness of user U2 toward user U1, faces the user U2 and emits voice information S14 saying, "It's cold. Can't be helped." The face of the agent device 200 can be turned toward the user U2 by the rotational movement of the drive unit 230. However, it is possible to turn the face of the agent device 200 toward the user U2 by changing the display content of the display unit 210 of the agent device 200. For example, it is possible to turn the face of the agent device 200 toward the user U2 by moving the display positions of the eyes and mouth on the spherical face of the agent device 200 toward the user U2.

また、ユーザU2の負債感情を緩和させるような表情は、例えば、ユーザU2に同調する表情、ユーザU2に協調する表情、ユーザU2に共感する表情、ユーザU2に謝罪する表情等である。また、ユーザU1に対するユーザU2の負債感情を緩和させるような振舞いをエージェント機器200に実行させてもよい。例えば、図5(D)に示すように、エージェント機器200を振動させることにより、寒さで震えるユーザU2に同調、共感する振舞いを実現することが可能である。また、手足等を用いて、寒さで震えるユーザU2に同調、共感する振舞いを実現してもよい。これにより、ユーザU1に対する負債感情が生じたユーザU2に対して適切なフォローを行うことができ、ユーザU2の負債感情を解消することが可能となる。例えば、ユーザU2に生じた謝罪の気持ちを抑制することが可能である。 Facial expressions that alleviate the indebtedness of user U2 include, for example, facial expressions that sympathize with user U2, facial expressions that cooperate with user U2, facial expressions that sympathize with user U2, and facial expressions that apologise to user U2. The agent device 200 may also be caused to perform a behaviour that alleviates the indebtedness of user U2 towards user U1. For example, as shown in FIG. 5(D), it is possible to realise a behaviour that sympathises with and sympathises with user U2 who is shivering from the cold by vibrating the agent device 200. It is also possible to realise a behaviour that sympathises with and sympathises with user U2 who is shivering from the cold by using hands and feet, etc. This allows appropriate follow-up to be performed on user U2 who has developed an indebtedness towards user U1, and it becomes possible to resolve the indebtedness of user U2. For example, it is possible to suppress the feeling of apologising that has developed in user U2.

図5(D)では、エージェント機器200の顔部をユーザU2の方向に向けた状態でエージェント機器200に所定の振舞いをさせる態様を、ユーザU1に知覚され難い態様とする例を示した。ただし、ユーザU1に知覚され難い態様として、エージェント機器200に他の態様をさせてもよい。例えば、ユーザU1に知覚され難い態様として、ユーザU1に知覚され難い方法で演出をエージェント機器200に実行させる第1態様と、ユーザU1に知覚され難いタイミングで演出をエージェント機器200に実行させる第2態様とのうちの少なくとも1つを実行することが可能である。 In FIG. 5(D), an example is shown in which the agent device 200 performs a predetermined behavior with the face of the agent device 200 facing the direction of the user U2, in a behavior that is difficult for the user U1 to perceive. However, the agent device 200 may perform other behaviors that are difficult for the user U1 to perceive. For example, as a behavior that is difficult for the user U1 to perceive, it is possible to execute at least one of a first behavior in which the agent device 200 performs a performance in a manner that is difficult for the user U1 to perceive, and a second behavior in which the agent device 200 performs a performance at a timing that is difficult for the user U1 to perceive.

なお、他のユーザに知覚され難い態様は、例えば、他のユーザに気づかれない態様、他のユーザに認識され難い態様、他のユーザに視認され難い態様等と称することも可能である。 Note that a mode that is difficult for other users to perceive can also be referred to as, for example, a mode that is not noticed by other users, a mode that is difficult for other users to recognize, a mode that is difficult for other users to see, etc.

[ユーザに知覚され難い方法の例]
第1態様(ユーザU1に知覚され難い方法)は、例えば、エージェント機器200をユーザU2の方向に向けた状態でエージェント機器200に所定の振舞いをさせる態様(第1A態様)、ユーザU2にだけ聞こえる音をエージェント機器200から出力させる態様(第1B態様)、情報処理装置110(又はエージェント機器200)の制御に基づいてユーザU2が所持する電子機器MC2から所定情報を出力させる態様(第1C態様)、情報処理装置110(又はエージェント機器200)の制御に基づいて他の表示領域から所定情報を表示させる態様(第1D態様)等である。
[Example of a method that is difficult for users to notice]
The first aspect (a method that is difficult for the user U1 to perceive) is, for example, an aspect in which the agent device 200 is made to behave in a predetermined manner while being pointed in the direction of the user U2 (aspect 1A), an aspect in which a sound that can only be heard by the user U2 is output from the agent device 200 (aspect 1B), an aspect in which predetermined information is output from the electronic device MC2 possessed by the user U2 based on the control of the information processing device 110 (or the agent device 200) (aspect 1C), an aspect in which predetermined information is displayed from another display area based on the control of the information processing device 110 (or the agent device 200) (aspect 1D), etc.

第1A態様では、例えば、図5(D)に示すように、エージェント機器200の顔部をユーザU2の方向に向けた状態で、エージェント機器200に所定の振舞い(震える動き)をさせることが可能である。 In the first A aspect, for example, as shown in FIG. 5(D), it is possible to cause the agent device 200 to perform a predetermined behavior (trembling movement) while facing the face of the agent device 200 toward the user U2.

また、第1A態様では、例えば、エージェント機器200の顔部をユーザU2の方向に向けた状態で、エージェント機器200に所定の口の動作をさせることが可能である。この口の動作として、例えば、所定の音声(例えば、しょうがないよ)を発する口元の動き(いわゆる、口パク)を実行することが可能である。 In addition, in the first A aspect, for example, it is possible to cause the agent device 200 to perform a predetermined mouth movement while the face of the agent device 200 is facing the direction of the user U2. As this mouth movement, for example, it is possible to execute a mouth movement (so-called lip-syncing) that produces a predetermined sound (for example, "It can't be helped").

また、エージェント機器200に所定の口の動作をさせる代わりに、エージェント機器200の表示部210に所定情報(例えば、テキスト情報「寒いもんね。しょうがないよ」)を表示してもよい。この例を図6(D1)に示す。図6(D1)に示すように、エージェント機器200の表示部210をユーザU2の方向に向けた状態で、表示部210に所定情報TX1(例えば、文字「しょうがないよ」)を表示させて第1態様とすることが可能である。なお、表示部210に他の情報(例えば、寒さを共感するような画像)を表示させて第1態様としてもよい。 In addition, instead of making the agent device 200 make a predetermined mouth movement, predetermined information (e.g., text information "It's cold. Can't be helped") may be displayed on the display unit 210 of the agent device 200. An example of this is shown in FIG. 6 (D1). As shown in FIG. 6 (D1), with the display unit 210 of the agent device 200 facing the direction of the user U2, it is possible to display predetermined information TX1 (e.g., the text "Can't be helped") on the display unit 210 to set it as the first mode. Note that other information (e.g., an image that sympathizes with the cold) may also be displayed on the display unit 210 to set it as the first mode.

第1B態様では、図5(D)に示すように、エージェント機器200の顔部をユーザU2の方向に向けた状態で、ユーザU2にだけ聞こえる音をエージェント機器200の音出力部220から出力させることが可能である。なお、エージェント機器200の音出力部220を構成するスピーカのうちの少なくとも1つが、ユーザU2の耳の近くに配置されている場合には、ユーザU2の耳の近くに配置されているスピーカから小さい音を発することにより、ユーザU2にだけ聞こえるようにすることが可能である。また、エージェント機器200の音出力部220を構成するスピーカのうちの少なくとも1つが指向性スピーカである場合には、その指向性スピーカから小さい音をユーザU2に向けて発することにより、ユーザU2にだけ聞こえるようにすることが可能である。 In the first B mode, as shown in FIG. 5(D), with the face of the agent device 200 facing the direction of the user U2, it is possible to output a sound that can only be heard by the user U2 from the sound output unit 220 of the agent device 200. If at least one of the speakers constituting the sound output unit 220 of the agent device 200 is located near the ears of the user U2, it is possible to make the sound only audible to the user U2 by emitting a small sound from the speaker located near the ears of the user U2. If at least one of the speakers constituting the sound output unit 220 of the agent device 200 is a directional speaker, it is possible to make the sound only audible to the user U2 by emitting a small sound from the directional speaker toward the user U2.

このように、第1A及び第1B態様では、負債感情を緩和させる振舞いをエージェント機器200に表現させたり、負債感情を緩和させる表情をエージェント機器200に表現させたり、負債感情を緩和させる音声をエージェント機器200から出力させたりする。なお、負債感情を緩和させる振舞いは、例えば、ユーザU2の眼を見つめる動き、ユーザU2を見ながらうなずく動き、ユーザU2を見ながら行う所定の口の動き、エージェント機器200の表面において所定画像又は所定文字を表示させることとのうちの少なくとも1つとすることが可能である。 In this way, in the first A and first B aspects, the agent device 200 is caused to express a behavior that alleviates the feeling of indebtedness, to express a facial expression that alleviates the feeling of indebtedness, or to output a sound that alleviates the feeling of indebtedness from the agent device 200. Note that the behavior that alleviates the feeling of indebtedness can be, for example, at least one of the following: a movement of looking into the eyes of the user U2, a movement of nodding while looking at the user U2, a predetermined mouth movement while looking at the user U2, and displaying a predetermined image or predetermined text on the surface of the agent device 200.

第1C態様では、情報処理装置110(又はエージェント機器200)の制御に基づいて、ユーザU2が所持する電子機器MC2から所定情報を出力させることが可能である。この例を図6(D2)に示す。例えば、電子機器MC2の表示部30において所定情報(例えば、文字「寒いもんね。しょうがないよ。」)を表示させてもよく、電子機器MC2の音声出力部から小さい音で所定情報(例えば、文字「寒いもんね。しょうがないよ。」)を出力させてもよい。また、例えば、電子機器MC2の表示部30において他の情報(例えば、エージェント機器200の共感するような笑顔)を表示させてもよい。 In the first C aspect, it is possible to output specific information from the electronic device MC2 possessed by the user U2 based on the control of the information processing device 110 (or the agent device 200). An example of this is shown in FIG. 6 (D2). For example, the specific information (e.g., the text "It's cold. Can't be helped.") may be displayed on the display unit 30 of the electronic device MC2, or the specific information (e.g., the text "It's cold. Can't be helped.") may be output in a low volume from the audio output unit of the electronic device MC2. In addition, for example, other information (e.g., a sympathetic smiling face of the agent device 200) may be displayed on the display unit 30 of the electronic device MC2.

ここで、ユーザU1が所持する電子機器MC1と、ユーザU2が所持する電子機器MC2とを識別する識別方法について説明する。例えば、車両C1に乗車するユーザが、自己が所持する電子機器を車両C1に予め登録しておくことが考えられる。例えば、ユーザを識別可能なユーザ識別情報(例えば、顔識別情報、音声識別情報)と、電子機器の機器識別情報とを関連付けて情報処理装置110に登録しておき、これらの各識別情報に基づいて、各座席のユーザが所持する電子機器を判定することが可能である。例えば、カメラ101により取得された画像に含まれるユーザの顔画像とユーザ識別情報(例えば、顔識別情報)とに基づいて、各座席に座っているユーザを認識可能である。この場合には、公知の個人認識技術を用いることが可能である。例えば、助手席に座っているユーザの顔がユーザU2の顔であることを識別可能である。この場合には、助手席に座っているユーザU2が所持する電子機器M2を認識可能である。これにより、エージェント制御部125は、所定情報を出力させる電子機器MC2を所持するユーザU2が助手席に着座していることを把握することが可能である。そして、エージェント制御部125は、ユーザU2に対する所定情報を電子機器MC2から出力させることが可能である。 Here, an identification method for identifying the electronic device MC1 owned by the user U1 and the electronic device MC2 owned by the user U2 will be described. For example, it is possible that a user who gets into the vehicle C1 registers the electronic device he or she owns in advance in the vehicle C1. For example, user identification information (e.g., face identification information, voice identification information) that can identify the user and device identification information of the electronic device are associated and registered in the information processing device 110, and it is possible to determine the electronic device owned by the user of each seat based on each of these identification information. For example, it is possible to recognize the user sitting in each seat based on the user's face image and user identification information (e.g., face identification information) included in the image acquired by the camera 101. In this case, it is possible to use a known personal recognition technology. For example, it is possible to identify that the face of the user sitting in the passenger seat is the face of the user U2. In this case, it is possible to recognize the electronic device M2 owned by the user U2 sitting in the passenger seat. As a result, the agent control unit 125 can grasp that the user U2 who owns the electronic device MC2 that outputs predetermined information is sitting in the passenger seat. The agent control unit 125 can then cause the electronic device MC2 to output specific information for the user U2.

また、例えば、情報処理装置110は、車両C1に乗車するユーザが所持する電子機器から発信されている電波を検出することが可能である。そこで、例えば、電子機器の機器識別情報のみを情報処理装置110に予め登録しておき、各電子機器の電波強度を用いて、登録された電子機器の位置を判定してもよい。例えば、車両C1の車室内に複数のアンテナを設定しておき、これらの各アンテナにより受信される各電子機器の電波強度に基づいて各電子機器の位置を推定可能である。なお、この位置推定については、公知の位置推定技術を用いることが可能である。この場合には、助手席の位置に電子機器M2が存在することを認識可能である。これにより、エージェント制御部125は、助手席に着座しているユーザU2が、所定情報を出力させる電子機器MC2を所持していることを把握することが可能である。 For example, the information processing device 110 can detect radio waves emitted from electronic devices carried by a user in the vehicle C1. Therefore, for example, only the device identification information of the electronic devices may be registered in advance in the information processing device 110, and the location of the registered electronic devices may be determined using the radio wave strength of each electronic device. For example, multiple antennas may be set in the passenger compartment of the vehicle C1, and the location of each electronic device may be estimated based on the radio wave strength of each electronic device received by each of these antennas. Note that known location estimation techniques may be used for this location estimation. In this case, it is possible to recognize that the electronic device M2 is located in the passenger seat. This allows the agent control unit 125 to recognize that the user U2 seated in the passenger seat is carrying an electronic device MC2 that outputs specified information.

また、例えば、ユーザが車両C1に乗り込む際に、そのユーザが所持する電子機器を検出してもよい。例えば、複数のユーザが時間差で車両C1に乗り込む場合を想定する。この場合には、車両C1に乗り込むユーザが所持する電子機器から発信されている電波を順次検出することが可能である。また、車両C1に乗り込むユーザが座る座席については、センサ類104(例えば、着座センサ、シートベルトセンサ)、カメラ101からの各情報に基づいて検出が可能である。そこで、このような場合には、制御部120は、新たに検出された電子機器と、その検出タイミング(又はその検出直後のタイミング)で着座が検出された座席の位置とを関連付けて記憶部130のユーザ状態DB136に記録することが可能である。例えば、最初にユーザU2が助手席側に車両C1に乗り込み、次にユーザU1が運転席側に車両C1に乗り込む場合を想定する。この場合には、制御部120は、最初に検出された電子機器MC2と、その検出タイミングで着座が検出された助手席の位置とを関連付けてユーザ状態DB136に記録する。そして、制御部120は、次に検出された電子機器MC1と、その検出タイミングで着座が検出された運転席の位置とを関連付けてユーザ状態DB136に記録する。これにより、エージェント制御部125は、助手席に着座しているユーザU2が、所定情報を出力させる電子機器MC2を所持していることを把握することが可能である。 For example, when a user gets into the vehicle C1, the electronic device carried by the user may be detected. For example, assume that a plurality of users get into the vehicle C1 at different times. In this case, it is possible to sequentially detect radio waves emitted from the electronic devices carried by the users who get into the vehicle C1. In addition, the seat in which the user who gets into the vehicle C1 sits can be detected based on information from the sensors 104 (e.g., seating sensor, seat belt sensor) and the camera 101. In such a case, the control unit 120 can associate the newly detected electronic device with the position of the seat where the user was detected to be seated at the detection timing (or the timing immediately after the detection) and record it in the user state DB 136 of the storage unit 130. For example, assume that the user U2 first gets into the vehicle C1 on the passenger seat side, and then the user U1 gets into the vehicle C1 on the driver's seat side. In this case, the control unit 120 associates the first detected electronic device MC2 with the position of the passenger seat where the user was detected to be seated at the detection timing and records it in the user state DB 136. Then, the control unit 120 associates the next detected electronic device MC1 with the driver's seat position where the user was detected to be seated at that detection timing, and records them in the user state DB 136. This allows the agent control unit 125 to know that the user U2 seated in the passenger seat is carrying an electronic device MC2 that outputs predetermined information.

なお、複数のユーザが車両C1に略同時に乗り込むことも想定される。この場合には、上述した方法で着座位置と電子機器とを関連付けることができないことも想定される。そこで、複数のユーザが車両C1に略同時に乗り込む場合には、制御部120は、車両C1に乗り込む各ユーザが所持する各電子機器から発信されている各電波を順次検出する。そして、制御部120は、電波が検出された各電子機器に、座席を選択するための選択ボタン(例えば、運転席ボタン、助手席ボタン)を表示させる。例えば、助手席に座ったユーザU2は、電子機器MC2の表示部30に表示された選択ボタンのうちから助手席ボタンを選択する。この選択された座席に関する座席情報が電子機器MC2から情報処理装置110に送信されると、制御部120は、その座席情報に対応する助手席の位置と、この座席情報を送信した電子機器MC2とを関連付けてユーザ状態DB136に記録する。他の座席と電子機器とについても同様に記録することが可能である。これにより、エージェント制御部125は、助手席に着座しているユーザU2が、所定情報を出力させる電子機器MC2を所持していることを把握することが可能である。なお、これらは、一例であり、他の方法を用いてもよい。 It is also assumed that multiple users will get into the vehicle C1 at approximately the same time. In this case, it is also assumed that the seating positions and the electronic devices cannot be associated with each other by the above-mentioned method. Therefore, when multiple users get into the vehicle C1 at approximately the same time, the control unit 120 sequentially detects radio waves emitted from each electronic device owned by each user who gets into the vehicle C1. Then, the control unit 120 displays a selection button (e.g., a driver's seat button, a passenger seat button) for selecting a seat on each electronic device from which the radio waves are detected. For example, a user U2 sitting in the passenger seat selects the passenger seat button from among the selection buttons displayed on the display unit 30 of the electronic device MC2. When seat information related to this selected seat is transmitted from the electronic device MC2 to the information processing device 110, the control unit 120 records the passenger seat position corresponding to the seat information and the electronic device MC2 that transmitted the seat information in the user state DB 136 in association with each other. It is also possible to record other seats and electronic devices in the same manner. This allows the agent control unit 125 to grasp that the user U2 sitting in the passenger seat has an electronic device MC2 that outputs predetermined information. Note that these are just examples, and other methods may be used.

また、第1D態様では、情報処理装置110(又はエージェント機器200)の制御に基づいて、車両C1のHUD(Head Up Display)に所定情報を表示させることが可能である。この例を図6(D3)に示す。この場合には、ダッシュボード2の上部において、フロントウインド4との境界付近に、HUDを実現するためのHUD表示装置を設ける。なお、図6(D3)では、説明を容易にするため、ユーザU2の頭の輪郭を点線で簡略化して示す。 In addition, in the first D aspect, it is possible to display specific information on the HUD (Head Up Display) of the vehicle C1 based on the control of the information processing device 110 (or the agent device 200). An example of this is shown in FIG. 6 (D3). In this case, a HUD display device for realizing the HUD is provided on the upper part of the dashboard 2, near the boundary with the windshield 4. Note that in FIG. 6 (D3), the outline of the head of the user U2 is simplified and shown by a dotted line for ease of explanation.

HUD表示装置は、フロントウインド4の表示領域4aに光を投射して、その反射光を利用してユーザU1、U2に虚像を見せるHUD表示を実現するための表示装置、例えばプロジェクタ、光学系である。すなわち、HUD表示装置からフロントウインド4の表示領域4aに投射された光は、フロントウインド4により反射され、その反射光がユーザU1、U2の眼に向かう。そして、表示領域4aに投射されてユーザU1、U2の眼に入った反射光は、フロントウインド4越しに見える実際の物体とともに、その物体に重畳されて表示される。このように、HUD表示装置は、フロントウインド4を用いて虚像を表示することにより、HUD表示を実現する。 The HUD display device is a display device, such as a projector or optical system, that projects light onto the display area 4a of the windshield 4 and uses the reflected light to realize a HUD display that shows a virtual image to users U1 and U2. That is, the light projected from the HUD display device onto the display area 4a of the windshield 4 is reflected by the windshield 4, and the reflected light heads toward the eyes of users U1 and U2. The reflected light that is projected onto the display area 4a and enters the eyes of users U1 and U2 is displayed together with actual objects seen through the windshield 4, superimposed on those objects. In this way, the HUD display device realizes a HUD display by displaying a virtual image using the windshield 4.

例えば、HUD表示装置は、情報処理装置110(図4参照)の制御に基づいて、所定情報TX2(例えば、文字「寒いもんね。しょうがないよ。」)を表示領域4aに表示させる。また、フロントウインド4は、車両C1のHUDの表示媒体として機能する。また、例えば、表示領域4aにおいて他の情報(例えば、エージェント機器200の共感するような笑顔)を表示させてもよい。 For example, the HUD display device displays predetermined information TX2 (e.g., the text "It's cold. Can't be helped.") in the display area 4a based on the control of the information processing device 110 (see FIG. 4). The windshield 4 also functions as a display medium for the HUD of the vehicle C1. For example, other information (e.g., a sympathetic smiling face of the agent device 200) may also be displayed in the display area 4a.

[ユーザに知覚され難いタイミング例]
第2態様(ユーザU1に知覚され難いタイミング)は、例えば、ユーザU1が何らかのことに集中している度合いに基づいて設定されるタイミング(第1タイミング)、エージェント機器200が存在する場所からユーザU1が離れたタイミング(第2タイミング)である。
[Example of timing that is difficult for users to perceive]
The second aspect (timing that is difficult for user U1 to perceive) is, for example, a timing (first timing) that is set based on the degree to which user U1 is concentrating on something, and a timing (second timing) when user U1 moves away from the location where the agent device 200 is located.

ユーザU1が何らかのことに集中している度合いは、例えば、車両C1における運転シーンに基づいて判定可能である。例えば、車両C1が走行している道路の形状に基づいて判定可能である。例えば、車両C1が走行している道路が山道であり、かつ、カーブが続いているような場合には、ユーザU1が運転に集中している度合いが高いと判定される。また、例えば、車両C1が走行している道路が狭い道である場合、車両C1の車速が速い場合等には、ユーザU1が運転に集中している度合いが高いと判定される。なお、車両C1が走行している道路の形状については、例えば、カメラ101により取得された車両C1の周囲の画像(例えば、車両C1の前方の画像)に基づいて取得可能である。また、位置情報取得センサ102により取得された車両C1の現在地と、地図情報DB134に格納されている地図情報とに基づいて取得可能である。また、車両C1の車速については、車速センサに基づいて取得可能である。 The degree to which the user U1 is concentrating on something can be determined, for example, based on the driving scene in the vehicle C1. For example, it can be determined based on the shape of the road on which the vehicle C1 is traveling. For example, if the road on which the vehicle C1 is traveling is a mountain road and has a series of curves, it is determined that the degree to which the user U1 is concentrating on driving is high. Also, for example, if the road on which the vehicle C1 is traveling is a narrow road, or if the vehicle C1 is traveling at a high speed, it is determined that the degree to which the user U1 is concentrating on driving is high. The shape of the road on which the vehicle C1 is traveling can be obtained, for example, based on an image of the surroundings of the vehicle C1 (for example, an image in front of the vehicle C1) acquired by the camera 101. Also, it can be obtained based on the current location of the vehicle C1 acquired by the position information acquisition sensor 102 and the map information stored in the map information DB 134. Also, the vehicle speed of the vehicle C1 can be obtained based on a vehicle speed sensor.

また、例えば、車両C1を運転しているユーザU1の眼球の動きに基づいて運転シーンを判定可能である。例えば、ユーザU1の眼球が左右方向に頻繁に動いているような場合には、ユーザU1が運転に集中している度合いが高いと判定される。なお、ユーザU1の眼球の動きについては、例えば、カメラ101により取得されたユーザU1の顔画像に基づいて取得可能である。 In addition, for example, the driving scene can be determined based on the eye movement of the user U1 who is driving the vehicle C1. For example, if the eye movement of the user U1 is frequently moving left and right, it is determined that the user U1 is highly concentrated on driving. Note that the eye movement of the user U1 can be obtained based on, for example, a facial image of the user U1 acquired by the camera 101.

このように、ユーザU1のセンシングと、運転シーンとのうちの少なくとも1つに基づいて、ユーザU1が何らかのことに集中している度合いを判定可能である。なお、他の情報に基づいて、ユーザU1が何らかのことに集中している度合いを判定してもよい。そして、ユーザU1が何らかのことに集中している度合いが高いと判定された場合には、ユーザU1に知覚され難いタイミングであると判定可能である。 In this way, it is possible to determine the degree to which user U1 is concentrating on something based on at least one of the sensing of user U1 and the driving scene. Note that the degree to which user U1 is concentrating on something may also be determined based on other information. Then, when it is determined that user U1 is concentrating on something to a high degree, it is possible to determine that this is a timing that is difficult for user U1 to perceive.

エージェント機器200が存在する場所からユーザU1が離れたタイミング(第2タイミング)は、例えば、ユーザU1が車両C1を降車したか否かに基づいて判定可能である。例えば、ユーザU1がトイレ休憩等で車両C1を降車した場合には、エージェント機器200が存在する場所からユーザU1が離れたと判定可能である。この場合には、ユーザU1に知覚され難いタイミングであると判定可能である。なお、エージェント機器200が存在する場所からユーザU1が離れたか否かについては、ユーザU1が車両C1から降りたか否かを各種センサにより検出し、その検出結果に基づいて判定可能である。 The timing (second timing) at which the user U1 leaves the location where the agent device 200 is located can be determined, for example, based on whether the user U1 has exited the vehicle C1. For example, if the user U1 exits the vehicle C1 to take a toilet break, etc., it can be determined that the user U1 has left the location where the agent device 200 is located. In this case, it can be determined that this is a timing that is difficult for the user U1 to perceive. Note that whether the user U1 has exited the location where the agent device 200 is located can be determined based on the detection results by detecting whether the user U1 has exited the vehicle C1 using various sensors.

例えば、ユーザU2に負債感情が生じたと判定されてから比較的長い時間が経過したような場合には、ユーザU2に対する演出(負債感情を緩和させる演出)の効果が薄れる可能性もある。そこで、ユーザU2に負債感情が生じたと判定されてからの経過時間に基づいて、ユーザU1に知覚され難いタイミングでユーザU2に対する演出(負債感情を緩和させる演出)を実行するか否かを決定してもよい。 For example, if a relatively long time has passed since it was determined that user U2 had developed feelings of indebtedness, the effect of the performance for user U2 (performance to alleviate feelings of indebtedness) may be weakened. Therefore, based on the amount of time that has passed since it was determined that user U2 had developed feelings of indebtedness, it may be determined whether or not to execute a performance for user U2 (performance to alleviate feelings of indebtedness) at a timing that is difficult for user U1 to perceive.

例えば、車両C1が走行する道路が高速道路等のシンプルな道が続いている場合には、30分程度の時間を、ユーザU1に知覚され難いタイミングでユーザU2に対する演出(負債感情を緩和させる演出)を実行する時間として設定することが可能である。この場合には、ユーザU2に負債感情が生じたと判定されてからその設定時間(30分程度)が経過した場合には、他の態様(第1態様)でユーザU2に対する演出(負債感情を緩和させる演出)を実行するようにする。例えば、第1A態様、第1B態様、第1C態様、第1D態様のぞれぞれについて優先度を設定しておき、この優先度に基づいて第1A態様、第1B態様、第1C態様、第1D態様から実施態様を選択してもよい。この優先度として、例えば、早くフォローができる態様の優先度を高く設定することが可能である。 For example, if the road on which the vehicle C1 is traveling is a series of simple roads such as an expressway, it is possible to set a time of about 30 minutes as the time for performing a performance (performance to alleviate feelings of indebtedness) for user U2 at a timing that is difficult for user U1 to perceive. In this case, if the set time (about 30 minutes) has elapsed since it was determined that user U2 has developed feelings of indebtedness, a performance (performance to alleviate feelings of indebtedness) for user U2 is performed in another mode (first mode). For example, a priority may be set for each of the first A mode, the first B mode, the first C mode, and the first D mode, and an embodiment may be selected from the first A mode, the first B mode, the first C mode, and the first D mode based on this priority. For example, it is possible to set a high priority for a mode that can be followed up quickly.

なお、ユーザU1、U2に関する生体情報等に基づいて、ユーザU1に知覚され難いタイミングでユーザU2に対する演出(負債感情を緩和させる演出)を実行する制限時間を設定してもよい。例えば、ユーザU1、U2の表情に基づいて、その制限時間を設定してもよい。例えば、ユーザU2に負債感情が生じたと判定された後に、ユーザU2の暗い表情と、ユーザU1の怒りの表情とが継続して検出されている場合には、その制限時間を比較的長い時間として設定してもよい。一方、例えば、ユーザU2に負債感情が生じたと判定された後に、ユーザU2の笑顔が検出された場合には、ユーザU2に対する演出(負債感情を緩和させる演出)を中止してもよい。このように、ユーザU1、U2に関する生体情報等に基づいて、ユーザU2に対するフォローをするタイミングを変更してもよい。 In addition, a time limit for performing a performance (performance to alleviate feelings of indebtedness) for user U2 may be set at a timing that is difficult for user U1 to perceive based on biometric information about users U1 and U2. For example, the time limit may be set based on the facial expressions of users U1 and U2. For example, if a gloomy facial expression of user U2 and an angry facial expression of user U1 are continuously detected after it is determined that a feeling of indebtedness has arisen in user U2, the time limit may be set to a relatively long time. On the other hand, for example, if a smile of user U2 is detected after it is determined that a feeling of indebtedness has arisen in user U2, the performance (performance to alleviate feelings of indebtedness) for user U2 may be stopped. In this way, the timing of following up with user U2 may be changed based on biometric information about users U1 and U2.

[他のユーザに知覚され難い態様で、対象ユーザに対して不満感情を緩和させる演出を実行する例]
図5(E)には、ユーザU2の負債感情に関する度合が第1閾値以上であり、かつ、ユーザU1の不満感情に関する度合が第2閾値以上である場合のエージェント機器200の態様例を示す。この場合には、ユーザU1のユーザU2に対する不満感情が高いため、ユーザU1の不満に対するフォローを行うようにする。ただし、ユーザU2に知覚される態様でユーザU1の不満に対するフォローを行うと、ユーザU2は、勝手に自分の気持ちをユーザU1に伝えてほしくないと考えることも想定される。一方、ユーザU2に知覚される態様でユーザU1の不満に対するフォローを行うと、ユーザU1は怒りの気持ちが増加することも想定される。そこで、本実施形態では、ユーザU1のユーザU2に対する不満感情に関する度合が高い場合には、ユーザU2に知覚され難い態様でユーザU1の不満に対するフォローを行うようにする。なお、ユーザU2に知覚され難い態様については、上述した負債感情のフォローを行う場合と同様である。また、第2閾値は、ユーザの不満感情が高いことを判定するための閾値であり、実験データ等に基づいて適宜設定可能である。
[Example of executing a performance that alleviates dissatisfaction of a target user in a manner that is difficult for other users to perceive]
FIG. 5E shows an example of the manner of the agent device 200 when the degree of the indebtedness of the user U2 is equal to or greater than the first threshold and the degree of the dissatisfaction of the user U1 is equal to or greater than the second threshold. In this case, since the dissatisfaction of the user U1 with respect to the user U2 is high, the agent device 200 follows up on the dissatisfaction of the user U1. However, if the dissatisfaction of the user U1 is followed up on in a manner that is perceived by the user U2, it is assumed that the user U2 does not want his/her feelings to be conveyed to the user U1 without permission. On the other hand, if the dissatisfaction of the user U1 is followed up on in a manner that is perceived by the user U2, it is assumed that the anger of the user U1 increases. Therefore, in this embodiment, if the degree of the dissatisfaction of the user U1 with respect to the user U2 is high, the agent device 200 follows up on the dissatisfaction of the user U1 in a manner that is difficult for the user U2 to perceive. The manner that is difficult for the user U2 to perceive is the same as the case of following up on the indebtedness described above. The second threshold is a threshold for determining that the user's dissatisfaction is high, and can be appropriately set based on experimental data, etc.

図5(E)に示すように、ユーザU2に対するユーザU1の不満感情を緩和させるような表情としたエージェント機器200がユーザU1の方向を向き、「あなたの意見を採用しなくてごめんね」の音声情報S15を発する。なお、駆動部230の回転動作により、エージェント機器200の顔部をユーザU1の方向に向けることが可能である。また、上述した負債感情のフォローを行う場合と同様に、エージェント機器200の表示部210の表示内容を変更することにより、エージェント機器200の顔部をユーザU2の方向に向けることが可能である。 As shown in FIG. 5(E), the agent device 200, with a facial expression designed to ease the dissatisfaction of user U1 toward user U2, turns toward user U1 and emits voice information S15 saying, "I'm sorry we didn't adopt your opinion." The face of the agent device 200 can be turned toward user U1 by the rotational movement of the drive unit 230. Also, in the same way as in the case of following up on the debt feeling described above, the face of the agent device 200 can be turned toward user U2 by changing the display content of the display unit 210 of the agent device 200.

また、ユーザU1の不満感情を緩和させるような表情は、例えば、ユーザU1に同調する表情、ユーザU1に協調する表情、ユーザU1に共感する表情等である。また、ユーザU2に対するユーザU1の不満感情を緩和させるような振舞いをエージェント機器200に実行させてもよい。例えば、図5(E)に示すように、エージェント機器200の表面に汗を表示させることにより、焦った表現でユーザU1に同調、共感、謝罪する振舞いを実現することが可能である。また、手足等を用いて、不満を持ったユーザU1に同調、共感、謝罪する振舞いを実現してもよい。また、申し訳ない顔の表情とともに、だまってお辞儀のみをする振舞いをエージェント機器200に実行させてもよい。これにより、ユーザU2に対する不満感情が生じたユーザU1に対して適切なフォローを行うことができ、ユーザU1の不満感情を解消することが可能となる。例えば、ユーザU2に知覚され難い態様で、不満を感じさせたことをユーザU1に謝ることが可能となる。 Facial expressions that ease the dissatisfaction of user U1 include, for example, facial expressions that sympathize with user U1, expressions that cooperate with user U1, and expressions that sympathize with user U1. The agent device 200 may also be caused to execute a behavior that eases the dissatisfaction of user U1 with respect to user U2. For example, as shown in FIG. 5(E), by displaying sweat on the surface of the agent device 200, it is possible to realize a behavior of sympathizing with, sympathizing with, and apologizing to user U1 with an impatient expression. Also, it is possible to realize a behavior of sympathizing with, sympathizing with, and apologizing to dissatisfied user U1 by using hands and feet, etc. The agent device 200 may also be caused to execute a behavior of silently bowing together with an apologetic facial expression. This allows appropriate follow-up to be performed on user U1 who has developed dissatisfaction with user U2, and makes it possible to resolve the dissatisfaction of user U1. For example, it is possible to apologize to user U1 for causing dissatisfaction in a manner that is difficult for user U2 to perceive.

なお、ユーザU1の不満感情を緩和させる演出については、ユーザU2の負債感情を緩和させる演出の一部を変更して適宜設定可能である。 The effects intended to alleviate user U1's feelings of dissatisfaction can be appropriately set by modifying part of the effects intended to alleviate user U2's feelings of indebtedness.

図5(F)には、ユーザU2の負債感情に関する度合が第1閾値未満であるが、ユーザU1の不満感情に関する度合が第2閾値以上である場合のエージェント機器200の態様例を示す。この場合についても、図5(E)に示す例と同様に、ユーザU1のユーザU2に対する不満感情が高いため、ユーザU1の不満に対するフォローを行うようにする。ただし、この場合には、ユーザU2の負債感情に関する度合が第1閾値未満であるため、ユーザU2の負債感情を緩和させるための演出は実行しない。 Figure 5 (F) shows an example of the behavior of the agent device 200 when the degree of indebtedness of user U2 is less than the first threshold, but the degree of dissatisfaction of user U1 is equal to or greater than the second threshold. In this case, as in the example shown in Figure 5 (E), user U1's dissatisfaction with user U2 is high, so follow-up is performed to address user U1's dissatisfaction. However, in this case, because the degree of indebtedness of user U2 is less than the first threshold, no performance is performed to alleviate user U2's indebtedness.

[情報処理装置の動作例]
図7は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、車両C1の乗員からエージェント機器200に対する何らかの指示が出されたタイミングで実行される。また、この制御処理では、図1乃至図6を適宜参照して説明する。
[Example of operation of information processing device]
7 is a flowchart showing an example of a control process in the information processing device 110. This control process is executed by the control unit 120 based on a program stored in the storage unit 130. This control process is executed at the timing when an occupant of the vehicle C1 issues an instruction to the agent device 200. This control process will be described with reference to FIGS. 1 to 6 as appropriate.

ステップS501において、指示受付部121は、車両C1の乗員からエージェント機器200に対して出された指示を取得する。指示受付部121は、例えば、音声入力部103により取得された車両C1の乗員の声、カメラ101により取得された車両C1の乗員の各動作(例えば、顔の表情、手の動き)、センサ類104により取得された車両C1の乗員による操作内容等に基づいて、エージェント機器200に対する指示を取得可能である。なお、図7では、車両C1に2人のユーザU1、U2が乗車している場合の例を示す。 In step S501, the instruction receiving unit 121 receives an instruction issued to the agent device 200 by an occupant of the vehicle C1. The instruction receiving unit 121 can receive an instruction for the agent device 200 based on, for example, the voice of the occupant of the vehicle C1 acquired by the voice input unit 103, each action of the occupant of the vehicle C1 acquired by the camera 101 (e.g., facial expressions, hand movements), and the operation contents of the occupant of the vehicle C1 acquired by the sensors 104. Note that FIG. 7 shows an example in which two users U1 and U2 are riding in the vehicle C1.

ステップS502において、指示受付部121は、複数のユーザから相反する異なる複数の指示がされたか否かを判定する。具体的には、指示受付部121は、ステップS501で取得された指示が、複数のユーザからの指示であり、かつ、それらの各指示が相反する異なる指示である場合には、複数のユーザから相反する異なる複数の指示がされたと判定する。例えば、略同じタイミングで、ユーザU1が「ラジオ局Aをかけて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合には、複数のユーザから相反する異なる複数の指示が出されたと判定される。また、例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「エアコンの温度を上げて」の指示を出した場合には、複数のユーザから相反する異なる複数の指示が出されたと判定される。一方、例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合には、複数のユーザから相反する異なる複数の指示が出されていないと判定される。複数のユーザから相反する異なる複数の指示が出された場合には、ステップS504に進む。一方、複数のユーザから相反する異なる複数の指示が出されていない場合には、ステップS503に進む。 In step S502, the instruction receiving unit 121 determines whether multiple different, conflicting instructions have been issued from multiple users. Specifically, if the instructions acquired in step S501 are from multiple users and each of these instructions is a conflicting, different instruction, the instruction receiving unit 121 determines that multiple different, conflicting instructions have been issued from multiple users. For example, if user U1 issues an instruction to "play radio station A" and user U2 issues an instruction to "play radio station B" at approximately the same time, it is determined that multiple different, conflicting instructions have been issued from multiple users. Also, for example, if user U1 issues an instruction to "lower the temperature of the air conditioner" and user U2 issues an instruction to "raise the temperature of the air conditioner" at approximately the same time, it is determined that multiple different, conflicting instructions have been issued from multiple users. On the other hand, for example, if user U1 issues an instruction to "turn down the air conditioner temperature" and user U2 issues an instruction to "play radio station B" at approximately the same time, it is determined that multiple conflicting and different instructions have not been issued by multiple users. If multiple conflicting and different instructions have been issued by multiple users, the process proceeds to step S504. On the other hand, if multiple conflicting and different instructions have not been issued by multiple users, the process proceeds to step S503.

ステップS503において、エージェント制御部125は、ユーザからの指示に基づく処理を実行する。具体的には、エージェント制御部125は、ステップS501で取得された指示に基づいて、その指示に応じた処理を実行する。例えば、略同じタイミングで、ユーザU1が「エアコンの温度を下げて」の指示を出し、ユーザU2が「ラジオ局Bをかけて」の指示を出した場合には、エージェント制御部125は、それらの各指示に応じた処理を連続して、又は、同時に実行する。 In step S503, the agent control unit 125 executes processing based on instructions from the user. Specifically, the agent control unit 125 executes processing according to the instructions acquired in step S501. For example, if user U1 issues an instruction to "lower the air conditioner temperature" and user U2 issues an instruction to "play radio station B" at approximately the same time, the agent control unit 125 executes processing according to each of these instructions consecutively or simultaneously.

ステップS504において、指示受付部121は、ステップS501で取得された複数の指示のうちから処理対象とする指示を選択し、エージェント制御部125は、その選択された指示に基づく処理を実行する。この選択処理については、上述した選択処理と同様に、各ユーザに関する生体情報、各ユーザの発話内容、各ユーザの動作、各ユーザの周囲の環境等に基づいて実行される。この場合に、損得感情判定部122は、処理対象として選択された指示を出したユーザ(第1ユーザ)を得情報が生じたユーザと判定し、他のユーザ(第2ユーザ)を損情報が生じたユーザと判定する。 In step S504, the instruction receiving unit 121 selects an instruction to be processed from among the multiple instructions acquired in step S501, and the agent control unit 125 executes processing based on the selected instruction. This selection process is executed based on the biometric information of each user, the speech content of each user, the actions of each user, the environment around each user, and the like, similar to the selection process described above. In this case, the gain/loss emotion determination unit 122 determines that the user (first user) who issued the instruction selected as the processing target is the user who has generated gain information, and determines the other user (second user) as the user who has generated loss information.

ステップS505において、負債感情判定部123は、ステップS504で処理対象として選択された指示を出したユーザ(第1ユーザ)に関するセンシングを実行する。すなわち、損得感情判定部122により得情報が生じたと判定された第1ユーザに関するセンシングが実行される。そして、負債感情判定部123は、第1ユーザの第2ユーザに対する負債感情に関する度合を算出する。具体的には、負債感情判定部123は、各センサから取得された各情報に基づいて、負債感情に関する度合を算出する。この負債感情に関する度合の算出方法については、上述した算出方法と同様である。 In step S505, the debt emotion determination unit 123 performs sensing on the user (first user) who issued the instruction selected as the processing target in step S504. That is, sensing is performed on the first user who is determined by the profit/loss emotion determination unit 122 to have generated gain information. The debt emotion determination unit 123 then calculates the degree of the first user's debt emotion toward the second user. Specifically, the debt emotion determination unit 123 calculates the degree of debt emotion based on each piece of information acquired from each sensor. The method of calculating the degree of debt emotion is the same as the calculation method described above.

ステップS506において、負債感情判定部123は、ステップS505で算出された負債感情に関する度合が第1閾値以上であるか否かを判定する。負債感情に関する度合が第1閾値以上である場合には、ステップS507に進む。一方、負債感情に関する度合が第1閾値未満である場合には、ステップS512に進む。なお、第1閾値は、上述した第1閾値と同様である。 In step S506, the debt emotion determination unit 123 determines whether the degree of debt emotion calculated in step S505 is equal to or greater than a first threshold. If the degree of debt emotion is equal to or greater than the first threshold, the process proceeds to step S507. On the other hand, if the degree of debt emotion is less than the first threshold, the process proceeds to step S512. Note that the first threshold is the same as the first threshold described above.

ここで、センシングの確信度が高い場合には、そのセンシングに基づく制御部120の各処理の確信度も高いと想定される。一方、センシングの確信度が低い場合には、そのセンシングに基づく制御部120の各処理の確信度も低いと想定される。例えば、センシングの確信度が高い場合には、第1ユーザの負債感情等を適切に判定可能となる。このため、センシングの確信度が閾値以上であることを条件にステップS505以降の各処理に進むようにしてもよい。このように、センシングの確信度に基づいて、エージェント機器200の態様を制御する制御処理の要否を決定することにより、エージェント機器200がユーザに理解できない行動をとるリスクを分岐させておくことが可能である。 Here, if the certainty of the sensing is high, it is assumed that the certainty of each process of the control unit 120 based on that sensing is also high. On the other hand, if the certainty of the sensing is low, it is assumed that the certainty of each process of the control unit 120 based on that sensing is also low. For example, if the certainty of the sensing is high, it is possible to appropriately determine the first user's feelings of indebtedness, etc. For this reason, it is possible to proceed to each process from step S505 onwards on the condition that the certainty of the sensing is equal to or greater than a threshold. In this way, by determining whether or not a control process that controls the state of the agent device 200 is necessary based on the certainty of the sensing, it is possible to branch off the risk that the agent device 200 will take an action that the user cannot understand.

ステップS507において、不満感情判定部124は、各センサから取得された各情報に基づいて、第1ユーザ以外の他のユーザ(第2ユーザ)に関するセンシングを実行する。具体的には、不満感情判定部124は、各センサから取得された各情報に基づいて、第2ユーザの指示の不採用に対する不満感情に関する度合を算出する。この不満感情に関する度合の算出方法については、上述した算出方法と同様である。なお、3人以上のユーザが存在する場合には、複数のユーザのうちの少なくとも1人に負債感情が生じ、複数のユーザのうちの少なくとも1人に不満感情が生じることも想定される。このような場合についても同様に、損得感情判定部122による判定結果に基づいて、第1ユーザ、第2ユーザを設定し、第1ユーザ、第2ユーザのそれぞれについてセンシングを実行して、負債感情に関する度合、不満感情に関する度合を算出するようにする。 In step S507, the dissatisfaction determination unit 124 performs sensing on a user (second user) other than the first user based on each piece of information acquired from each sensor. Specifically, the dissatisfaction determination unit 124 calculates the degree of dissatisfaction with respect to the non-adoption of the second user's instruction based on each piece of information acquired from each sensor. The method of calculating the degree of dissatisfaction is the same as the calculation method described above. Note that, when there are three or more users, it is also assumed that at least one of the multiple users will have a feeling of indebtedness, and at least one of the multiple users will have a feeling of dissatisfaction. In such a case, the first user and the second user are set based on the determination result by the profit/loss determination unit 122, and sensing is performed for each of the first user and the second user to calculate the degree of indebtedness and the degree of dissatisfaction.

ステップS508において、不満感情判定部124は、ステップS507で算出された不満感情に関する度合が第2閾値以上であるか否かを判定する。不満感情に関する度合が第2閾値以上である場合には、ステップS509に進む。一方、不満感情に関する度合が第2閾値未満である場合には、ステップS511に進む。なお、第2閾値は、上述した第2閾値と同様である。 In step S508, the dissatisfaction determination unit 124 determines whether the degree of dissatisfaction calculated in step S507 is equal to or greater than a second threshold. If the degree of dissatisfaction is equal to or greater than the second threshold, the process proceeds to step S509. On the other hand, if the degree of dissatisfaction is less than the second threshold, the process proceeds to step S511. The second threshold is the same as the second threshold described above.

ステップS509において、エージェント制御部125は、第2ユーザに知覚され難い態様で第1ユーザの負債感情を緩和させる演出をエージェント機器200に実行させる制御を行う。例えば、図5(D)、図6(D1)乃至(D3)に示す態様で第1ユーザの負債感情を緩和させる演出をエージェント機器200に実行させることが可能である。 In step S509, the agent control unit 125 controls the agent device 200 to execute a performance that alleviates the first user's feelings of indebtedness in a manner that is difficult for the second user to perceive. For example, it is possible to cause the agent device 200 to execute a performance that alleviates the first user's feelings of indebtedness in the manner shown in FIG. 5 (D) and FIG. 6 (D1) to (D3).

ステップS510において、エージェント制御部125は、第1ユーザに知覚され難い態様で第2ユーザに謝罪する演出をエージェント機器200に実行させる制御を行う。例えば、図5(E)、(F)に示す態様で第2ユーザの不満感情を緩和させる演出をエージェント機器200に実行させることが可能である。 In step S510, the agent control unit 125 controls the agent device 200 to execute a performance in which the second user apologizes in a manner that is difficult for the first user to perceive. For example, it is possible to cause the agent device 200 to execute a performance that alleviates the second user's feelings of dissatisfaction in the manner shown in Figures 5 (E) and (F).

なお、ステップS511の処理は、ステップS509に対応するため、ここでの説明を省略する。また、ステップS512乃至S514の各処理は、ステップS507、S508、S510に対応するため、ここでの説明を省略する。このように、第1ユーザの第2ユーザに対する負債感情に関する度合が第1閾値未満であり、かつ、第2ユーザの指示の不採用に対する不満感情に関する度合が第2閾値以上である場合には、第1ユーザに対するフォロー(ステップS509)を実行せずに、第2ユーザに対するフォロー(ステップS514)のみを実行する。 Note that the process of step S511 corresponds to step S509, and therefore a description thereof will be omitted here. Also, the processes of steps S512 to S514 correspond to steps S507, S508, and S510, and therefore a description thereof will be omitted here. In this way, when the degree of the first user's feeling of indebtedness toward the second user is less than the first threshold value, and the degree of the second user's feeling of dissatisfaction regarding the non-adoption of the instruction is equal to or greater than the second threshold value, the first user is not followed up (step S509), and only the second user is followed up (step S514).

ステップS515において、エージェント制御部125は、困惑する演出をエージェント機器200に実行させる制御を行う。例えば、図3(G)に示す態様をエージェント機器200に実行させることが可能である。例えば、困惑した表情のエージェント機器200をユーザU1、U2の両者に示し、「正解だったかな?」等の音声情報をエージェント機器200から出力させてもよい。 In step S515, the agent control unit 125 controls the agent device 200 to execute a confused performance. For example, it is possible to cause the agent device 200 to execute the mode shown in FIG. 3(G). For example, the agent device 200 may show both users U1 and U2 a confused expression, and output audio information such as "Was that the right answer?" from the agent device 200.

ここで、寒さに震えるユーザU2が、暑そうなユーザU1のことを考えて、本心ではない指示(エアコンの温度を下げて)をすることも想定される。このように、採用された指示が本心ではない場合には、本心ではない指示を出したユーザには、他のユーザに対する負債感情等が生じることは少ないと想定される。そこで、採用された指示が本心ではないと推定された場合には、その指示を出したユーザは自身が損をする指示を敢えて行ったと考え、特定感情を緩和させる演出をエージェント機器200に実行させないようにしてもよい。又は、異なるフォローをしてもよい。例えば、「本当は、寒かったんでしょ」、「相手のことを考えたのね」等の音声を出力する演出、ユーザU2を褒め称える振舞い等の演出を実行してもよい。 Here, it is assumed that user U2, who is shivering from the cold, thinks of user U1, who looks hot, and gives an insincere instruction (turn down the air conditioner temperature). In this way, when the adopted instruction is not sincere, it is assumed that the user who gave the insincere instruction is unlikely to develop feelings of indebtedness toward other users. Therefore, when it is estimated that the adopted instruction is not sincere, it may be assumed that the user who gave the instruction deliberately gave an instruction that would cause a loss to himself, and the agent device 200 may not be made to execute a performance that alleviates the specific emotion. Alternatively, a different follow-up may be performed. For example, a performance may be executed in which a voice such as "It was actually cold, wasn't it?" or "You were thinking about the other person" is output, or a performance that praises user U2 may be executed.

なお、指示がユーザの本心であるか否かについては、ユーザに関する生体情報と、発話内容と、動作とのうちの少なくとも1つに基づいて推定可能である。例えば、ユーザの表情に基づいて嘘を発見する画像認識技術、ユーザの声に基づいて嘘を発見する音声認識技術を用いることが可能である。 Whether or not an instruction is the user's true intention can be estimated based on at least one of the following: biometric information about the user, the content of the speech, and the user's actions. For example, it is possible to use image recognition technology that detects lies based on the user's facial expressions, and voice recognition technology that detects lies based on the user's voice.

図7では、負債感情が生じたユーザと、不満感情が生じたユーザとの双方に対するフォローを実行する例を示した。ただし、これらの一部を省略してもよい。例えば、負債感情が生じたユーザに対するフォローのみを実行し、不満感情が生じたユーザに対するフォローを省略してもよい。この場合には、ステップS507、S508、S510乃至S515の各処理を省略することが可能である。 Figure 7 shows an example in which follow-up is performed for both users who have developed feelings of indebtedness and users who have developed feelings of dissatisfaction. However, some of these steps may be omitted. For example, follow-up may be performed only for users who have developed feelings of indebtedness, and follow-up for users who have developed feelings of dissatisfaction may be omitted. In this case, it is possible to omit the processes of steps S507, S508, and S510 to S515.

すなわち、図7では、第1ユーザ及び第2ユーザの双方に関するセンシングを実行する例を示すが、第2ユーザに関するセンシング(ステップS507、S512)を省略し、第1ユーザに関するセンシング(ステップS505)のみを実行してもよい。この場合には、第2ユーザに関するセンシングを実行せずに(又は、第2ユーザに関するセンシングが実行できなくても)、第1ユーザの負債感情のみを用いて、第2ユーザに知覚され難い態様で第1ユーザの感情を緩和させる演出を実行する(ステップS509)ことが可能である。 That is, while FIG. 7 shows an example in which sensing is performed for both the first user and the second user, it is also possible to omit sensing for the second user (steps S507, S512) and perform only sensing for the first user (step S505). In this case, it is possible to perform a performance (step S509) that alleviates the first user's emotions in a manner that is difficult for the second user to perceive, using only the first user's emotions, without performing sensing for the second user (or even if sensing for the second user cannot be performed).

また、図7では、ユーザからの指示に基づいてエージェント機器200が各処理を実行する例を示した。ただし、ユーザの周囲の環境等に基づいてエージェント機器200が各処理を自動で実行することも想定される。この場合についても、エージェント機器200の処理結果に応じて、各ユーザには、得感情又は損感情、負債感情又は不満感情が生じることが想定される。そこで、ユーザの周囲の環境等に基づいてエージェント機器200が各処理を自動で実行する場合の例を図8に示す。 Also, FIG. 7 shows an example in which the agent device 200 executes each process based on instructions from the user. However, it is also assumed that the agent device 200 will execute each process automatically based on the user's surrounding environment, etc. In this case, too, it is assumed that each user will feel a gain or loss, a debt, or a dissatisfaction depending on the processing result of the agent device 200. Therefore, FIG. 8 shows an example in which the agent device 200 automatically executes each process based on the user's surrounding environment, etc.

[情報処理装置の動作例]
図8は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、エージェント機器200がオン状態である場合に制御周期毎に常時実行される。また、この制御処理では、図1乃至図7を適宜参照して説明する。また、この制御処理は、図7に示す制御処理の一部を変形したものであるため、図7と共通する処理には、同一の符号を付してこれらの説明の一部を省略する。
[Example of operation of information processing device]
Fig. 8 is a flow chart showing an example of a control process in the information processing device 110. This control process is executed by the control unit 120 based on a program stored in the storage unit 130. This control process is constantly executed every control period when the agent device 200 is in an on state. This control process will be explained with reference to Figs. 1 to 7 as appropriate. This control process is a partial modification of the control process shown in Fig. 7, and therefore processes common to Fig. 7 are denoted by the same reference numerals and some of the explanations thereof will be omitted.

ステップS521において、エージェント制御部125は、車両C1に乗車する各ユーザ及びその周囲をセンシングする。 In step S521, the agent control unit 125 senses each user riding in vehicle C1 and their surroundings.

ステップS522において、エージェント制御部125は、ステップS521でのセンシングに基づいて所定の処理を実行する。例えば、車両C1の周囲、ユーザU1、U2についてセンシングが実行され、車両C1の車室内の温度が所定温度以下であり、かつ、寒さに震えるユーザU2が検出された場合には、エージェント制御部125は、エアコンの設定温度を上げる制御を実行する。 In step S522, the agent control unit 125 executes a predetermined process based on the sensing in step S521. For example, when sensing is performed on the surroundings of the vehicle C1 and the users U1 and U2, and the temperature inside the vehicle C1 is below a predetermined temperature and user U2 is detected shivering from the cold, the agent control unit 125 executes control to raise the set temperature of the air conditioner.

ステップS523において、負債感情判定部123は、車両C1に乗車する各ユーザをセンシングする。 In step S523, the debt emotion determination unit 123 senses each user who is riding in the vehicle C1.

ステップS524において、負債感情判定部123は、車両C1に乗車する各ユーザの負債感情に関する度合、不満感情に関する度合をそれぞれ算出する。これらの各度合に基づいて、負債感情が生じたユーザ、不満感情が生じたユーザを判定可能となる。例えば、車両C1に2人のユーザU1、U2が乗車している場合には、一方に負債感情が生じると、他方に不満感情が生じる可能性がある。また、車両C1に3人のユーザが乗車している場合には、1人又は2人に負債感情が生じると、他の人に不満感情が生じる可能性がある。このように、複数のユーザのうち、負債感情に関する度合、不満感情に関する度合をそれぞれ算出し、負債感情が生じたユーザを第1ユーザとし、不満感情が生じたユーザを第2ユーザとする。例えば、車両C1の車室内の温度が所定温度以下であり、かつ、寒さに震えるユーザU2が検出された場合において、エアコンの設定温度を上げる制御が実行されたときには、ユーザU2には得した感情が生じるとともに、負債感情が生じることも想定される。 In step S524, the debt emotion determination unit 123 calculates the degree of debt emotion and the degree of dissatisfaction emotion of each user riding in the vehicle C1. Based on these degrees, it is possible to determine the users who have developed debt emotions and the users who have developed dissatisfaction emotions. For example, if two users U1 and U2 are riding in the vehicle C1, when one of them develops a debt emotion, the other may develop a dissatisfaction emotion. Also, if three users are riding in the vehicle C1, when one or two of them develop a debt emotion, the remaining users may develop a dissatisfaction emotion. In this way, the degree of debt emotion and the degree of dissatisfaction emotion are calculated for each of the multiple users, and the user who has developed a debt emotion is set as the first user, and the user who has developed a dissatisfaction emotion is set as the second user. For example, when the temperature inside the vehicle C1 is below a predetermined temperature and user U2 who is shivering from the cold is detected, when the control to increase the set temperature of the air conditioner is executed, it is assumed that user U2 will develop a sense of gain and a sense of debt.

このように、エージェント機器200による自動的な処理の実行により、第1ユーザに負債感情が生じた場合、第2ユーザに知覚され難い態様で第1ユーザに対するフォローを実行することが可能である。 In this way, when the first user feels indebted, the agent device 200 performs automatic processing, making it possible to follow up with the first user in a manner that is difficult for the second user to perceive.

図8では、負債感情が生じたユーザと、不満感情が生じたユーザとの双方に対するフォローを実行する例を示した。ただし、これらの一部を省略してもよい。例えば、負債感情が生じたユーザに対するフォローのみを実行し、不満感情が生じたユーザに対するフォローを省略してもよい。この場合には、ステップS507、S508、S510乃至S514の各処理、ステップS524の一部の処理を省略することが可能である。 Figure 8 shows an example in which follow-up is performed for both users who have developed feelings of indebtedness and users who have developed feelings of dissatisfaction. However, some of these steps may be omitted. For example, follow-up may be performed only for users who have developed feelings of indebtedness, and follow-up for users who have developed feelings of dissatisfaction may be omitted. In this case, it is possible to omit the processes of steps S507, S508, S510 to S514, and some of the processes of step S524.

例えば、ステップS524では、車両C1に乗車する各ユーザの負債感情に関する度合のみを算出し、第2ユーザに関するセンシング(ステップS507、S512)を省略してもよい。この場合には、ステップS507、S512で第2ユーザに関するセンシングを実行せずに(又は、第2ユーザに関するセンシングが実行できなくても)、第1ユーザの負債感情のみを用いて、第2ユーザに知覚され難い態様で第1ユーザの感情を緩和させる演出を実行する(ステップS509)ことが可能である。 For example, in step S524, only the degree of indebtedness of each user riding in vehicle C1 may be calculated, and sensing of the second user (steps S507, S512) may be omitted. In this case, it is possible to perform a performance (step S509) that alleviates the first user's emotion in a manner that is difficult for the second user to perceive, using only the indebtedness of the first user, without performing sensing of the second user in steps S507 and S512 (or even if sensing of the second user cannot be performed).

なお、図8では、各ユーザに生じた負債感情、不満感情に基づいて、各ユーザに対するフォローを実行する例を示した。ただし、これらの各感情を用いずに、相対的に得をしたか損をしたかを判定して、各ユーザに対するフォローを実行してもよい。そこで、相対的に得をしたか損をしたかに基づいて、各ユーザに対するフォローを実行する場合の例を図9に示す。 In FIG. 8, an example is shown in which each user is followed up based on the feelings of indebtedness and dissatisfaction that each user has experienced. However, it is also possible to follow up with each user by determining whether they have experienced a relative gain or loss without using these feelings. Thus, FIG. 9 shows an example of following up with each user based on whether they have experienced a relative gain or loss.

[情報処理装置の動作例]
図9は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、エージェント機器200がオン状態である場合に制御周期毎に常時実行される。また、この制御処理では、図1乃至図8を適宜参照して説明する。また、この制御処理は、図8に示す制御処理の一部を変形したものであるため、図8と共通する処理には、同一の符号を付してこれらの説明の一部を省略する。
[Example of operation of information processing device]
Fig. 9 is a flow chart showing an example of a control process in the information processing device 110. This control process is executed by the control unit 120 based on a program stored in the storage unit 130. This control process is constantly executed every control period when the agent device 200 is in an on state. This control process will be explained with reference to Figs. 1 to 8 as appropriate. This control process is a partial modification of the control process shown in Fig. 8, and therefore processes common to Fig. 8 are denoted by the same reference numerals and some of the explanations thereof will be omitted.

ステップS531において、損得感情判定部131は、車両C1に乗車する各ユーザの損得感情に関する度合を算出する。このように、複数のユーザのうち、得感情に関する度合、損感情に関する度合をそれぞれ算出し、得感情が生じたユーザを第1ユーザとし、損感情が生じたユーザを第2ユーザとする。例えば、車両C1の車室内の温度が所定温度以下であり、かつ、寒さに震えるユーザU2が検出された場合において、エアコンの設定温度を上げる制御が実行されたときには、ユーザU2には得感情が生じ、ユーザU1には損感情が生じると判定することが可能である。なお、損得感情に関する度合については、上述した負債感情に関する度合、不満感情に関する度合の算出方法と同様に、ユーザの生体情報等に基づいて算出が可能である。例えば、ユーザの表情、発話、動き等に基づいて損得感情に関する度合が算出可能である。 In step S531, the profit/loss emotion determination unit 131 calculates the degree of profit/loss emotion of each user riding in the vehicle C1. In this way, the degree of profit/loss emotion and the degree of loss emotion are calculated for each of the multiple users, and the user who has experienced a profit emotion is the first user, and the user who has experienced a loss emotion is the second user. For example, when the temperature inside the vehicle C1 is below a predetermined temperature and user U2 who is shivering from the cold is detected, it is possible to determine that user U2 has experienced a profit emotion and user U1 has experienced a loss emotion when control is executed to increase the set temperature of the air conditioner. The degree of profit/loss emotion can be calculated based on the user's biological information, etc., in the same way as the calculation method for the degree of debt emotion and the degree of dissatisfaction emotion described above. For example, the degree of profit/loss emotion can be calculated based on the user's facial expression, speech, movement, etc.

ステップS532において、損得感情判定部131は、ステップS531で算出された第1ユーザの第2ユーザに対する得感情に関する度合が第3閾値以上であるか否かを判定する。得感情に関する度合が第3閾値以上である場合には、ステップS509に進む。一方、得感情に関する度合が第3閾値未満である場合には、制御処理の動作を終了する。なお、第3閾値は、ユーザの得債感情が高いことを判定するための閾値であり、実験データ等に基づいて適宜設定可能である。 In step S532, the profit/loss emotion determination unit 131 determines whether the degree of the first user's profit/loss emotion toward the second user calculated in step S531 is equal to or greater than a third threshold. If the degree of the profit/loss emotion is equal to or greater than the third threshold, the process proceeds to step S509. On the other hand, if the degree of the profit/loss emotion is less than the third threshold, the control process ends. The third threshold is a threshold for determining whether the user's profit/loss emotion is high, and can be set appropriately based on experimental data, etc.

このように、エージェント機器200による自動的な処理の実行により、第1ユーザが得した場合、第2ユーザに知覚され難い態様で第1ユーザに対するフォローを実行することが可能である。 In this way, when the first user benefits from automatic processing performed by the agent device 200, it is possible to follow up on the first user in a manner that is difficult for the second user to perceive.

[車両以外に設置可能なエージェント機器の例]
以上では、車両C1に設置されるエージェント機器200、車両C1に表示されるエージェント画像の例を示した。ただし、車両C1から取り外し可能なエージェント機器、車両以外に設置可能なエージェント機器等についても本実施形態を適用可能である。例えば、例えば、携帯型のエージェント機器を所持するユーザが、車両C1に乗車するときには、車両C1のダッシュボード2上にそのエージェント機器を設置し、車両C1から降りる場合には、ユーザがそのエージェント機器を所持して持ち歩くことも想定される。また、ユーザが家庭内でエージェント機器を使用することも想定される。また、エージェント画像(エージェント機器200に相当)を表示させることが可能な各種機器(例えば、ゲーム機器、眼鏡型ディスプレイ、AR(Augmented Reality)グラス)を使用することも想定される。また、エージェント機器を制御可能なエレベータの制御装置、エージェント画像(エージェント機器200に相当)を表示させることが可能なエレベータの制御装置についても適用可能である。
[Examples of agent devices that can be installed outside of vehicles]
The above describes an example of the agent device 200 installed in the vehicle C1 and the agent image displayed on the vehicle C1. However, the present embodiment can also be applied to an agent device that can be removed from the vehicle C1, an agent device that can be installed outside the vehicle, and the like. For example, it is assumed that a user who possesses a portable agent device installs the agent device on the dashboard 2 of the vehicle C1 when getting into the vehicle C1, and carries the agent device when getting off the vehicle C1. It is also assumed that the user uses the agent device at home. It is also assumed that various devices (e.g., game devices, glasses-type displays, AR (Augmented Reality) glasses) capable of displaying an agent image (corresponding to the agent device 200) are used. It is also assumed that the present embodiment can be applied to an elevator control device capable of controlling the agent device, and an elevator control device capable of displaying an agent image (corresponding to the agent device 200).

例えば、家庭内では、家庭内に設置されている各機器に関する制御を実行することが考えられる。例えば、お風呂を沸かす制御、調理器具での調理の制御、音楽を出力する制御、玄関のドア、窓を開ける制御等を実行することが想定される。これらの場合には、お風呂、各調理器具、ドア、窓、音声出力等に関する報知情報を提供することが想定される。 For example, in a home, it is conceivable to execute control over each device installed in the home. For example, it is envisaged to execute control over heating the bath, cooking with kitchen utensils, outputting music, opening the front door and windows, etc. In these cases, it is envisaged to provide notification information regarding the bath, each kitchen utensil, doors, windows, audio output, etc.

例えば、複数のユーザからの指示に基づく処理、又は、センシングに基づく自動的な処理に対して、あるユーザに特定感情(負債感情、得感情)が生じた場合には、そのユーザに対して特定感情を緩和させるための演出を実行する。また、複数のユーザからの指示に基づく処理、又は、センシングに基づく自動的な処理に対して、あるユーザに不満感情(又は、損感情)が生じた場合には、そのユーザに対して不満感情を緩和させるための演出(例えば、謝罪演出)を実行する。なお、ユーザの特定感情、不満感情等については、上述した例と同様に、ユーザの生体情報(例えば、心拍、血脈)と、ユーザから発せられる音と、ユーザの外観(例えば、表情、動き)とに基づいて算出可能である。また、特定感情を緩和させるための演出については、図5(D)、図6(D1)乃至(D3)に示す例と同様である。また、不満感情を緩和させるための演出については、図5(E)(F)に示す例と同様である。なお、これらの各演出については、例えば、エージェント画像を表示可能な機器(例えば、ゲーム機器、眼鏡型ディスプレイ、ARグラス)を用いて、エージェント画像に実行させてもよい。なお、これらの場合には、エージェント画像を表示可能な機器がエージェント機器200に相当する。 For example, when a certain user feels a certain emotion (debt emotion, gain emotion) in response to a process based on instructions from multiple users or an automatic process based on sensing, a performance is executed to alleviate the certain emotion for the user. When a certain user feels dissatisfied (or a loss emotion) in response to a process based on instructions from multiple users or an automatic process based on sensing, a performance is executed to alleviate the dissatisfied emotion for the user (for example, an apology performance). Note that the user's specific emotion, dissatisfied emotion, etc. can be calculated based on the user's biometric information (for example, heart rate, blood vessels), the sound emitted by the user, and the user's appearance (for example, facial expression, movement), as in the above-mentioned example. Also, the performance to alleviate the certain emotion is the same as the example shown in FIG. 5 (D), FIG. 6 (D1) to (D3). Also, the performance to alleviate the dissatisfied emotion is the same as the example shown in FIG. 5 (E) (F). Note that each of these performances may be executed by the agent image using, for example, a device capable of displaying the agent image (for example, a game device, a glasses-type display, AR glasses). In these cases, the device capable of displaying the agent image corresponds to the agent device 200.

例えば、エレベータの制御装置が負債感情を緩和させる演出を実行する場合に、エレベータ内で音声を出力すると、全員に聞こえる可能性がある。そこで、特定の対象者だけにその演出に関する音声を伝えるようにする。例えば、エレベータに新たに乗った人に対して、「混雑しているけど、迷惑はかかっていないよ」、「あなたは急いでいるからしょうがないよね」等の音声を、指向性スピーカを用いてその人だけに伝わるように出力したり、それらを表現する表情のエージェント画像を、その人が所持する電子機器(例えば、スマートフォン)に表示したりすることが可能である。これらの各演出のうち一部の演出については、例えば、エレベータに新たに乗った人が、エレベータから降りた後のタイミングで実行してもよい。なお、エレベータに新たに乗った人の位置については、エレベータ内に設置されているカメラにより取得されたエレベータ内の画像に基づいて判定可能である。 For example, when an elevator control device executes an effect to ease feelings of indebtedness, if a voice is output in the elevator, it may be heard by everyone. Therefore, the voice related to the effect is transmitted only to specific targets. For example, to a person who has just entered the elevator, voice such as "It's crowded, but you're not bothering anyone" or "It can't be helped, since you're in a hurry" can be output using a directional speaker so that only that person can hear it, or an agent image with a facial expression expressing these can be displayed on an electronic device (e.g., a smartphone) carried by the person. Some of these effects may be executed, for example, after the person who has just entered the elevator gets off the elevator. The position of the person who has just entered the elevator can be determined based on an image of the inside of the elevator acquired by a camera installed in the elevator.

ここで、エレベータに新たに乗った人が所持する電子機器の検出方法について説明する。例えば、電子機器との無線通信が可能な通信部をエレベータ内に備える場合を想定する。この場合には、エレベータの制御装置は、エレベータに乗り込む人が所持する電子機器から発信されている電波を検出することが可能である。そこで、新たなユーザがエレベータに乗り込む際に新たに検出された電子機器を、その新たに乗った人が所持する電子機器として検出可能である。また、未登録の電子機器に情報を送信する送信方法については、公知の通信技術を用いることが可能である。 Here, we will explain a method for detecting electronic devices carried by a person who has newly entered an elevator. For example, assume that the elevator is equipped with a communication unit capable of wireless communication with electronic devices. In this case, the elevator control device can detect radio waves emitted from an electronic device carried by a person entering the elevator. Therefore, when a new user enters the elevator, the newly detected electronic device can be detected as an electronic device carried by the new user. In addition, known communication technology can be used as a transmission method for transmitting information to unregistered electronic devices.

このように、エレベータに元々乗っている人(ユーザB)と、エレベータに新たに乗る人(ユーザA)とについても、本実施形態を適用することが可能である。例えば、ユーザAは、エレベータに乗るための指示(例えば、上下方向を指示するボタン操作)を行うが、ユーザBは所定の階に移動することを指示しているものとする。この場合に、エレベータの制御装置は、ユーザAの指示に基づいて、ユーザAが存在する階で停止し、扉を開く制御を実行する。この場合には、ユーザA、Bが異なる指示を出した上で、エレベータの制御装置がユーザAの指示を最初に採用することになる。このため、上述したように、ユーザAがユーザBに対して負債感情を持つことも想定される。このような場合には、エレベータの制御装置は、ユーザBに知覚され難い態様でユーザAに対するフォローを実行する。 In this way, this embodiment can be applied to both a person already in the elevator (user B) and a new person getting in the elevator (user A). For example, assume that user A gives an instruction to get in the elevator (for example, pressing a button to instruct up or down), while user B gives an instruction to move to a specific floor. In this case, the elevator control device executes control to stop at the floor where user A is located and open the door based on the instruction from user A. In this case, after users A and B give different instructions, the elevator control device will adopt the instruction from user A first. For this reason, as described above, it is also assumed that user A will have a feeling of indebtedness toward user B. In such a case, the elevator control device will follow up on user A in a manner that is difficult for user B to perceive.

[本実施形態の効果例]
このように、本実施形態では、ユーザからの指示、周囲の環境情報等に基づいて、エージェント機器200が実行する処理が決定される。この場合に、各ユーザのそれぞれの感情(例えば、損得感情、負債感情、不満感情)が推定され、特定の感情が発生したと推定されたユーザについては、そのユーザに対してエージェント機器200が適切なフォローをするようにする。例えば、エージェント機器200による処理の実行により得感情が生じたユーザが存在し、そのユーザが他のユーザに対して謝罪したいような感情(例えば、負債感情)が発生している場合には、そのユーザに対してその感情を緩和させる演出を実行する。このように、エージェント機器200が自己の利益のためではなく、他のユーザのために行動しているように見える演出を実行することにより、ユーザの受容性と共感を高める演出を実現することが可能である。
[Examples of Effects of This Embodiment]
In this way, in this embodiment, the process executed by the agent device 200 is determined based on the instruction from the user, the surrounding environment information, and the like. In this case, the emotions (e.g., gain/loss emotions, debt emotions, dissatisfaction emotions) of each user are estimated, and the agent device 200 provides appropriate follow-up to the user who is estimated to have a particular emotion. For example, if there is a user who has experienced a gain emotion due to the execution of the process by the agent device 200, and the user experiences an emotion (e.g., debt emotions) that makes the user want to apologize to other users, a performance is executed to ease the emotion of the user. In this way, by executing a performance in which the agent device 200 appears to be acting for other users, not for its own benefit, it is possible to realize a performance that enhances the user's acceptance and empathy.

また、本実施形態では、複数人のユーザがいる状況において、エージェント機器200が処理した後に、少なくとも一方のユーザに対するフォローを、他方のユーザに知覚され難い態様で実行する。これにより、一方のユーザに嫌な気持ちにさせないようにすることが可能である。 In addition, in this embodiment, in a situation where there are multiple users, after the agent device 200 processes, it follows at least one of the users in a manner that is difficult for the other users to notice. This makes it possible to prevent one of the users from feeling uncomfortable.

また、本実施形態では、複数人のユーザがいる状況において、第1ユーザの指示(又は意見)をエージェント機器200が採用した場合に、第1ユーザに対するフォローを第2ユーザに知覚され難い態様で実行する。これにより、第1ユーザが第2ユーザに対して感じる負債感情(例えば、申し訳なさ)を解消することが可能となる。 In addition, in this embodiment, in a situation where there are multiple users, when the agent device 200 adopts the instructions (or opinions) of a first user, the agent device 200 follows up on the first user in a manner that is difficult for the second user to perceive. This makes it possible to eliminate the feeling of indebtedness (e.g., regret) that the first user feels toward the second user.

また、本実施形態では、複数人のユーザがいる状況において、エージェント機器200が所定の処理を実行した後に、複数人のユーザに対するフォローを実行することが可能である。特に、本実施形態では、エージェント機器200による選択により得感情が生じたユーザに対する適切なフォローを実現することが可能である。 In addition, in this embodiment, in a situation where there are multiple users, the agent device 200 can perform a predetermined process and then follow up with the multiple users. In particular, in this embodiment, it is possible to realize appropriate follow-up with a user who has developed a positive emotion through a selection made by the agent device 200.

また、本実施形態では、車両C1の乗員のうち、負の感情が生じた乗員に対して他者に知覚され難い態様でその感情を抑制する演出(例えば、振舞い)を行うことで、車両C1の乗員の全ての負の感情を抑制することができる。 In addition, in this embodiment, by performing a performance (e.g., behavior) that suppresses the emotion of any occupant of vehicle C1 who has experienced a negative emotion in a manner that is difficult for others to perceive, it is possible to suppress all negative emotions among the occupants of vehicle C1.

また、本実施形態では、エージェント機器200を使用して車両C1の乗員に生じた負の感情を抑制することにより、より快適なドライブアシストを実現することが可能である。 In addition, in this embodiment, it is possible to achieve a more comfortable drive assistance by using the agent device 200 to suppress negative emotions felt by the occupants of the vehicle C1.

また、本実施形態では、得したユーザ(得感情が生じたユーザ)、負債感情が生じたユーザに対するフォローとともに、損をしたユーザ(損感情が生じたユーザ)、不満感情が生じたユーザに対しても何らかの対応をする。これにより、車両C1の乗員に生じた各種の感情を適切に抑制するが可能である。 In addition, in this embodiment, in addition to providing support to users who have gained (users who have developed feelings of gain) and users who have developed feelings of indebtedness, some kind of response is also provided to users who have incurred losses (users who have developed feelings of loss) and users who have developed feelings of dissatisfaction. This makes it possible to appropriately suppress various emotions that arise in the occupants of vehicle C1.

[他の機器、他のシステムにおいて処理を実行させる例]
なお、以上では、制御処理等をエージェント機器200、情報処理装置110(又は情報処理システム100)において実行する例を示したが、それらの各処理の全部又は一部を他の機器において実行してもよい。この場合には、それらの各処理の一部を実行する各機器により情報処理システムが構成される。例えば、車載機器、ユーザが使用可能な機器(例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、カーナビゲーション装置、IVI)、インターネット等の所定のネットワークを介して接続可能なサーバ等の各種情報処理装置、各種電子機器を用いて各処理の少なくとも一部を実行させることができる。
[Example of executing processing in other devices or systems]
In the above, examples have been shown in which the control processes and the like are executed in the agent device 200 and the information processing device 110 (or the information processing system 100), but all or part of each of these processes may be executed in other devices. In this case, the information processing system is made up of each device that executes part of each of these processes. For example, at least part of each process can be executed using various information processing devices and various electronic devices, such as in-vehicle devices, devices that can be used by users (e.g., smartphones, tablet terminals, personal computers, car navigation devices, IVIs), and servers that can be connected via a predetermined network such as the Internet.

また、情報処理装置110(又は情報処理システム100)の機能を実行可能な情報処理システムの一部(又は全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。 In addition, a part (or all) of the information processing system capable of executing the functions of the information processing device 110 (or the information processing system 100) may be provided by an application that can be provided via a predetermined network such as the Internet. This application is, for example, SaaS (Software as a Service).

[本実施形態の構成例及びその効果]
本実施形態に係る情報処理方法は、ユーザU1、U2に対する複数の処理を実行可能なエージェント機器200(機器の一例)を制御する情報処理方法である。この情報処理方法は、複数のユーザU1、U2が存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザU1、U2のうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザU2(第1ユーザの一例)を検出する検出処理(ステップS506、S532)と、ユーザU2が検出された場合には、ユーザU2以外のユーザU1(第2ユーザの一例)に知覚され難い態様で、ユーザU2に対して特定感情を緩和させる演出をエージェント機器200に実行させる制御処理(ステップS509、S511)とを含む。また、本実施形態に係るプログラムは、これらの各処理をコンピュータに実行させるプログラムである。言い換えると、本実施形態に係るプログラムは、情報処理装置110が実行可能な各機能をコンピュータに実現させるプログラムである。
[Configuration Example and Effects of This Embodiment]
The information processing method according to the present embodiment is an information processing method for controlling an agent device 200 (an example of a device) capable of executing a plurality of processes for users U1 and U2. This information processing method includes a detection process (steps S506, S532) for detecting a user U2 (an example of a first user) who has a specific emotion including at least one of a debt emotion and a gain emotion caused by the selection from among the plurality of users U1 and U2 when a predetermined process is selected from among a plurality of processes in a state where a plurality of users U1 and U2 exist, and a control process (steps S509, S511) for causing the agent device 200 to perform a performance that alleviates the specific emotion for the user U2 in a manner that is difficult to be perceived by a user U1 (an example of a second user) other than the user U2 when the user U2 is detected. Also, the program according to the present embodiment is a program for causing a computer to execute each of these processes. In other words, the program according to the present embodiment is a program for causing a computer to realize each function that the information processing device 110 can execute.

この構成によれば、所定の処理の選択に起因して、ユーザU1に対する特定感情が生じたユーザU2に対して、ユーザU1に知覚され難い態様でその特定感情を緩和させる演出を実行することができる。これにより、ユーザU2に対して適切なフォローをすることが可能であり、エージェント機器200の使い易さを高めることが可能である。また、ユーザU2の嫌な気持ちを解消することが可能である。 According to this configuration, when user U2 develops a specific emotion toward user U1 due to the selection of a specific process, it is possible to execute a performance that alleviates the specific emotion in a manner that is difficult for user U1 to perceive. This makes it possible to provide appropriate support to user U2, and to increase the ease of use of the agent device 200. It is also possible to eliminate the unpleasant feelings of user U2.

本実施形態に係る情報処理方法では、ユーザU1(第2ユーザの一例)に知覚され難い態様は、ユーザU1に知覚され難い方法で演出をエージェント機器200(機器の一例)に実行させる第1態様と、ユーザU1に知覚され難いタイミングで演出をエージェント機器200に実行させる第2態様とのうちの少なくとも1つである。 In the information processing method according to this embodiment, the aspect that is difficult for the user U1 (an example of a second user) to perceive is at least one of a first aspect in which the agent device 200 (an example of a device) executes a performance in a manner that is difficult for the user U1 to perceive, and a second aspect in which the agent device 200 executes a performance at a timing that is difficult for the user U1 to perceive.

この構成によれば、ユーザU1に知覚され難い態様として、第1態様及び第2態様のうちから適切な態様を採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate mode from the first mode and the second mode as a mode that is difficult for user U1 to perceive, and it is possible to realize appropriate follow-up for user U2.

本実施形態に係る情報処理方法では、エージェント機器200(機器の一例)は、複数のユーザU1、U2とのコミュニケーションを行うことが可能なエージェント機器であり、第1態様は、エージェント機器200をユーザU2(第1ユーザの一例)の方向に向けた状態でエージェント機器200に所定の振舞いをさせる態様と、ユーザU2にだけ聞こえる音をエージェント機器200から出力させる態様と、ユーザU2が所持する電子機器MC2からエージェント機器200に関連する所定情報を出力させる態様と、エージェント機器200以外の機器(例えば、HUD、HUD表示装置)における表示領域(例えば、表示領域4a)にエージェント機器200に関連する所定情報を表示させる態様とのうちの少なくとも1つである。 In the information processing method according to this embodiment, the agent device 200 (an example of a device) is an agent device capable of communicating with multiple users U1 and U2, and the first aspect is at least one of the following: having the agent device 200 behave in a predetermined manner while facing the agent device 200 toward the user U2 (an example of a first user); having the agent device 200 output a sound that can only be heard by the user U2; having the electronic device MC2 held by the user U2 output predetermined information related to the agent device 200; and having the predetermined information related to the agent device 200 displayed in a display area (e.g., display area 4a) of a device other than the agent device 200 (e.g., a HUD, a HUD display device).

この構成によれば、ユーザU1に知覚され難い態様として、複数のユーザU1、U2が存在する環境等に応じて、複数の態様のうちから適切な態様を採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate mode from among multiple modes as a mode that is difficult for user U1 to perceive, depending on the environment in which multiple users U1 and U2 exist, and it is possible to realize appropriate follow-up for user U2.

本実施形態に係る情報処理方法では、エージェント機器200(機器の一例)は、複数のユーザU1、U2とのコミュニケーションを行うことが可能なエージェント機器であり、演出は、特定感情を緩和させる振舞いを表現させる演出と、特定感情を緩和させる音声を出力させる演出とのうちの少なくとも1つである。 In the information processing method according to this embodiment, the agent device 200 (one example of a device) is an agent device capable of communicating with multiple users U1 and U2, and the presentation is at least one of a presentation that expresses a behavior that alleviates a specific emotion and a presentation that outputs a sound that alleviates a specific emotion.

この構成によれば、特定感情を緩和させる演出として、複数の演出のうちから適切な演出を採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate effect from among multiple effects to alleviate a particular emotion, and it is possible to provide appropriate support to user U2.

本実施形態に係る情報処理方法では、エージェント機器200は、顔部を備える機器であり、エージェント機器200の振舞いは、ユーザU2(第1ユーザの一例)の眼をエージェント機器200の眼が見つめる動きと、ユーザU2を見ながらエージェント機器200の顔部がうなずく動きと、ユーザU2を見ながらエージェント機器200が行う所定の口の動きと、エージェント機器200の表面において所定画像又は所定文字を表示させることと、のうちの少なくとも1つである。 In the information processing method according to this embodiment, the agent device 200 is a device with a face, and the behavior of the agent device 200 is at least one of the following: the eyes of the agent device 200 gazing at the eyes of a user U2 (an example of a first user), the face of the agent device 200 nodding while looking at the user U2, a predetermined mouth movement performed by the agent device 200 while looking at the user U2, and displaying a predetermined image or predetermined text on the surface of the agent device 200.

この構成によれば、エージェント機器200の振舞いとして、複数の振舞いのうちから適切な振舞いを採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to adopt an appropriate behavior from among multiple behaviors as the behavior of the agent device 200, and it is possible to realize appropriate follow-up for the user U2.

本実施形態に係る情報処理方法では、第2態様のタイミングは、ユーザU1(第2ユーザの一例)の集中状態に基づいて設定されるタイミングと、エージェント機器200(機器の一例)が存在する場所からユーザU1が離れたタイミングと、のうちの少なくとも1つのタイミングである。なお、ユーザU1の集中状態に基づいて設定されるタイミングは、例えば、ユーザU1が何らかのことに集中している度合いに基づいて設定されるタイミングを意味する。ユーザU1が何らかのことに集中している度合いは、例えば、車両C1における運転シーンに基づいて判定可能である。 In the information processing method according to this embodiment, the timing of the second aspect is at least one of the timing set based on the concentration state of the user U1 (an example of a second user) and the timing when the user U1 moves away from the location where the agent device 200 (an example of a device) is located. Note that the timing set based on the concentration state of the user U1 means, for example, the timing set based on the degree to which the user U1 is concentrating on something. The degree to which the user U1 is concentrating on something can be determined, for example, based on the driving scene in the vehicle C1.

この構成によれば、第2態様のタイミングとして、複数のタイミングのうちから適切なタイミングを採用することが可能であり、ユーザU2に対する適切なフォローを実現することが可能である。 With this configuration, it is possible to select an appropriate timing from among multiple timings as the timing of the second mode, and it is possible to realize appropriate follow-up for user U2.

本実施形態に係る情報処理方法では、エージェント機器200(機器の一例)は、複数のユーザU1、U2からの指示に基づいて複数の処理を実行可能なエージェント機器であり、検出処理(ステップS506)では、複数のユーザU1、U2のそれぞれから相反する異なる複数の指示が出された場合において、複数の指示のうちからエージェント機器200により選択された指示を出したユーザU2をその選択により得感情が生じたユーザとして推定し、その得感情が生じたユーザU2を第1ユーザとして検出する。 In the information processing method according to this embodiment, the agent device 200 (one example of a device) is an agent device capable of executing multiple processes based on instructions from multiple users U1, U2, and in the detection process (step S506), when multiple conflicting and different instructions are issued from each of the multiple users U1, U2, the user U2 who issued an instruction selected by the agent device 200 from among the multiple instructions is inferred as the user who has experienced a gained emotion as a result of that selection, and the user U2 who has experienced the gained emotion is detected as the first user.

この構成によれば、複数のユーザU1、U2のそれぞれから相反する異なる複数の指示が出された場合に、特定感情を緩和させる演出の実行対象となるユーザU2を適切に検出可能となる。 With this configuration, when multiple users U1 and U2 issue multiple, conflicting instructions, it becomes possible to appropriately detect user U2 who is the target of the performance to alleviate a specific emotion.

本実施形態に係る情報処理方法において、検出処理(ステップS506)では、エージェント機器200により選択された指示を出したユーザU2に関する生体情報と発話内容と動作とのうちの少なくとも1つに基づいて、その指示がユーザU2の本心であるか否かを推定し、その指示がユーザU2の本心でないと推定された場合には、特定感情を緩和させる演出をエージェント機器200に実行させない。例えば、その指示がユーザU2の本心でないと推定された場合には、ユーザU2を本心でない指示により損をしたユーザとして検出することが可能である。 In the information processing method according to this embodiment, the detection process (step S506) estimates whether the instruction selected by the agent device 200 is the true intention of the user U2 based on at least one of the biometric information, speech content, and movement of the user U2 who issued the instruction, and if the instruction is estimated to be not the true intention of the user U2, the agent device 200 is not caused to execute a performance to alleviate the specific emotion. For example, if the instruction is estimated to be not the true intention of the user U2, it is possible to detect the user U2 as a user who has suffered a loss due to the instruction that was not the true intention.

この構成によれば、本心でない指示を出したユーザU2に対しては、特定感情を緩和させる演出を実行しないため、無駄な演出を削減することが可能である。これにより、本心でない指示を出したユーザU2を検出した以降の演算処理を低減させることが可能であり、消費電力も低減させることが可能である。 With this configuration, for user U2 who has issued an instruction that is not sincere, no effect is performed to alleviate a particular emotion, making it possible to reduce unnecessary effects. This makes it possible to reduce the amount of calculation processing that is required after detecting user U2 who has issued an instruction that is not sincere, and also to reduce power consumption.

本実施形態に係る情報処理方法において、検出処理(ステップS506、S532)では、複数のユーザU1、U2の周囲の環境情報(例えば、車両C1の車室内の温度)と、複数のユーザU1、U2に関する生体情報と、複数のユーザU1、U2に関する発話内容と、複数のユーザU1、U2に関する動作と、のうちの少なくとも1つの要素に基づいて、複数のユーザU1、U2のうちから選択により得感情が生じたユーザU2を推定し、その得感情が生じたユーザU2を第1ユーザとして検出する。例えば、車両C1の車室内の温度、ユーザU1、U2の各表情、ユーザU1、U2の各視線の遷移、ユーザU1、U2の各発話内容、ユーザU1、U2の各発話のトーン、ユーザU1、U2の動き等に基づいて、ユーザU1、U2のうちから選択により得をしたと推定されるユーザU2を検出可能である。例えば、車両C1の車室内の温度が所定値以下であり、ユーザU2が「寒い寒い」の声を連続して発し、かつ、ユーザU2の身体がブルブルと震え、上着を新たに着ていることが検出され、ユーザU1は通常の状態であると判定された場合を想定する。この場合には、エージェント機器200は、ユーザU2は寒さの限度を超えているが、ユーザU1は暑さに耐えられると判定し、ユーザU2の指示「エアコンの温度を上げて」を採用することを選択する。また、検出処理(ステップS506、S532)では、それらの各要素(車室内の温度、「寒い寒い」の声、ブルブルと震え、新たな上着の着用)に基づいて、特定感情が生じた第1ユーザとして、ユーザU2を検出する。なお、エージェント機器200(又は情報処理装置110)は、ユーザU1、U2の周囲の環境情報、ユーザU1、U2に関する生体情報、ユーザU1、U2に関する発話内容、ユーザU1、U2に関する動作等の各要素に基づいて、複数の処理(例えば、エアコンの温度設定、報知情報の提供、ラジオの制御)のうちの少なくとも1つを自動で実行可能である。このように、所定の処理(例えば、エアコンの温度設定)が自動で実行された場合には、検出処理(ステップS506、S532)では、それらの各要素に基づいて、得感情が生じたと推定される第1ユーザを検出する。 In the information processing method according to the present embodiment, in the detection process (steps S506 and S532), a user U2 who has gained a feeling of gain from the selection is estimated from among the multiple users U1 and U2 based on at least one element of environmental information (e.g., the temperature in the cabin of the vehicle C1) surrounding the multiple users U1 and U2, bioinformation regarding the multiple users U1 and U2, the contents of speech regarding the multiple users U1 and U2, and the actions of the multiple users U1 and U2, and the user U2 who has gained a feeling of gain is detected as the first user. For example, it is possible to detect a user U2 who is estimated to have gained a feeling of gain from the selection from among the users U1 and U2 based on the temperature in the cabin of the vehicle C1, the facial expressions of the users U1 and U2, the transition of the gaze of the users U1 and U2, the contents of speech of the users U1 and U2, the tone of speech of the users U1 and U2, the movements of the users U1 and U2, etc. For example, assume that the temperature inside the vehicle C1 is below a predetermined value, the user U2 repeatedly utters the voice "It's cold, it's cold," the user U2 is shivering, and the user U1 is wearing a new jacket, and the user U1 is determined to be in a normal state. In this case, the agent device 200 determines that the user U2 is beyond the limit of cold, but the user U1 can tolerate the heat, and selects to adopt the command from the user U2 to "turn up the air conditioner temperature." In addition, in the detection process (steps S506 and S532), the user U2 is detected as a first user who has experienced a specific emotion based on each of these elements (the temperature inside the vehicle, the voice saying "It's cold, it's cold," the shivering, and the wearing of a new jacket). The agent device 200 (or the information processing device 110) can automatically execute at least one of a number of processes (e.g., setting the temperature of an air conditioner, providing notification information, controlling a radio) based on various elements such as environmental information around the users U1 and U2, biometric information about the users U1 and U2, speech content about the users U1 and U2, and actions about the users U1 and U2. In this way, when a predetermined process (e.g., setting the temperature of an air conditioner) is executed automatically, the detection process (steps S506, S532) detects the first user who is presumed to have experienced a gaining emotion based on these various elements.

この構成によれば、適切なパラメータを用いて、得感情が生じたユーザを推定することが可能である。また、複数の処理のうちから実行すべき処理として選択された際のその選択に用いた要素に基づいて、得感情が生じたユーザを適切に検出することが可能である。 With this configuration, it is possible to estimate users who have experienced a feeling of gain using appropriate parameters. It is also possible to appropriately detect users who have experienced a feeling of gain based on the elements used when selecting a process to be executed from among multiple processes.

情報処理装置110は、ユーザU1、U2に対する複数の処理を実行可能なエージェント機器200(機器の一例)を制御する情報処理装置である。情報処理装置110は、複数のユーザU1、U2が存在する状態で複数の処理のうちから所定の処理が選択された場合に、複数のユーザU1、U2のうちから、その選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザU2(第1ユーザの一例)を検出する損得感情判定部122、負債感情判定部123(検出部の一例)と、ユーザU2が検出された場合には、ユーザU2以外のユーザU1(第2ユーザの一例)に知覚され難い態様で、ユーザU2に対して特定感情を緩和させる演出をエージェント機器200に実行させるエージェント制御部125(制御部の一例)とを備える。なお、情報処理装置110は、エージェント機器200に内蔵される機器としてもよく、エージェント機器200とは異なる機器としてもよい。また、情報処理装置110の代わりに、情報処理装置110により実現される各処理を実行可能な複数の機器により構成される情報処理システムとしてもよい。 The information processing device 110 is an information processing device that controls an agent device 200 (an example of a device) capable of executing a plurality of processes for users U1 and U2. When a predetermined process is selected from a plurality of processes in a state in which a plurality of users U1 and U2 exist, the information processing device 110 includes a gain/loss emotion determination unit 122 and a debt emotion determination unit 123 (an example of a detection unit) that detect a user U2 (an example of a first user) who has a specific emotion including at least one of a debt emotion and a gain emotion due to the selection from among the plurality of users U1 and U2, and an agent control unit 125 (an example of a control unit) that causes the agent device 200 to perform a performance that alleviates the specific emotion for the user U2 in a manner that is difficult to perceive by a user U1 (an example of a second user) other than the user U2 when the user U2 is detected. The information processing device 110 may be a device built into the agent device 200, or may be a device different from the agent device 200. In addition, instead of the information processing device 110, an information processing system configured of a plurality of devices capable of executing each process realized by the information processing device 110 may be used.

この構成によれば、所定の処理の選択に起因して、ユーザU1に対する特定感情が生じたユーザU2に対して、ユーザU1に知覚され難い態様でその特定感情を緩和させる演出を実行することができる。これにより、ユーザU2に対して適切なフォローをすることが可能であり、エージェント機器200の使い易さを高めることが可能である。また、ユーザU2の嫌な気持ちを解消することが可能である。 According to this configuration, when user U2 develops a specific emotion toward user U1 due to the selection of a specific process, it is possible to execute a performance that alleviates the specific emotion in a manner that is difficult for user U1 to perceive. This makes it possible to provide appropriate support to user U2, and to increase the ease of use of the agent device 200. It is also possible to eliminate the unpleasant feelings of user U2.

なお、本実施形態で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。 Note that each processing step shown in this embodiment is an example for realizing this embodiment, and the order of some of the processing steps may be changed within the scope that allows this embodiment to be realized, and some of the processing steps may be omitted or other processing steps may be added.

なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、情報処理装置に新機能を追加するためのアップデート処理により、そのプログラムを情報処理装置の記憶装置に記憶させることができる。これにより、そのアップデートされた情報処理装置に本実施形態で示した各処理を実施させることが可能となる。 Note that each process shown in this embodiment is executed based on a program for causing a computer to execute each processing procedure. Therefore, this embodiment can also be understood as an embodiment of a program that realizes the function of executing each of these processes, and a recording medium that stores the program. For example, the program can be stored in the storage device of the information processing device by an update process for adding a new function to the information processing device. This makes it possible to cause the updated information processing device to execute each of the processes shown in this embodiment.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 The above describes embodiments of the present invention, but the above embodiments merely show some examples of applications of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above embodiments.

100 情報処理システム、110 情報処理装置、120 制御部、121 指示受付部、122 損得感情判定部、123 負債感情判定部、124 不満感情判定部、125 エージェント制御部、130 記憶部、131 エージェント情報DB、132 指示情報DB、133 報知情報DB、134 地図情報DB、135 周囲状況DB、136 ユーザ状態DB、140 通信部、200 エージェント機器、210 表示部、220 音出力部、230 駆動部、MC1、MC2 電子機器
100 Information processing system, 110 Information processing device, 120 Control unit, 121 Instruction receiving unit, 122 Profit/loss emotion determination unit, 123 Debt emotion determination unit, 124 Dissatisfaction emotion determination unit, 125 Agent control unit, 130 Memory unit, 131 Agent information DB, 132 Instruction information DB, 133 Notification information DB, 134 Map information DB, 135 Surrounding situation DB, 136 User state DB, 140 Communication unit, 200 Agent device, 210 Display unit, 220 Sound output unit, 230 Drive unit, MC1, MC2 Electronic device

Claims (10)

ユーザに対する複数の処理を実行可能な機器を制御する情報処理方法であって、
複数のユーザが存在する状態で前記複数の処理のうちから所定の処理が選択された場合に、前記複数のユーザのうちから、当該選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザである第1ユーザを検出する検出処理と、
前記第1ユーザが検出された場合には、当該第1ユーザ以外のユーザである第2ユーザに知覚され難い態様で、前記第1ユーザに対して前記特定感情を緩和させる演出を前記機器に実行させる制御処理と、を含む
情報処理方法。
An information processing method for controlling a device capable of executing a plurality of processes for a user, comprising:
a detection process for detecting, when a predetermined process is selected from among a plurality of processes in a state where a plurality of users exists, a first user who is a user who has experienced a specific emotion including at least one of a debt emotion and a gain emotion due to the selection from among the plurality of users;
and when the first user is detected, a control process that causes the device to execute a performance that alleviates the specific emotion for the first user in a manner that is difficult to perceive by a second user other than the first user.
請求項1に記載の情報処理方法であって、
前記第2ユーザに知覚され難い態様は、前記第2ユーザに知覚され難い方法で前記演出を前記機器に実行させる第1態様と、前記第2ユーザに知覚され難いタイミングで前記演出を前記機器に実行させる第2態様と、のうちの少なくとも1つである、
情報処理方法。
2. The information processing method according to claim 1,
The aspect that is difficult to be perceived by the second user is at least one of a first aspect in which the device executes the performance in a manner that is difficult to be perceived by the second user, and a second aspect in which the device executes the performance at a timing that is difficult to be perceived by the second user.
Information processing methods.
請求項2に記載の情報処理方法であって、
前記機器は、前記複数のユーザとのコミュニケーションを行うことが可能なエージェント機器であり、
前記第1態様は、前記エージェント機器を前記第1ユーザの方向に向けた状態で前記エージェント機器に所定の振舞いをさせる態様と、前記第1ユーザにだけ聞こえる音を前記エージェント機器から出力させる態様と、前記第1ユーザが所持する電子機器から前記エージェント機器に関連する所定情報を出力させる態様と、前記エージェント機器以外の機器における表示領域に前記エージェント機器に関連する所定情報を表示させる態様と、のうちの少なくとも1つである、
情報処理方法。
3. The information processing method according to claim 2,
the device is an agent device capable of communicating with the plurality of users,
The first aspect is at least one of an aspect of causing the agent device to perform a predetermined behavior while facing the agent device toward the first user, an aspect of causing the agent device to output a sound that can only be heard by the first user, an aspect of causing an electronic device possessed by the first user to output predetermined information related to the agent device, and an aspect of causing a device other than the agent device to display predetermined information related to the agent device in a display area.
Information processing methods.
請求項1に記載の情報処理方法であって、
前記機器は、前記複数のユーザとのコミュニケーションを行うことが可能なエージェント機器であり、
前記演出は、前記特定感情を緩和させる振舞いを表現させる演出と、前記特定感情を緩和させる音声を出力させる演出と、のうちの少なくとも1つである、
情報処理方法。
2. The information processing method according to claim 1,
the device is an agent device capable of communicating with the plurality of users,
The effect is at least one of an effect of expressing a behavior that alleviates the specific emotion and an effect of outputting a sound that alleviates the specific emotion.
Information processing methods.
請求項3又は4に記載の情報処理方法であって、
前記エージェント機器は、顔部を備える機器であり、
前記振舞いは、前記第1ユーザの眼を前記エージェント機器の眼が見つめる動きと、前記第1ユーザを見ながら前記エージェント機器の顔部がうなずく動きと、前記第1ユーザを見ながら前記エージェント機器が行う所定の口の動きと、前記エージェント機器の表面において所定画像又は所定文字を表示させることと、のうちの少なくとも1つである、
情報処理方法。
5. The information processing method according to claim 3, further comprising:
the agent device is a device having a face part,
The behavior is at least one of the following: a movement of the eyes of the agent device gazing at the eyes of the first user; a movement of the face of the agent device nodding while looking at the first user; a predetermined mouth movement performed by the agent device while looking at the first user; and displaying a predetermined image or predetermined text on a surface of the agent device.
Information processing methods.
請求項2に記載の情報処理方法であって、
前記タイミングは、前記第2ユーザの集中状態に基づいて設定されるタイミングと、前記機器が存在する場所から前記第2ユーザが離れたタイミングと、のうちの少なくとも1つのタイミングである、
情報処理方法。
3. The information processing method according to claim 2,
The timing is at least one of a timing set based on a concentration state of the second user and a timing when the second user moves away from a location where the device is located.
Information processing methods.
請求項1に記載の情報処理方法であって、
前記機器は、前記複数のユーザからの指示に基づいて前記複数の処理を実行可能なエージェント機器であり、
前記検出処理では、前記複数のユーザのそれぞれから相反する異なる複数の指示が出された場合において、前記複数の指示のうちから前記エージェント機器により選択された指示を出したユーザを当該選択により前記得感情が生じたユーザとして推定し、当該得感情が生じたユーザを前記第1ユーザとして検出する、
情報処理方法。
2. The information processing method according to claim 1,
the device is an agent device capable of executing the plurality of processes based on instructions from the plurality of users;
in the detection process, when a plurality of different and conflicting instructions are issued from each of the plurality of users, a user who issued an instruction selected by the agent device from among the plurality of instructions is inferred as a user who has experienced the gained emotion as a result of the selection, and the user who has experienced the gained emotion is detected as the first user;
Information processing methods.
請求項7に記載の情報処理方法であって、
前記検出処理では、前記エージェント機器により選択された指示を出したユーザに関する生体情報と発話内容と動作とのうちの少なくとも1つに基づいて、当該指示が当該ユーザの本心であるか否かを推定し、
当該指示が当該ユーザの本心でないと推定された場合には、前記演出を前記機器に実行させない、
情報処理方法。
8. An information processing method according to claim 7,
In the detection process, it is estimated whether the instruction selected by the agent device is the true intention of the user based on at least one of biometric information, speech content, and movement of the user who issued the instruction;
If it is estimated that the instruction is not the user's true intention, the device is not allowed to execute the performance.
Information processing methods.
請求項1に記載の情報処理方法であって、
前記検出処理では、前記複数のユーザの周囲の環境情報と、前記複数のユーザに関する生体情報と、前記複数のユーザに関する発話内容と、前記複数のユーザに関する動作と、のうちの少なくとも1つの要素に基づいて、前記複数のユーザのうちから前記選択により前記得感情が生じたユーザを推定し、当該得感情が生じたユーザを前記第1ユーザとして検出する、
情報処理方法。
2. The information processing method according to claim 1,
In the detection process, a user who has experienced the feeling of gain due to the selection is estimated from among the plurality of users based on at least one element of environmental information around the plurality of users, biological information about the plurality of users, speech contents about the plurality of users, and actions about the plurality of users, and the user who has experienced the feeling of gain is detected as the first user.
Information processing methods.
ユーザに対する複数の処理を実行可能な機器を制御する情報処理装置であって、
複数のユーザが存在する状態で前記複数の処理のうちから所定の処理が選択された場合に、前記複数のユーザのうちから、当該選択に起因する負債感情及び得感情のうちの少なくとも1つを含む特定感情が生じたユーザである第1ユーザを検出する検出部と、
前記第1ユーザが検出された場合には、当該第1ユーザ以外のユーザである第2ユーザに知覚され難い態様で、前記第1ユーザに対して前記特定感情を緩和させる演出を前記機器に実行させる制御部と、を備える
情報処理装置。
An information processing device that controls a device capable of executing a plurality of processes for a user,
a detection unit that detects, when a predetermined process is selected from a plurality of processes in a state where a plurality of users exists, a first user who is a user from the plurality of users and who has experienced a specific emotion including at least one of a debt emotion and a gain emotion due to the selection;
An information processing device comprising: a control unit that, when the first user is detected, causes the device to execute a performance that alleviates the specific emotion for the first user in a manner that is difficult to perceive by a second user other than the first user.
JP2022197371A 2022-12-09 2022-12-09 Information processing method and information processing device Pending JP2024083068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022197371A JP2024083068A (en) 2022-12-09 2022-12-09 Information processing method and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022197371A JP2024083068A (en) 2022-12-09 2022-12-09 Information processing method and information processing device

Publications (1)

Publication Number Publication Date
JP2024083068A true JP2024083068A (en) 2024-06-20

Family

ID=91539435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022197371A Pending JP2024083068A (en) 2022-12-09 2022-12-09 Information processing method and information processing device

Country Status (1)

Country Link
JP (1) JP2024083068A (en)

Similar Documents

Publication Publication Date Title
JP6656079B2 (en) Control method of information presentation device and information presentation device
US10585471B2 (en) Systems and methods to provide an interactive space based on predicted events
JP4380541B2 (en) Vehicle agent device
JP7329755B2 (en) Support method and support system and support device using the same
JP6083441B2 (en) Vehicle occupant emotion response control device
JP6213489B2 (en) Vehicle occupant emotion response control device
JPH11259446A (en) Agent device
US20160288708A1 (en) Intelligent caring user interface
JP6115577B2 (en) Vehicle occupant emotion response control device
US11535261B2 (en) Medical monitoring virtual human with situational awareness
WO2019124158A1 (en) Information processing device, information processing method, program, display system, and moving body
WO2016181670A1 (en) Information processing device, information processing method, and program
JP2016137200A (en) Control device for coping with feeling of passenger for vehicle
WO2021258671A1 (en) Assisted driving interaction method and apparatus based on vehicle-mounted digital human, and storage medium
JP2016137202A (en) Control device for coping with feeling of passenger for vehicle
JP2020020987A (en) In-car system
JP6213488B2 (en) Vehicle occupant emotion response control device
JP2024083068A (en) Information processing method and information processing device
JP2024073110A (en) Control method and information processing device
WO2022124164A1 (en) Attention object sharing device, and attention object sharing method
JP2024073109A (en) Information processing method and information processing device
JP2020130502A (en) Information processing device and information processing method
JP2024073108A (en) Information processing method and information processing device
JP2024092633A (en) Information processing method and information processing device
WO2024042359A1 (en) Information processing method and information processing device