JP2018083269A - Interaction device and method for disclosing interaction - Google Patents

Interaction device and method for disclosing interaction Download PDF

Info

Publication number
JP2018083269A
JP2018083269A JP2016228957A JP2016228957A JP2018083269A JP 2018083269 A JP2018083269 A JP 2018083269A JP 2016228957 A JP2016228957 A JP 2016228957A JP 2016228957 A JP2016228957 A JP 2016228957A JP 2018083269 A JP2018083269 A JP 2018083269A
Authority
JP
Japan
Prior art keywords
interaction
user
control information
personality
interaction device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016228957A
Other languages
Japanese (ja)
Inventor
里奈 林
Rina Hayashi
里奈 林
俊樹 磯貝
Toshiki Isogai
俊樹 磯貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016228957A priority Critical patent/JP2018083269A/en
Priority to PCT/JP2017/031400 priority patent/WO2018096756A1/en
Publication of JP2018083269A publication Critical patent/JP2018083269A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Abstract

PROBLEM TO BE SOLVED: To properly enhance an effect desired to be extracted by interaction.SOLUTION: An interaction device 1 for disclosing an interaction corresponding to a user's character includes: a character discrimination part 2 for discriminating the character of a user contributing to an impression of the interaction device 1 held by the user by using at least one or more pieces of user's information; an interaction discrimination part 3 for detecting at least one or more actions to the interaction device 1 from the user; a control information storage part 4 for storing a plurality of pieces of control information corresponding to an interaction to the actions; a control information selection part 5 for selecting control information corresponding to the user's character among the plurality of pieces of control information when an action is detected; and an instruction disclosure part 6 for disclosing an interaction corresponding to the selected control information.SELECTED DRAWING: Figure 1

Description

本発明は、インタラクション装置及びインタラクションの表出方法に関する。   The present invention relates to an interaction device and an interaction expression method.

例えば特許文献1には、ユーザの性格を積極的、消極的、荒っぽい、自由奔放及び不明等の何れかに判別し、その判別したユーザの性格に応じたインタラクションを表出するコミュニケーションロボットが開示されている。   For example, Patent Document 1 discloses a communication robot that discriminates a user's personality from positive, passive, rough, free-spirited, unknown, etc., and displays an interaction according to the determined personality. ing.

特開2008−278981号公報JP 2008-278981 A

しかしながら、特許文献1の技術は、ユーザの性格を積極的、消極的、荒っぽい、自由奔放及び不明等の何れかに判別するに過ぎず、ユーザがコミュニケーションロボットに対して抱く印象に寄与する性格を適切に判別しているとは言い難い。そのため、インタラクションにより引き出したい効果を適切に高めることができない。   However, the technique of Patent Document 1 merely determines the user's personality as one of positive, passive, rough, free-spirited, unknown, etc. It is hard to say that it is properly determined. For this reason, it is not possible to appropriately enhance the effect desired to be extracted by interaction.

本発明は、上記した事情に鑑みてなされたものであり、その目的は、インタラクションにより引き出したい効果を適切に高めることができるインタラクション装置及びインタラクションの表出方法を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an interaction device and an interaction expression method that can appropriately enhance the effect desired to be extracted by interaction.

請求項1に記載した発明によれば、ユーザの性格に応じたインタラクションを表出するインタラクション装置(1)において、性格判別部(2)は、少なくとも一つ以上のユーザの情報を用い、ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格を判別する。インタラクション判別部(3)は、少なくとも一つ以上のユーザからのインタラクション装置への働きかけを検出する。制御情報記憶部(4)は、働きかけに対するインタラクションに対応する複数の制御情報を記憶している。制御情報選択部(5)は、働きかけがインタラクション判別部により検出されると、制御情報記憶部に記憶されている複数の制御情報の中から性格判別部により判別されたユーザの性格に対応する制御情報を選択する。インタラクション表出部(6)は、制御情報選択部により選択された制御情報に対応するインタラクションを表出する。   According to the first aspect of the present invention, in the interaction device (1) for expressing the interaction according to the user's personality, the personality discriminating unit (2) uses at least one or more user information, The user's personality that contributes to the impression of the interaction device is determined. The interaction discriminating unit (3) detects an action on the interaction device from at least one user. The control information storage unit (4) stores a plurality of control information corresponding to the interaction with the action. The control information selection unit (5), when an action is detected by the interaction determination unit, controls corresponding to the personality of the user determined by the personality determination unit from among a plurality of control information stored in the control information storage unit. Select information. The interaction display unit (6) displays an interaction corresponding to the control information selected by the control information selection unit.

インタラクションにより引き出したい効果の度合いが、ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格に依存する点に着眼した。ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格を判別し、ユーザからのインタラクション装置への働きかけを検出すると、その判別したユーザの性格に対応する制御情報を選択し、その選択した制御情報に対応するインタラクションを表出するようにした。ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格に応じたインタラクションを選択して表出することで、インタラクションにより引き出したい効果を適切に高めることができる。   We focused on the fact that the degree of the effect that the user wants to draw through the interaction depends on the user's personality that contributes to the impression the user has on the interaction device. When the user's personality that contributes to the impression the user has on the interaction device is determined, and when the user's action to the interaction device is detected, the control information corresponding to the determined user's personality is selected, and the selected control The interaction corresponding to information was displayed. By selecting and displaying the interaction according to the user's personality that contributes to the impression that the user has on the interaction device, it is possible to appropriately enhance the effect desired to be drawn out by the interaction.

本発明の一実施形態を示す機能ブロック図Functional block diagram showing an embodiment of the present invention インタラクションに対応する制御情報を示す図Diagram showing control information corresponding to interaction インタラクションを表出する態様を示す図Diagram showing how to express interaction フローチャートflowchart

以下、本発明の一実施形態について図面を参照して説明する。インタラクション装置1は、性格判別部2と、インタラクション判別部3と、制御情報記憶部4と、制御情報選択部5と、インタラクション表出部6とを有する。性格判別部2、インタラクション判別部3、制御情報記憶部4及び制御情報選択部5は、インタラクション装置1に搭載されているマイクロコンピュータが実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。即ち、マイクロコンピュータは、非遷移的実体的記録媒体に格納されているコンピュータプログラムを実行することで、コンピュータプログラムに対応する処理を実行し、インタラクション装置1の動作全般を制御する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The interaction device 1 includes a personality determination unit 2, an interaction determination unit 3, a control information storage unit 4, a control information selection unit 5, and an interaction expression unit 6. The personality discriminating unit 2, the interaction discriminating unit 3, the control information storage unit 4 and the control information selecting unit 5 are configured by a computer program executed by a microcomputer mounted on the interaction device 1, and are realized by software. . That is, the microcomputer executes the computer program stored in the non-transitional tangible recording medium, thereby executing processing corresponding to the computer program and controlling the overall operation of the interaction device 1.

性格判別部2は、ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格として、心理学的にビッグファイブと称される5因子である外向性、情緒安定性、開放性、誠実性、協調性のうち情緒安定性の度合いを判別する。これは、5因子のうち情緒安定性が、ユーザがインタラクション装置1に対して抱く印象やインタラクションにより引き出したい効果に最も大きく依存するからである。インタラクションにより引き出したい効果が得られれば、性格判別部2は、5因子のうち情緒安定性以外の度合いを判別しても良く、外向性、開放性、誠実性、協調性のうち何れかの度合いを判別しても良い。尚、外向性とは、心的エネルギーが外に向いているかを示す指標である。情緒安定性とは、精神的にバランスが安定しているかを示す指標である。開放性とは、新しい経験や知識を追い求めるかを示す指標である。誠実性とは、向上心があるかを示す指標である。協調性とは、人間関係を上手くやっていけるかを示す指標である。   The personality discriminating unit 2 is an extroversion, emotional stability, openness, and sincerity that are five factors psychologically referred to as big five as the user's personality that contributes to the impression that the user has with the interaction device 1 Determine the degree of emotional stability among the cooperativeness. This is because the emotional stability among the five factors is most dependent on the impression that the user has with respect to the interaction device 1 and the effect that the user wants to draw out by the interaction. If the desired effect is obtained by the interaction, the personality discriminating unit 2 may discriminate a degree other than emotional stability among the five factors, and any degree of extroversion, openness, honesty, and cooperation May be determined. Note that extroversion is an index indicating whether mental energy is outward. Emotional stability is an indicator of whether the balance is mentally stable. Openness is an index that indicates whether to pursue new experiences and knowledge. Honesty is an indicator of whether there is a sense of improvement. Cooperation is an index that shows how well human relationships can be achieved.

性格判別部2は、ユーザの性格を示す性格パラメータをユーザ毎に保持し、ユーザを識別するユーザ情報と、性格パラメータとを対応付けて保持している。性格判別部2は、センサ類7からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザの情報を取得し、その取得したユーザの情報を用い、情緒安定性の度合いを判別する。センサ類7は、例えばユーザの顔を撮影する画像センサ、ユーザの発話音声を入力する音声センサ、ユーザのインタラクション装置1への接触を検知する触覚センサ等である。即ち、性格判別部2は、ユーザの顔を撮影した映像を含む映像信号を画像センサからセンシング信号として入力すると、その入力した映像信号に含まれる映像を解析して情緒安定性の度合いを判別する。又、性格判別部2は、ユーザの発話音声を含む音声信号を音声センサからセンシング信号として入力すると、その入力した音声信号に含まれる音声を解析して情緒安定性の度合いを判別する。又、性格判別部2は、ユーザのインタラクション装置1への接触を含む接触信号を触覚センサからセンシング信号として入力すると、その入力した触覚信号に含まれるユーザのインタラクション装置1への接触を解析して情緒安定性の度合いを判別する。性格判別部2は、これらユーザの顔を撮影した映像、ユーザの発話音声、ユーザのインタラクション装置1への接触のうち少なくとも何れかを用い、情緒安定性の度合いを判別する。そして、性格判別部2は、ユーザの性格を判別すると、その判別結果を制御情報選択部5に出力する。又、性格判別部2は、後述するようにインタラクション判別部3から検出結果を入力すると、その検出結果を用い、ユーザ毎に保持している性格パラメータを更新する。   The personality discriminating unit 2 holds a personality parameter indicating the personality of each user, and holds user information for identifying the user and a personality parameter in association with each other. When a sensing signal is input from the sensors 7, the personality determination unit 2 acquires user information using the input sensing signal, and determines the degree of emotional stability using the acquired user information. The sensors 7 are, for example, an image sensor that captures a user's face, a voice sensor that inputs a user's speech, a tactile sensor that detects contact of the user with the interaction device 1, and the like. That is, when the video signal including the video of the user's face is input as a sensing signal from the image sensor, the personality determination unit 2 analyzes the video included in the input video signal and determines the degree of emotional stability. . In addition, when the voice signal including the user's utterance voice is input as a sensing signal from the voice sensor, the personality determination unit 2 analyzes the voice included in the input voice signal and determines the degree of emotional stability. In addition, when the contact signal including the contact with the user's interaction device 1 is input as a sensing signal from the touch sensor, the personality determination unit 2 analyzes the contact with the user's interaction device 1 included in the input touch signal. Determine the degree of emotional stability. The personality discriminating unit 2 discriminates the degree of emotional stability using at least one of the video obtained by photographing the user's face, the user's speech, and the user's contact with the interaction device 1. When the personality determination unit 2 determines the personality of the user, the personality determination unit 2 outputs the determination result to the control information selection unit 5. In addition, when the detection result is input from the interaction determination unit 3 as described later, the personality determination unit 2 updates the personality parameter held for each user using the detection result.

センサ類7は、インタラクション装置1の内部に設けられていても良いし、インタラクション装置1の外部に設けられていても良い。センサ類7がインタラクション装置1の外部に設けられている構成であれば、センサ類7がセンシング信号を無線通信により性格判別部2に送信する構成であれば良い。又、性格判別部2は、センサ類7から入力するセンシング信号を用いてユーザの性格を判別することに限らず、ユーザの情報を記憶している媒体を用いてユーザの性格を判別しても良く、例えばユーザが作成したSNS(Social Networking Service)等の情報を用いてユーザの性格を判別しても良い。   The sensors 7 may be provided inside the interaction device 1 or may be provided outside the interaction device 1. As long as the sensors 7 are provided outside the interaction device 1, the sensors 7 may be configured to transmit a sensing signal to the personality determination unit 2 by wireless communication. Further, the personality determination unit 2 is not limited to determining the user's personality using the sensing signals input from the sensors 7, but can also determine the user's personality using a medium storing the user's information. For example, the personality of the user may be determined using information such as SNS (Social Networking Service) created by the user.

インタラクション判別部3は、センサ類8からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザからのインタラクション装置1への働きかけが発生したと検出する。センサ類8も、前述したセンサ類7と同様に、例えばユーザの顔を撮影する画像センサ、ユーザの発話音声を入力する音声センサ、ユーザのインタラクション装置1への接触を検知する触覚センサ等である。インタラクション判別部3は、ユーザの顔の表情が働きかけの表情になったこと、ユーザが働きかけの音声を発したこと、ユーザからの働きかけの接触を検知したことのうち少なくとも何れかを検出すると、ユーザからのインタラクション装置1への働きかけが発生したと判定し、その検出結果を性格判別部2及び制御情報選択部5に出力する。   When the sensing signal is input from the sensors 8, the interaction determination unit 3 uses the input sensing signal to detect that the user has acted on the interaction device 1. Similarly to the sensors 7 described above, the sensors 8 are, for example, an image sensor that captures the user's face, an audio sensor that inputs the user's speech, a tactile sensor that detects contact of the user with the interaction device 1, and the like. . When the interaction determination unit 3 detects at least one of the expression of the user's face becoming an expression of action, the user's voice of action, or the detection of an action from the user, It is determined that an interaction to the interaction device 1 has occurred, and the detection result is output to the personality determination unit 2 and the control information selection unit 5.

センサ類8も、センサ類7と同様に、インタラクション装置1の内部に設けられていても良いし、インタラクション装置1の外部に設けられていても良い。センサ類8がインタラクション装置1の外部に設けられている構成であれば、センサ類8がセンシング信号を無線通信によりインタラクション判別部3に送信する構成であれば良い。又、センサ類7とセンサ類8とが共通であっても良い。   Similarly to the sensors 7, the sensors 8 may be provided inside the interaction device 1 or may be provided outside the interaction device 1. If the sensors 8 are provided outside the interaction device 1, the sensors 8 may be configured to transmit the sensing signal to the interaction determination unit 3 by wireless communication. The sensors 7 and the sensors 8 may be common.

制御情報記憶部4は、図2に示すように、インタラクションにより引き出したい効果と情緒安定性の度合いとに対応し、インタラクションに対応する制御情報を記憶している。即ち、制御情報記憶部4は、インタラクションにより引き出したい効果に基づき、ユーザの性格に対応する制御情報の選択を変化させている。制御情報記憶部4は、インタラクションに対応する制御情報として、感情的なインタラクションに対応する制御情報と、寛容的なインタラクションに対応する制御情報とを記憶している。感情的なインタラクションとは、ユーザからのネガティブな働きかけに対してネガティブに応答し、ユーザからのポジティブな働きかけに対してポジティブに応答するインタラクションである。寛容的なインタラクションとは、ユーザからのネガティブな働きかけ及びポジティブな働きかけの両方に対してポジティブに応答するインタラクションである。   As shown in FIG. 2, the control information storage unit 4 stores control information corresponding to the interaction corresponding to the effect desired to be extracted by the interaction and the degree of emotional stability. That is, the control information storage unit 4 changes the selection of the control information corresponding to the user's personality based on the effect desired to be extracted by the interaction. The control information storage unit 4 stores control information corresponding to emotional interaction and control information corresponding to permissive interaction as control information corresponding to the interaction. Emotional interaction is an interaction that responds negatively to negative actions from the user and responds positively to positive actions from the user. Tolerant interaction is an interaction that responds positively to both negative and positive actions from the user.

制御情報選択部5は、インタラクション判別部3から検出結果を入力すると、ユーザからのインタラクション装置1への働きかけが発生したと判定し、性格判別部2から入力する判別結果を用い、制御情報記憶部4に記憶されている複数の制御情報の中からユーザの性格に対応する制御情報を選択する。   When the detection result is input from the interaction determination unit 3, the control information selection unit 5 determines that the user has acted on the interaction device 1, and uses the determination result input from the personality determination unit 2 to use the control information storage unit Control information corresponding to the user's personality is selected from among the plurality of control information stored in 4.

具体的に説明すると、制御情報選択部5は、インタラクションにより引き出したい効果が例えば「緊張を緩和したい」であれば、情緒安定性の度合いに関係なく感情的なインタラクションに対応する制御情報を選択する。又、制御情報選択部5は、インタラクションにより引き出したい効果が例えば「疲労を緩和したい」であれば、情緒安定性が比較的高ければ寛容的なインタラクションに対応する制御情報を選択し、情緒安定性が比較的低ければ感情的なインタラクションに対応する制御情報を選択する。制御情報選択部5は、制御情報を選択すると、その選択した制御情報をインタラクション表出部6に出力する。   More specifically, the control information selection unit 5 selects control information corresponding to emotional interaction regardless of the degree of emotional stability if the effect desired to be extracted by interaction is, for example, “I want to relieve tension”. . The control information selection unit 5 selects control information corresponding to a tolerant interaction if the emotional stability is relatively high, for example, if the effect desired to be extracted by the interaction is “to relieve fatigue”. If is relatively low, control information corresponding to emotional interaction is selected. When the control information selection unit 5 selects the control information, the control information selection unit 5 outputs the selected control information to the interaction expression unit 6.

インタラクション表出部6は、インタラクション装置1に搭載されている例えばサーボモータ等のアクチュエータを含んで構成されている。図3に示すように、例えばインタラクション装置1が人型ロボット9であり、人型ロボット9が頭部10と胴体部11とを有する構成であれば、インタラクション表出部6は、制御情報選択部5から制御情報を入力すると、その入力した制御情報により頭部10の動作を制御し、インタラクションを表出する。   The interaction display unit 6 includes an actuator such as a servo motor that is mounted on the interaction device 1. As shown in FIG. 3, for example, if the interaction device 1 is a humanoid robot 9 and the humanoid robot 9 has a head 10 and a torso 11, the interaction display unit 6 includes a control information selection unit. When the control information is input from 5, the operation of the head 10 is controlled by the input control information and the interaction is expressed.

即ち、インタラクション表出部6は、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行い、制御情報選択部5から感情的なインタラクションに対応する制御情報を入力すると、例えば頭部10を前に垂れる動作を行い、感情的なインタラクションを表出し、ネガティブな印象を受けたことを表現するインタラクションを表出する。一方、インタラクション表出部6は、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行い、制御情報選択部5から寛容的なインタラクションに対応する制御情報を入力すると、例えば頭部10を左右にひねる動作を行い、寛容的なインタラクションを表出し、ポジティブな印象を受けたことを表現するインタラクションを表出する。同様に、インタラクション表出部6は、ユーザがポジティブな働きかけを行うと、制御情報選択部5から感情的なインタラクション及び寛容的なインタラクションの何れを入力した場合でも、ポジティブな印象を受けたことを表現するインタラクションを表出する。   That is, when the user performs a negative action that the user strikes the head 10 of the humanoid robot 9 and inputs control information corresponding to emotional interaction from the control information selection unit 5, for example, the head Performs the action of hanging 10 forward, expresses emotional interactions, and expresses interactions that express negative impressions. On the other hand, when the user performs a negative action that the user strikes the head 10 of the humanoid robot 9 and inputs control information corresponding to a tolerant interaction from the control information selection unit 5, for example, the head Twist 10 to the left and right to express a tolerant interaction and express an interaction that expresses a positive impression. Similarly, when the user performs a positive action, the interaction expression unit 6 confirms that a positive impression has been received regardless of whether emotional interaction or permissive interaction is input from the control information selection unit 5. Express the interaction you want to express.

次に、上記した構成の作用について図4を参照して説明する。インタラクション装置1は、性格判別部2において、センサ類7からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザの情報を取得し、その取得したユーザの情報を用い、ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格を判別する(S1)。   Next, the operation of the above configuration will be described with reference to FIG. When the personality determination unit 2 inputs a sensing signal from the sensors 7, the interaction device 1 acquires user information using the input sensing signal, and the user uses the acquired user information to allow the user to use the interaction device 1. The user's personality that contributes to the impression held by the user is determined (S1).

インタラクション装置1は、インタラクション判別部3において、センサ類8からセンシング信号の入力を監視している(S2)。インタラクション装置1は、センサ類8からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザからのインタラクション装置1への働きかけが発生したと判定し(S2:YES)、その時点で既に判別しているユーザの性格を取得する(S3)。インタラクション装置1は、制御情報選択部5において、制御情報記憶部4に記憶されている複数の制御情報の中からユーザの性格に対応する制御情報として、感情的なインタラクションに対応する制御情報と寛容的なインタラクションに対応する制御情報とのうち何れかを選択する(S4)。そして、インタラクション装置1は、インタラクション表出部6において、その選択した制御情報に対応するインタラクションを表出する(S5)。   The interaction device 1 monitors the input of a sensing signal from the sensors 8 in the interaction determination unit 3 (S2). When the interaction device 1 inputs a sensing signal from the sensors 8, the interaction device 1 uses the input sensing signal to determine that the user has acted on the interaction device 1 (S <b> 2: YES), and already determines at that time. The personality of the user is acquired (S3). In the interaction device 1, the control information selection unit 5 uses control information corresponding to emotional interaction and tolerance as control information corresponding to the user's personality from among a plurality of control information stored in the control information storage unit 4. The control information corresponding to the specific interaction is selected (S4). Then, the interaction device 1 displays an interaction corresponding to the selected control information in the interaction display unit 6 (S5).

即ち、インタラクション装置1は、例えばインタラクションにより引き出したい効果として「緊張を緩和したい」を制御情報選択部5が選択しており、且つ情緒安定性が比較的高いと性格判別部2が判別している状況で、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行うと、感情的なインタラクションに対応する制御情報を選択する。この場合、インタラクション装置1は、例えば頭部10を前に垂れる動作を行い、感情的なインタラクションを表出し、ネガティブな印象を受けたことを表現するインタラクションを表出する。これにより、ネガティブな印象を受けたことを表現するインタラクションがユーザに提示され、「緊張を緩和したい」という効果を適切に高めることができる。   That is, in the interaction device 1, for example, the control information selection unit 5 selects “I want to relieve tension” as an effect to be extracted by interaction, and the personality determination unit 2 determines that the emotional stability is relatively high. In a situation, when the user performs a negative action of hitting the head 10 of the humanoid robot 9, control information corresponding to emotional interaction is selected. In this case, the interaction device 1 performs, for example, an operation of hanging the head 10 forward, expresses an emotional interaction, and expresses an interaction that expresses a negative impression. Thereby, an interaction expressing that a negative impression has been received is presented to the user, and the effect of “I want to relieve tension” can be appropriately enhanced.

一方、インタラクション装置1は、例えばインタラクションにより引き出したい効果として「疲労を緩和したい」を制御情報選択部5が選択しており、且つ情緒安定性が比較的高いと性格判別部2が判別している状況で、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行うと、寛容的なインタラクションに対応する制御情報を選択する。この場合、インタラクション装置1は、例えば頭部10を左右にひねる動作を行い、寛容的なインタラクションを表出し、ポジティブな印象を受けたことを表現するインタラクションを表出する。これにより、ポジティブな印象を受けたことを表現するインタラクションがユーザに提示され、「疲労を緩和したい」という効果を適切に高めることができる。   On the other hand, in the interaction device 1, for example, the control information selection unit 5 selects “I want to relieve fatigue” as an effect that I want to draw out by interaction, and the personality determination unit 2 determines that the emotional stability is relatively high. In the situation, if the user performs a negative action of hitting the head 10 of the humanoid robot 9, the control information corresponding to the forgiving interaction is selected. In this case, the interaction device 1 performs, for example, an operation of twisting the head 10 to the left and right, expresses a forgiving interaction, and expresses an interaction that expresses a positive impression. Thereby, an interaction expressing that a positive impression has been received is presented to the user, and the effect of “I want to relieve fatigue” can be appropriately enhanced.

そして、インタラクション装置1は、このようにしてインタラクションを表出した後に、性格判別部2において、働きかけの検出結果を用い、性格パラメータを更新する(S6)。   Then, after the interaction device 1 expresses the interaction in this way, the personality determination unit 2 updates the personality parameter using the detection result of the action (S6).

尚、以上は、制御情報記憶部4が、働きかけに対するインタラクションに対応する複数の制御情報として、感情的なインタラクションに対応する制御情報と、寛容的なインタラクションに対応する制御情報とを記憶している場合を例示したが、非感情的なインタラクションに対応する制御情報と、非寛容的なインタラクションに対応する制御情報とを記憶していても良い。非感情的なインタラクションとは、感情的なインタラクションとは真逆のインタラクションであり、ネガティブな働きかけに対してポジティブに応答し、ポジティブな働きかけ対してネガティブに応答するインタラクションである。非寛容的なインタラクションとは、感情的なインタラクションとは真逆のインタラクションであり、ネガティブな働きかけ及びポジティブな働きかけの両方に対してネガティブに応答するインタラクションである。   In the above, the control information storage unit 4 stores control information corresponding to emotional interaction and control information corresponding to permissive interaction as a plurality of control information corresponding to interaction with an action. Although the case has been exemplified, control information corresponding to non-emotional interaction and control information corresponding to non-tolerant interaction may be stored. Non-emotional interaction is an interaction that is the opposite of emotional interaction, and is an interaction that responds positively to negative actions and responds negatively to positive actions. Non-tolerant interactions are interactions that are the opposite of emotional interactions and are those that respond negatively to both negative and positive actions.

以上に説明したように本実施形態によれば、次に示す効果を得ることができる。
インタラクション装置1において、インタラクションにより引き出したい効果の度合いが、ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格に依存する点に着眼した。ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格を判別し、ユーザからのインタラクション装置1への働きかけを検出すると、ユーザの性格に対応する制御情報を選択し、その選択した制御情報に対応するインタラクションを表出するようにした。ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格に応じたインタラクションを表出することで、インタラクションにより引き出したい効果を適切に高めることができる。
As described above, according to the present embodiment, the following effects can be obtained.
In the interaction device 1, attention was paid to the fact that the degree of the effect desired to be drawn out by the interaction depends on the user's personality that contributes to the impression the user has on the interaction device 1. When the user's personality that contributes to the impression the user has on the interaction device 1 is determined, and the user's action on the interaction device 1 is detected, control information corresponding to the user's personality is selected, and the selected control information The interaction corresponding to was displayed. By expressing the interaction according to the user's personality that contributes to the impression that the user has on the interaction device 1, it is possible to appropriately enhance the effect that the user wants to draw out.

又、インタラクション装置1において、性格判別部2が情緒安定性の度合いを判別するようにした。心理学的にビッグファイブと称される5因子のうちユーザがインタラクション装置1に対して抱く印象やインタラクションにより引き出したい効果に最も大きく依存する情緒安定性を判別することで、インタラクションにより引き出したい効果をより適切に高めることができる。   In the interaction device 1, the personality discriminating unit 2 discriminates the degree of emotional stability. Of the five factors psychologically called “Big Five”, the effect that the user wants to extract by interaction is determined by determining the emotional stability that is most dependent on the impression that the user has on the interaction device 1 and the effect that the user wants to extract by interaction. It can be raised more appropriately.

又、インタラクション装置1において、インタラクションにより引き出したい効果に基づき、ユーザの性格に対応する制御情報の選択を変化させるようにした。インタラクションにより引き出したい効果に対し、インタラクションを柔軟に変化させて表出することできる。   Further, in the interaction device 1, the selection of control information corresponding to the user's personality is changed based on the effect desired to be extracted by the interaction. For the effect that you want to draw out by interaction, you can express it by changing the interaction flexibly.

又、インタラクション装置1において、ユーザの性格を示す性格パラメータをユーザ毎に保持し、働きかけの検出結果を用い、性格パラメータを更新するようにした。性格パラメータを更新することで、ユーザの性格が時間経過にしたがって変化する場合でも、そのユーザの性格の変化を適切に反映することができる。   Further, in the interaction device 1, the personality parameter indicating the personality of the user is held for each user, and the personality parameter is updated using the detection result of the action. By updating the personality parameter, even if the user's personality changes with time, the change in the user's personality can be appropriately reflected.

本開示は、実施例に準拠して記述されたが、当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、更には、それらに一要素のみ、それ以上、或いはそれ以下を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。   Although the present disclosure has been described with reference to the embodiments, it is understood that the present disclosure is not limited to the embodiments and structures. The present disclosure includes various modifications and modifications within the equivalent range. In addition, various combinations and forms, as well as other combinations and forms including only one element, more or less, are within the scope and spirit of the present disclosure.

インタラクション装置1として人型ロボット9に適用した構成を例示したが、例えばぬいぐるみ型ロボット等のユーザとの対話を表現するロボットに適用しても良い。又、コンピュータを用いて作成した画像(即ちコンピュータグラフィックス)に適用しても良い。インタラクションを表出する態様として、人型ロボット9の頭部10を前に垂れる動作や左右にひねる動作を例示したが、これら以外の動作を採用しても良い。例えばぬいぐるみ型ロボットであれば、尻尾を振る動作を採用しても良い。又、動作を提示する態様を例示したが、例えば音声を提示しても良いし、動作と音声とを併用して提示しても良い。   Although the configuration applied to the humanoid robot 9 is illustrated as the interaction device 1, it may be applied to a robot that expresses a dialog with a user such as a stuffed robot. Moreover, you may apply to the image (namely, computer graphics) produced using the computer. As an aspect of expressing the interaction, the operation of hanging the head 10 of the humanoid robot 9 forward and the operation of twisting left and right are exemplified, but other operations may be adopted. For example, in the case of a stuffed robot, an operation of shaking the tail may be adopted. Moreover, although the aspect which shows operation | movement was illustrated, the audio | voice may be shown, for example, and you may show combining an operation | movement and an audio | voice.

図面中、1はインタラクション装置、2は性格判別部、3はインタラクション判別部、4は制御情報記憶部、5は制御情報選択部、6はインタラクション表出部である。   In the drawings, 1 is an interaction device, 2 is a personality determination unit, 3 is an interaction determination unit, 4 is a control information storage unit, 5 is a control information selection unit, and 6 is an interaction expression unit.

Claims (7)

ユーザの性格に応じたインタラクションを表出するインタラクション装置(1)において、
少なくとも一つ以上のユーザの情報を用い、ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格を判別する性格判別部(2)と、
少なくとも一つ以上のユーザからのインタラクション装置への働きかけを検出するインタラクション判別部(3)と、
前記働きかけに対するインタラクションに対応する複数の制御情報を記憶している制御情報記憶部(4)と、
前記働きかけが前記インタラクション判別部により検出されると、前記制御情報記憶部に記憶されている複数の前記制御情報の中から前記性格判別部により判別されたユーザの性格に対応する前記制御情報を選択する制御情報選択部(5)と、
前記制御情報選択部により選択された前記制御情報に対応する前記インタラクションを表出するインタラクション表出部(6)と、を備えるインタラクション装置。
In the interaction device (1) for expressing the interaction according to the personality of the user,
A personality discriminating unit (2) for discriminating the personality of the user that contributes to the impression that the user has with respect to the interaction device, using at least one user information;
An interaction discriminating unit (3) for detecting an action on the interaction device from at least one user;
A control information storage unit (4) storing a plurality of control information corresponding to the interaction with the action;
When the action is detected by the interaction determination unit, the control information corresponding to the personality of the user determined by the personality determination unit is selected from the plurality of control information stored in the control information storage unit A control information selection unit (5) to perform,
An interaction device comprising: an interaction expression unit (6) for expressing the interaction corresponding to the control information selected by the control information selection unit.
前記性格判別部は、外向性、情緒安定性、開放性、誠実性、協調性のうち少なくとも何れかの度合いを判別する請求項1に記載のインタラクション装置。   The interaction device according to claim 1, wherein the personality discriminating unit discriminates at least one of extroversion, emotional stability, openness, integrity, and cooperation. 前記制御情報記憶部は、前記複数の制御情報として、感情的なインタラクション、非感情的なインタラクション、寛容的なインタラクション、非寛容的なインタラクションのうち少なくとも何れかに対応する制御情報を記憶している請求項1又は2に記載のインタラクション装置。   The control information storage unit stores control information corresponding to at least one of emotional interaction, non-emotional interaction, permissive interaction, and non-tolerant interaction as the plurality of control information. The interaction device according to claim 1 or 2. 前記制御情報選択部は、インタラクションにより引き出したい効果に基づき、前記性格判別部により判別されたユーザの性格に対応する前記制御情報の選択を変化させる請求項1から3の何れか一項に記載のインタラクション装置。   The said control information selection part changes selection of the said control information corresponding to the user's character discriminate | determined by the said character discrimination | determination part based on the effect which it wants to pull out by interaction, The control information selection part as described in any one of Claim 1 to 3 Interaction device. 前記性格判別部は、ユーザの性格を示す性格パラメータをユーザ毎に保持し、ユーザを識別するユーザ情報と、前記性格パラメータとを対応付けて保持する請求項1から4の何れか一項に記載のインタラクション装置。   The said personality discrimination | determination part hold | maintains the personality parameter which shows a user's personality for every user, The user information which identifies a user, and the said personality parameter are matched and hold | maintained as described in any one of Claim 1 to 4 Interaction device. 前記性格判別部は、前記インタラクション判別部により検出された前記働きかけの検出結果を用い、前記性格パラメータを更新する請求項5に記載のインタラクション装置。   The interaction device according to claim 5, wherein the personality determination unit updates the personality parameter using the detection result of the action detected by the interaction determination unit. ユーザの性格に応じたインタラクションを表出するインタラクションの表出方法において、
少なくとも一つ以上のユーザの情報を用い、ユーザがインタラクション装置(1)に対して抱く印象に寄与するユーザの性格を判別する手順と、
少なくとも一つ以上のユーザからの前記インタラクション装置への働きかけを検出する手順と、
前記働きかけを検出すると、前記働きかけに対するインタラクションに対応する複数の制御情報の中から当該判別したユーザの性格に対応する前記制御情報を選択する手順と、
その選択した前記制御情報に対応する前記インタラクションを表出する手順と、を行うインタラクションの表出方法。
In the interaction expression method that expresses the interaction according to the user's personality,
Using at least one user information to determine a user's personality that contributes to the impression the user has on the interaction device (1);
A procedure for detecting an action on the interaction device from at least one user;
When detecting the action, a procedure for selecting the control information corresponding to the determined personality from among a plurality of control information corresponding to the interaction with the action;
And a procedure for expressing the interaction corresponding to the selected control information.
JP2016228957A 2016-11-25 2016-11-25 Interaction device and method for disclosing interaction Pending JP2018083269A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016228957A JP2018083269A (en) 2016-11-25 2016-11-25 Interaction device and method for disclosing interaction
PCT/JP2017/031400 WO2018096756A1 (en) 2016-11-25 2017-08-31 Interaction device and method for expressing interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016228957A JP2018083269A (en) 2016-11-25 2016-11-25 Interaction device and method for disclosing interaction

Publications (1)

Publication Number Publication Date
JP2018083269A true JP2018083269A (en) 2018-05-31

Family

ID=62196047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016228957A Pending JP2018083269A (en) 2016-11-25 2016-11-25 Interaction device and method for disclosing interaction

Country Status (2)

Country Link
JP (1) JP2018083269A (en)
WO (1) WO2018096756A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0110480D0 (en) * 2001-04-28 2001-06-20 Univ Manchester Metropolitan Methods and apparatus for analysing the behaviour of a subject
JP2004174642A (en) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd Radio communication system, program for cellphone, robot device and program for robot device
JP5007404B2 (en) * 2007-05-09 2012-08-22 株式会社国際電気通信基礎技術研究所 Personality discrimination device, personality discrimination method, communication robot and electronic device
JP5624100B2 (en) * 2012-10-03 2014-11-12 コリア インスティチュートオブ インダストリアル テクノロジー Artificial emotion learning apparatus and method

Also Published As

Publication number Publication date
WO2018096756A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
US11929072B2 (en) Using textual input and user state information to generate reply content to present in response to the textual input
US11322143B2 (en) Forming chatbot output based on user state
KR102188754B1 (en) Contextual task shortcuts
JP2019096349A5 (en)
TWI582753B (en) Method, system, and computer-readable storage medium for operating a virtual assistant
US10102723B2 (en) Dynamic haptic generation based on detected video events
US9443401B2 (en) Automatic remote sensing and haptic conversion system
WO2016036522A4 (en) User interface for receiving user input
KR102389185B1 (en) Electronic device and method for executing function using input interface displayed via at least portion of content
JP2014112411A5 (en)
JP2013089238A5 (en)
US9542943B2 (en) Minutes making assistance device, electronic conference device, electronic conference system, minutes making assistance method, and storage medium storing minutes making assistance program
JP2017151517A (en) Robot control system
KR20190122559A (en) Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
CN112441009B (en) State estimation device, state estimation method, and storage medium
JP2014202857A5 (en)
JP5837475B2 (en) Electronics
US10665032B2 (en) Real-time motion feedback for extended reality
JP2013037467A (en) Command issuing apparatus, command issuing method, and program
EP4174629A1 (en) Electronic device and control method thereof
WO2018096756A1 (en) Interaction device and method for expressing interaction
JP6011127B2 (en) Action detection program and action detection apparatus
JP6996379B2 (en) Learning system and programs for learning system
CN113347522B (en) Earphone control method, device, equipment and storage medium
JPWO2018116556A1 (en) Information processing apparatus and information processing method