JP2018083269A - Interaction device and method for disclosing interaction - Google Patents
Interaction device and method for disclosing interaction Download PDFInfo
- Publication number
- JP2018083269A JP2018083269A JP2016228957A JP2016228957A JP2018083269A JP 2018083269 A JP2018083269 A JP 2018083269A JP 2016228957 A JP2016228957 A JP 2016228957A JP 2016228957 A JP2016228957 A JP 2016228957A JP 2018083269 A JP2018083269 A JP 2018083269A
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- user
- control information
- personality
- interaction device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
Abstract
Description
本発明は、インタラクション装置及びインタラクションの表出方法に関する。 The present invention relates to an interaction device and an interaction expression method.
例えば特許文献1には、ユーザの性格を積極的、消極的、荒っぽい、自由奔放及び不明等の何れかに判別し、その判別したユーザの性格に応じたインタラクションを表出するコミュニケーションロボットが開示されている。
For example,
しかしながら、特許文献1の技術は、ユーザの性格を積極的、消極的、荒っぽい、自由奔放及び不明等の何れかに判別するに過ぎず、ユーザがコミュニケーションロボットに対して抱く印象に寄与する性格を適切に判別しているとは言い難い。そのため、インタラクションにより引き出したい効果を適切に高めることができない。
However, the technique of
本発明は、上記した事情に鑑みてなされたものであり、その目的は、インタラクションにより引き出したい効果を適切に高めることができるインタラクション装置及びインタラクションの表出方法を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an interaction device and an interaction expression method that can appropriately enhance the effect desired to be extracted by interaction.
請求項1に記載した発明によれば、ユーザの性格に応じたインタラクションを表出するインタラクション装置(1)において、性格判別部(2)は、少なくとも一つ以上のユーザの情報を用い、ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格を判別する。インタラクション判別部(3)は、少なくとも一つ以上のユーザからのインタラクション装置への働きかけを検出する。制御情報記憶部(4)は、働きかけに対するインタラクションに対応する複数の制御情報を記憶している。制御情報選択部(5)は、働きかけがインタラクション判別部により検出されると、制御情報記憶部に記憶されている複数の制御情報の中から性格判別部により判別されたユーザの性格に対応する制御情報を選択する。インタラクション表出部(6)は、制御情報選択部により選択された制御情報に対応するインタラクションを表出する。 According to the first aspect of the present invention, in the interaction device (1) for expressing the interaction according to the user's personality, the personality discriminating unit (2) uses at least one or more user information, The user's personality that contributes to the impression of the interaction device is determined. The interaction discriminating unit (3) detects an action on the interaction device from at least one user. The control information storage unit (4) stores a plurality of control information corresponding to the interaction with the action. The control information selection unit (5), when an action is detected by the interaction determination unit, controls corresponding to the personality of the user determined by the personality determination unit from among a plurality of control information stored in the control information storage unit. Select information. The interaction display unit (6) displays an interaction corresponding to the control information selected by the control information selection unit.
インタラクションにより引き出したい効果の度合いが、ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格に依存する点に着眼した。ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格を判別し、ユーザからのインタラクション装置への働きかけを検出すると、その判別したユーザの性格に対応する制御情報を選択し、その選択した制御情報に対応するインタラクションを表出するようにした。ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格に応じたインタラクションを選択して表出することで、インタラクションにより引き出したい効果を適切に高めることができる。 We focused on the fact that the degree of the effect that the user wants to draw through the interaction depends on the user's personality that contributes to the impression the user has on the interaction device. When the user's personality that contributes to the impression the user has on the interaction device is determined, and when the user's action to the interaction device is detected, the control information corresponding to the determined user's personality is selected, and the selected control The interaction corresponding to information was displayed. By selecting and displaying the interaction according to the user's personality that contributes to the impression that the user has on the interaction device, it is possible to appropriately enhance the effect desired to be drawn out by the interaction.
以下、本発明の一実施形態について図面を参照して説明する。インタラクション装置1は、性格判別部2と、インタラクション判別部3と、制御情報記憶部4と、制御情報選択部5と、インタラクション表出部6とを有する。性格判別部2、インタラクション判別部3、制御情報記憶部4及び制御情報選択部5は、インタラクション装置1に搭載されているマイクロコンピュータが実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。即ち、マイクロコンピュータは、非遷移的実体的記録媒体に格納されているコンピュータプログラムを実行することで、コンピュータプログラムに対応する処理を実行し、インタラクション装置1の動作全般を制御する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The
性格判別部2は、ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格として、心理学的にビッグファイブと称される5因子である外向性、情緒安定性、開放性、誠実性、協調性のうち情緒安定性の度合いを判別する。これは、5因子のうち情緒安定性が、ユーザがインタラクション装置1に対して抱く印象やインタラクションにより引き出したい効果に最も大きく依存するからである。インタラクションにより引き出したい効果が得られれば、性格判別部2は、5因子のうち情緒安定性以外の度合いを判別しても良く、外向性、開放性、誠実性、協調性のうち何れかの度合いを判別しても良い。尚、外向性とは、心的エネルギーが外に向いているかを示す指標である。情緒安定性とは、精神的にバランスが安定しているかを示す指標である。開放性とは、新しい経験や知識を追い求めるかを示す指標である。誠実性とは、向上心があるかを示す指標である。協調性とは、人間関係を上手くやっていけるかを示す指標である。
The personality
性格判別部2は、ユーザの性格を示す性格パラメータをユーザ毎に保持し、ユーザを識別するユーザ情報と、性格パラメータとを対応付けて保持している。性格判別部2は、センサ類7からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザの情報を取得し、その取得したユーザの情報を用い、情緒安定性の度合いを判別する。センサ類7は、例えばユーザの顔を撮影する画像センサ、ユーザの発話音声を入力する音声センサ、ユーザのインタラクション装置1への接触を検知する触覚センサ等である。即ち、性格判別部2は、ユーザの顔を撮影した映像を含む映像信号を画像センサからセンシング信号として入力すると、その入力した映像信号に含まれる映像を解析して情緒安定性の度合いを判別する。又、性格判別部2は、ユーザの発話音声を含む音声信号を音声センサからセンシング信号として入力すると、その入力した音声信号に含まれる音声を解析して情緒安定性の度合いを判別する。又、性格判別部2は、ユーザのインタラクション装置1への接触を含む接触信号を触覚センサからセンシング信号として入力すると、その入力した触覚信号に含まれるユーザのインタラクション装置1への接触を解析して情緒安定性の度合いを判別する。性格判別部2は、これらユーザの顔を撮影した映像、ユーザの発話音声、ユーザのインタラクション装置1への接触のうち少なくとも何れかを用い、情緒安定性の度合いを判別する。そして、性格判別部2は、ユーザの性格を判別すると、その判別結果を制御情報選択部5に出力する。又、性格判別部2は、後述するようにインタラクション判別部3から検出結果を入力すると、その検出結果を用い、ユーザ毎に保持している性格パラメータを更新する。
The personality
センサ類7は、インタラクション装置1の内部に設けられていても良いし、インタラクション装置1の外部に設けられていても良い。センサ類7がインタラクション装置1の外部に設けられている構成であれば、センサ類7がセンシング信号を無線通信により性格判別部2に送信する構成であれば良い。又、性格判別部2は、センサ類7から入力するセンシング信号を用いてユーザの性格を判別することに限らず、ユーザの情報を記憶している媒体を用いてユーザの性格を判別しても良く、例えばユーザが作成したSNS(Social Networking Service)等の情報を用いてユーザの性格を判別しても良い。
The
インタラクション判別部3は、センサ類8からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザからのインタラクション装置1への働きかけが発生したと検出する。センサ類8も、前述したセンサ類7と同様に、例えばユーザの顔を撮影する画像センサ、ユーザの発話音声を入力する音声センサ、ユーザのインタラクション装置1への接触を検知する触覚センサ等である。インタラクション判別部3は、ユーザの顔の表情が働きかけの表情になったこと、ユーザが働きかけの音声を発したこと、ユーザからの働きかけの接触を検知したことのうち少なくとも何れかを検出すると、ユーザからのインタラクション装置1への働きかけが発生したと判定し、その検出結果を性格判別部2及び制御情報選択部5に出力する。
When the sensing signal is input from the sensors 8, the
センサ類8も、センサ類7と同様に、インタラクション装置1の内部に設けられていても良いし、インタラクション装置1の外部に設けられていても良い。センサ類8がインタラクション装置1の外部に設けられている構成であれば、センサ類8がセンシング信号を無線通信によりインタラクション判別部3に送信する構成であれば良い。又、センサ類7とセンサ類8とが共通であっても良い。
Similarly to the
制御情報記憶部4は、図2に示すように、インタラクションにより引き出したい効果と情緒安定性の度合いとに対応し、インタラクションに対応する制御情報を記憶している。即ち、制御情報記憶部4は、インタラクションにより引き出したい効果に基づき、ユーザの性格に対応する制御情報の選択を変化させている。制御情報記憶部4は、インタラクションに対応する制御情報として、感情的なインタラクションに対応する制御情報と、寛容的なインタラクションに対応する制御情報とを記憶している。感情的なインタラクションとは、ユーザからのネガティブな働きかけに対してネガティブに応答し、ユーザからのポジティブな働きかけに対してポジティブに応答するインタラクションである。寛容的なインタラクションとは、ユーザからのネガティブな働きかけ及びポジティブな働きかけの両方に対してポジティブに応答するインタラクションである。 As shown in FIG. 2, the control information storage unit 4 stores control information corresponding to the interaction corresponding to the effect desired to be extracted by the interaction and the degree of emotional stability. That is, the control information storage unit 4 changes the selection of the control information corresponding to the user's personality based on the effect desired to be extracted by the interaction. The control information storage unit 4 stores control information corresponding to emotional interaction and control information corresponding to permissive interaction as control information corresponding to the interaction. Emotional interaction is an interaction that responds negatively to negative actions from the user and responds positively to positive actions from the user. Tolerant interaction is an interaction that responds positively to both negative and positive actions from the user.
制御情報選択部5は、インタラクション判別部3から検出結果を入力すると、ユーザからのインタラクション装置1への働きかけが発生したと判定し、性格判別部2から入力する判別結果を用い、制御情報記憶部4に記憶されている複数の制御情報の中からユーザの性格に対応する制御情報を選択する。
When the detection result is input from the
具体的に説明すると、制御情報選択部5は、インタラクションにより引き出したい効果が例えば「緊張を緩和したい」であれば、情緒安定性の度合いに関係なく感情的なインタラクションに対応する制御情報を選択する。又、制御情報選択部5は、インタラクションにより引き出したい効果が例えば「疲労を緩和したい」であれば、情緒安定性が比較的高ければ寛容的なインタラクションに対応する制御情報を選択し、情緒安定性が比較的低ければ感情的なインタラクションに対応する制御情報を選択する。制御情報選択部5は、制御情報を選択すると、その選択した制御情報をインタラクション表出部6に出力する。
More specifically, the control
インタラクション表出部6は、インタラクション装置1に搭載されている例えばサーボモータ等のアクチュエータを含んで構成されている。図3に示すように、例えばインタラクション装置1が人型ロボット9であり、人型ロボット9が頭部10と胴体部11とを有する構成であれば、インタラクション表出部6は、制御情報選択部5から制御情報を入力すると、その入力した制御情報により頭部10の動作を制御し、インタラクションを表出する。
The interaction display unit 6 includes an actuator such as a servo motor that is mounted on the
即ち、インタラクション表出部6は、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行い、制御情報選択部5から感情的なインタラクションに対応する制御情報を入力すると、例えば頭部10を前に垂れる動作を行い、感情的なインタラクションを表出し、ネガティブな印象を受けたことを表現するインタラクションを表出する。一方、インタラクション表出部6は、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行い、制御情報選択部5から寛容的なインタラクションに対応する制御情報を入力すると、例えば頭部10を左右にひねる動作を行い、寛容的なインタラクションを表出し、ポジティブな印象を受けたことを表現するインタラクションを表出する。同様に、インタラクション表出部6は、ユーザがポジティブな働きかけを行うと、制御情報選択部5から感情的なインタラクション及び寛容的なインタラクションの何れを入力した場合でも、ポジティブな印象を受けたことを表現するインタラクションを表出する。
That is, when the user performs a negative action that the user strikes the
次に、上記した構成の作用について図4を参照して説明する。インタラクション装置1は、性格判別部2において、センサ類7からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザの情報を取得し、その取得したユーザの情報を用い、ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格を判別する(S1)。
Next, the operation of the above configuration will be described with reference to FIG. When the
インタラクション装置1は、インタラクション判別部3において、センサ類8からセンシング信号の入力を監視している(S2)。インタラクション装置1は、センサ類8からセンシング信号を入力すると、その入力したセンシング信号を用い、ユーザからのインタラクション装置1への働きかけが発生したと判定し(S2:YES)、その時点で既に判別しているユーザの性格を取得する(S3)。インタラクション装置1は、制御情報選択部5において、制御情報記憶部4に記憶されている複数の制御情報の中からユーザの性格に対応する制御情報として、感情的なインタラクションに対応する制御情報と寛容的なインタラクションに対応する制御情報とのうち何れかを選択する(S4)。そして、インタラクション装置1は、インタラクション表出部6において、その選択した制御情報に対応するインタラクションを表出する(S5)。
The
即ち、インタラクション装置1は、例えばインタラクションにより引き出したい効果として「緊張を緩和したい」を制御情報選択部5が選択しており、且つ情緒安定性が比較的高いと性格判別部2が判別している状況で、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行うと、感情的なインタラクションに対応する制御情報を選択する。この場合、インタラクション装置1は、例えば頭部10を前に垂れる動作を行い、感情的なインタラクションを表出し、ネガティブな印象を受けたことを表現するインタラクションを表出する。これにより、ネガティブな印象を受けたことを表現するインタラクションがユーザに提示され、「緊張を緩和したい」という効果を適切に高めることができる。
That is, in the
一方、インタラクション装置1は、例えばインタラクションにより引き出したい効果として「疲労を緩和したい」を制御情報選択部5が選択しており、且つ情緒安定性が比較的高いと性格判別部2が判別している状況で、ユーザが人型ロボット9の頭部10を叩くというネガティブな働きかけを行うと、寛容的なインタラクションに対応する制御情報を選択する。この場合、インタラクション装置1は、例えば頭部10を左右にひねる動作を行い、寛容的なインタラクションを表出し、ポジティブな印象を受けたことを表現するインタラクションを表出する。これにより、ポジティブな印象を受けたことを表現するインタラクションがユーザに提示され、「疲労を緩和したい」という効果を適切に高めることができる。
On the other hand, in the
そして、インタラクション装置1は、このようにしてインタラクションを表出した後に、性格判別部2において、働きかけの検出結果を用い、性格パラメータを更新する(S6)。
Then, after the
尚、以上は、制御情報記憶部4が、働きかけに対するインタラクションに対応する複数の制御情報として、感情的なインタラクションに対応する制御情報と、寛容的なインタラクションに対応する制御情報とを記憶している場合を例示したが、非感情的なインタラクションに対応する制御情報と、非寛容的なインタラクションに対応する制御情報とを記憶していても良い。非感情的なインタラクションとは、感情的なインタラクションとは真逆のインタラクションであり、ネガティブな働きかけに対してポジティブに応答し、ポジティブな働きかけ対してネガティブに応答するインタラクションである。非寛容的なインタラクションとは、感情的なインタラクションとは真逆のインタラクションであり、ネガティブな働きかけ及びポジティブな働きかけの両方に対してネガティブに応答するインタラクションである。 In the above, the control information storage unit 4 stores control information corresponding to emotional interaction and control information corresponding to permissive interaction as a plurality of control information corresponding to interaction with an action. Although the case has been exemplified, control information corresponding to non-emotional interaction and control information corresponding to non-tolerant interaction may be stored. Non-emotional interaction is an interaction that is the opposite of emotional interaction, and is an interaction that responds positively to negative actions and responds negatively to positive actions. Non-tolerant interactions are interactions that are the opposite of emotional interactions and are those that respond negatively to both negative and positive actions.
以上に説明したように本実施形態によれば、次に示す効果を得ることができる。
インタラクション装置1において、インタラクションにより引き出したい効果の度合いが、ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格に依存する点に着眼した。ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格を判別し、ユーザからのインタラクション装置1への働きかけを検出すると、ユーザの性格に対応する制御情報を選択し、その選択した制御情報に対応するインタラクションを表出するようにした。ユーザがインタラクション装置1に対して抱く印象に寄与するユーザの性格に応じたインタラクションを表出することで、インタラクションにより引き出したい効果を適切に高めることができる。
As described above, according to the present embodiment, the following effects can be obtained.
In the
又、インタラクション装置1において、性格判別部2が情緒安定性の度合いを判別するようにした。心理学的にビッグファイブと称される5因子のうちユーザがインタラクション装置1に対して抱く印象やインタラクションにより引き出したい効果に最も大きく依存する情緒安定性を判別することで、インタラクションにより引き出したい効果をより適切に高めることができる。
In the
又、インタラクション装置1において、インタラクションにより引き出したい効果に基づき、ユーザの性格に対応する制御情報の選択を変化させるようにした。インタラクションにより引き出したい効果に対し、インタラクションを柔軟に変化させて表出することできる。
Further, in the
又、インタラクション装置1において、ユーザの性格を示す性格パラメータをユーザ毎に保持し、働きかけの検出結果を用い、性格パラメータを更新するようにした。性格パラメータを更新することで、ユーザの性格が時間経過にしたがって変化する場合でも、そのユーザの性格の変化を適切に反映することができる。
Further, in the
本開示は、実施例に準拠して記述されたが、当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、更には、それらに一要素のみ、それ以上、或いはそれ以下を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。 Although the present disclosure has been described with reference to the embodiments, it is understood that the present disclosure is not limited to the embodiments and structures. The present disclosure includes various modifications and modifications within the equivalent range. In addition, various combinations and forms, as well as other combinations and forms including only one element, more or less, are within the scope and spirit of the present disclosure.
インタラクション装置1として人型ロボット9に適用した構成を例示したが、例えばぬいぐるみ型ロボット等のユーザとの対話を表現するロボットに適用しても良い。又、コンピュータを用いて作成した画像(即ちコンピュータグラフィックス)に適用しても良い。インタラクションを表出する態様として、人型ロボット9の頭部10を前に垂れる動作や左右にひねる動作を例示したが、これら以外の動作を採用しても良い。例えばぬいぐるみ型ロボットであれば、尻尾を振る動作を採用しても良い。又、動作を提示する態様を例示したが、例えば音声を提示しても良いし、動作と音声とを併用して提示しても良い。
Although the configuration applied to the
図面中、1はインタラクション装置、2は性格判別部、3はインタラクション判別部、4は制御情報記憶部、5は制御情報選択部、6はインタラクション表出部である。 In the drawings, 1 is an interaction device, 2 is a personality determination unit, 3 is an interaction determination unit, 4 is a control information storage unit, 5 is a control information selection unit, and 6 is an interaction expression unit.
Claims (7)
少なくとも一つ以上のユーザの情報を用い、ユーザがインタラクション装置に対して抱く印象に寄与するユーザの性格を判別する性格判別部(2)と、
少なくとも一つ以上のユーザからのインタラクション装置への働きかけを検出するインタラクション判別部(3)と、
前記働きかけに対するインタラクションに対応する複数の制御情報を記憶している制御情報記憶部(4)と、
前記働きかけが前記インタラクション判別部により検出されると、前記制御情報記憶部に記憶されている複数の前記制御情報の中から前記性格判別部により判別されたユーザの性格に対応する前記制御情報を選択する制御情報選択部(5)と、
前記制御情報選択部により選択された前記制御情報に対応する前記インタラクションを表出するインタラクション表出部(6)と、を備えるインタラクション装置。 In the interaction device (1) for expressing the interaction according to the personality of the user,
A personality discriminating unit (2) for discriminating the personality of the user that contributes to the impression that the user has with respect to the interaction device, using at least one user information;
An interaction discriminating unit (3) for detecting an action on the interaction device from at least one user;
A control information storage unit (4) storing a plurality of control information corresponding to the interaction with the action;
When the action is detected by the interaction determination unit, the control information corresponding to the personality of the user determined by the personality determination unit is selected from the plurality of control information stored in the control information storage unit A control information selection unit (5) to perform,
An interaction device comprising: an interaction expression unit (6) for expressing the interaction corresponding to the control information selected by the control information selection unit.
少なくとも一つ以上のユーザの情報を用い、ユーザがインタラクション装置(1)に対して抱く印象に寄与するユーザの性格を判別する手順と、
少なくとも一つ以上のユーザからの前記インタラクション装置への働きかけを検出する手順と、
前記働きかけを検出すると、前記働きかけに対するインタラクションに対応する複数の制御情報の中から当該判別したユーザの性格に対応する前記制御情報を選択する手順と、
その選択した前記制御情報に対応する前記インタラクションを表出する手順と、を行うインタラクションの表出方法。 In the interaction expression method that expresses the interaction according to the user's personality,
Using at least one user information to determine a user's personality that contributes to the impression the user has on the interaction device (1);
A procedure for detecting an action on the interaction device from at least one user;
When detecting the action, a procedure for selecting the control information corresponding to the determined personality from among a plurality of control information corresponding to the interaction with the action;
And a procedure for expressing the interaction corresponding to the selected control information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016228957A JP2018083269A (en) | 2016-11-25 | 2016-11-25 | Interaction device and method for disclosing interaction |
PCT/JP2017/031400 WO2018096756A1 (en) | 2016-11-25 | 2017-08-31 | Interaction device and method for expressing interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016228957A JP2018083269A (en) | 2016-11-25 | 2016-11-25 | Interaction device and method for disclosing interaction |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018083269A true JP2018083269A (en) | 2018-05-31 |
Family
ID=62196047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016228957A Pending JP2018083269A (en) | 2016-11-25 | 2016-11-25 | Interaction device and method for disclosing interaction |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018083269A (en) |
WO (1) | WO2018096756A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0110480D0 (en) * | 2001-04-28 | 2001-06-20 | Univ Manchester Metropolitan | Methods and apparatus for analysing the behaviour of a subject |
JP2004174642A (en) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Radio communication system, program for cellphone, robot device and program for robot device |
JP5007404B2 (en) * | 2007-05-09 | 2012-08-22 | 株式会社国際電気通信基礎技術研究所 | Personality discrimination device, personality discrimination method, communication robot and electronic device |
JP5624100B2 (en) * | 2012-10-03 | 2014-11-12 | コリア インスティチュートオブ インダストリアル テクノロジー | Artificial emotion learning apparatus and method |
-
2016
- 2016-11-25 JP JP2016228957A patent/JP2018083269A/en active Pending
-
2017
- 2017-08-31 WO PCT/JP2017/031400 patent/WO2018096756A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018096756A1 (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11929072B2 (en) | Using textual input and user state information to generate reply content to present in response to the textual input | |
US11322143B2 (en) | Forming chatbot output based on user state | |
KR102188754B1 (en) | Contextual task shortcuts | |
JP2019096349A5 (en) | ||
TWI582753B (en) | Method, system, and computer-readable storage medium for operating a virtual assistant | |
US10102723B2 (en) | Dynamic haptic generation based on detected video events | |
US9443401B2 (en) | Automatic remote sensing and haptic conversion system | |
WO2016036522A4 (en) | User interface for receiving user input | |
KR102389185B1 (en) | Electronic device and method for executing function using input interface displayed via at least portion of content | |
JP2014112411A5 (en) | ||
JP2013089238A5 (en) | ||
US9542943B2 (en) | Minutes making assistance device, electronic conference device, electronic conference system, minutes making assistance method, and storage medium storing minutes making assistance program | |
JP2017151517A (en) | Robot control system | |
KR20190122559A (en) | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments | |
CN112441009B (en) | State estimation device, state estimation method, and storage medium | |
JP2014202857A5 (en) | ||
JP5837475B2 (en) | Electronics | |
US10665032B2 (en) | Real-time motion feedback for extended reality | |
JP2013037467A (en) | Command issuing apparatus, command issuing method, and program | |
EP4174629A1 (en) | Electronic device and control method thereof | |
WO2018096756A1 (en) | Interaction device and method for expressing interaction | |
JP6011127B2 (en) | Action detection program and action detection apparatus | |
JP6996379B2 (en) | Learning system and programs for learning system | |
CN113347522B (en) | Earphone control method, device, equipment and storage medium | |
JPWO2018116556A1 (en) | Information processing apparatus and information processing method |