JP6351692B2 - Display control device - Google Patents
Display control device Download PDFInfo
- Publication number
- JP6351692B2 JP6351692B2 JP2016224422A JP2016224422A JP6351692B2 JP 6351692 B2 JP6351692 B2 JP 6351692B2 JP 2016224422 A JP2016224422 A JP 2016224422A JP 2016224422 A JP2016224422 A JP 2016224422A JP 6351692 B2 JP6351692 B2 JP 6351692B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- emotions
- information
- display object
- user terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 claims description 278
- 230000008859 change Effects 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 22
- 239000003086 colorant Substances 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 110
- 210000002569 neuron Anatomy 0.000 description 72
- 238000004891 communication Methods 0.000 description 44
- 210000000225 synapse Anatomy 0.000 description 36
- 230000028327 secretion Effects 0.000 description 29
- 238000000034 method Methods 0.000 description 27
- 230000002124 endocrine Effects 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 21
- 239000000126 substance Substances 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 19
- 230000008878 coupling Effects 0.000 description 18
- 238000010168 coupling process Methods 0.000 description 18
- 238000005859 coupling reaction Methods 0.000 description 18
- SFLSHLFXELFNJZ-QMMMGPOBSA-N (-)-norepinephrine Chemical compound NC[C@H](O)C1=CC=C(O)C(O)=C1 SFLSHLFXELFNJZ-QMMMGPOBSA-N 0.000 description 17
- 229960002748 norepinephrine Drugs 0.000 description 17
- SFLSHLFXELFNJZ-UHFFFAOYSA-N norepinephrine Natural products NCC(O)C1=CC=C(O)C(O)=C1 SFLSHLFXELFNJZ-UHFFFAOYSA-N 0.000 description 17
- 238000010304 firing Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 208000019901 Anxiety disease Diseases 0.000 description 10
- 230000036506 anxiety Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000002996 emotional effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003248 secreting effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 229960003638 dopamine Drugs 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000003956 synaptic plasticity Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、表示制御装置に関する。 The present invention relates to a display control apparatus.
ユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末が知られている(例えば、特許文献1参照)。また、ユーザ情報、機器情報及び自身の現在の感情状態を入力して次回の感情状態を出力するニューラルネットを備える感情生成装置が知られている(例えば、特許文献2参照)。また、方向性人工シナプス接続性を有するレイヤ・ニューラルネット関係を有する複数の電子ニューロンを含む連想メモリに時空パターンを記憶する技術が知られている(例えば、特許文献3参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−253389号公報
[特許文献2]特開平10−254592号公報
[特許文献3]特表2013−535067号公報
There is known a terminal that learns a conversation between a user and a call partner and accumulates a response of the call partner in response to the user's inquiry in a response table (see, for example, Patent Document 1). There is also known an emotion generation device including a neural network that inputs user information, device information, and the current emotion state of itself and outputs the next emotion state (see, for example, Patent Document 2). In addition, a technique for storing a space-time pattern in an associative memory including a plurality of electronic neurons having a layer-neural network relationship having directional artificial synaptic connectivity is known (see, for example, Patent Document 3).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2011-253389 [Patent Document 2] Japanese Patent Application Laid-Open No. 10-254592 [Patent Document 3] Japanese Patent Application Publication No. 2013-535067
感情を適切な態様で表示することが望まれている。 It is desired to display emotions in an appropriate manner.
本発明の第1の態様においては、表示制御装置は、対象オブジェクトの現在の感情を示す情報を取得する取得部と、情報が示す感情の変化に応じて、球形状の第1の表示オブジェクトの形状又は色を変化させる表示制御部とを備える。 In the first aspect of the present invention, the display control device acquires the information indicating the current emotion of the target object, and the spherical first display object according to the emotion change indicated by the information. And a display control unit that changes the shape or color.
表示制御部は、感情の変化に応じて、第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの形状又は色を変化させてよい。 The display control unit may change the shape or color of the second display object located inside the first display object in accordance with the change in emotion.
情報は、対象オブジェクトの現在の主感情及び副感情を示してよい。表示制御部は、主感情の変化に応じて、第2の表示オブジェクトの形状又は色を変化させ、副感情の変化に応じて、第1の表示オブジェクトの形状又は色を変化させてよい。 The information may indicate the current main emotion and sub emotion of the target object. The display control unit may change the shape or color of the second display object according to a change in the main emotion, and may change the shape or color of the first display object according to a change in the sub-emotion.
情報は、複数の感情の強さを示す強さ情報を含んでよい。表示制御部は、複数の感情のうち主感情として選択され得る複数の第2の感情に対応づけられた色を、強さ情報が示す複数の第2の感情の強さに応じた重み付けで合成した色で、第2の表示オブジェクトを表示させてよい。 The information may include strength information indicating the strength of a plurality of emotions. The display control unit combines the colors associated with the plurality of second emotions that can be selected as the main emotion among the plurality of emotions by weighting according to the strengths of the plurality of second emotions indicated by the strength information. The second display object may be displayed with the selected color.
表示制御部は、複数の感情のうち副感情として選択され得る複数の第1の感情に対応づけられた色を、強さ情報が示す複数の第1の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させてよい。 The display control unit synthesizes the color associated with the plurality of first emotions that can be selected as the sub-emotion among the plurality of emotions by weighting according to the strength of the plurality of first emotions indicated by the strength information. The first display object may be displayed with the selected color.
情報は、複数の感情の強さを示す強さ情報を含んでよい。複数の感情は感情マップによって互いに異なる位置にマッピングされ、感情マップが複数の感情をマッピングする位置に色が対応づけられてよい。表示制御部は、複数の感情の強さと、複数の感情が感情マップによってマッピングされる位置に対応づけられた色とから定まる色で、第1の表示オブジェクトを表示させてよい。 The information may include strength information indicating the strength of a plurality of emotions. A plurality of emotions may be mapped to different positions by the emotion map, and colors may be associated with positions where the emotion map maps a plurality of emotions. The display control unit may display the first display object in a color determined from the strength of the plurality of emotions and the color associated with the position where the plurality of emotions are mapped by the emotion map.
情報は、複数の感情の強さを示す強さ情報を含んでよい。表示制御部は、複数の感情に対応づけられた色を複数の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させてよい。 The information may include strength information indicating the strength of a plurality of emotions. The display control unit may display the first display object with a color obtained by combining colors associated with a plurality of emotions with weighting according to the strengths of the plurality of emotions.
情報は、感情の強さを示す強さ情報を含んでよい。表示制御部は、感情の強さに応じて、第1の表示オブジェクトの形状を変化させてよい。 The information may include strength information indicating the strength of emotion. The display control unit may change the shape of the first display object according to the strength of emotion.
第1の表示オブジェクトは、複数の点と、複数の点を結ぶ線で形成されてよい。表示制御部は、感情の強さが強いほど、複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせてよい。 The first display object may be formed by a plurality of points and lines connecting the plurality of points. The display control unit may shift the position of at least one of the plurality of points from a predetermined position on the spherical surface as the emotion is stronger.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る表示システム10の全体構成の一例を概略的に示す。表示システム10は、サーバ60と、ユーザ端末40とを備える。ユーザ端末40は、表示装置の一例である。ユーザ端末40は、表示システム10において感情を特定する対象オブジェクトの一例である。
FIG. 1 schematically shows an example of the overall configuration of a
本実施形態において、ユーザ端末40は携帯端末である。ユーザ端末40は、例えば、携帯電話である。ユーザ端末40は通信機能を有する。ユーザ50は、ユーザ端末40のユーザである。ユーザ端末40は、ユーザ50と会話等のやりとりを行う。
In the present embodiment, the
なお、ユーザ端末40は、携帯情報端末、タブレット端末等のコンピュータであってよい。ユーザ端末40はロボットに組み込まれたコンピュータであってよい。ユーザ端末40は、家電製品等の機器に組み込まれた組み込みコンピュータであってよい。ユーザ端末40は、店舗に設けられたコンピュータであってよい。ユーザ端末40は、自動販売機等の販売機に組み込まれたコンピュータであってよい。ユーザ端末40は、車両に搭載されたコンピュータであってよい。車両は、自動車や自動二輪車等であってよい。ユーザ端末40は、ユーザとインタラクトし得る他の任意のコンピュータであってよい。
The
サーバ60は、ユーザ端末40とは遠隔に設けられる。サーバ60は、通信ネットワーク90を通じてユーザ端末40を通信することができる。例えば、サーバ60は、ユーザ端末40で取得された情報を通信ネットワーク90を通じて受信して、受信した情報に基づいてユーザ端末40の感情やユーザ端末40に行わせる処理等を特定して、特定した感情や処理等を示す情報を通信ネットワーク90を通じてユーザ端末40に送信する。なお、本実施形態においては、ユーザ端末40を1つのみ示すが、表示システム10はユーザ端末40と同様の機能を有するユーザ端末を複数備えてよい。表示システム10が複数のユーザ端末を備える場合、複数のユーザ端末のうちの少なくとも一部のユーザ端末のユーザは、他のユーザ端末のユーザと異なってよい。
The
表示システム10では、ユーザ端末40の感情を特定したりユーザ端末40の処理を決定したりする処理を、サーバ60が実行する。しかし、サーバ60における処理の一部又は全てを、ユーザ端末40が実行してもよい。
In the
ユーザ端末40は、ユーザ50からの音声入力を検出すると、音声認識により音声からテキスト情報を抽出する。また、ユーザ端末40は、入力された音声を解析してユーザ50の感情情報を含む状態情報を特定する。状態情報は、ユーザ50の状態及びユーザ端末40の状態等を示す。ユーザ端末40は、抽出した音声入力のテキスト情報及びユーザ50の状態情報を、通信ネットワーク90を介してサーバ60に送信する。サーバ60は、ユーザ端末40から受信したテキスト情報に基づいて、返答内容を決定して、返答内容を示すテキスト情報をユーザ端末40に送信する。また、サーバ60は、ユーザ端末40から受信した状態情報等に基づいて、ユーザ端末40の感情を特定する。サーバ60は、特定した感情を示す感情情報を、通信ネットワーク90を通じてユーザ端末40に送信する。
When detecting the voice input from the user 50, the
ユーザ端末40は、返答内容を示すテキスト情報をサーバ60から受信すると、受信したテキスト情報に基づいてユーザ端末40から音声を発生させる。これにより、ユーザ端末40は、ユーザ50と会話を行う。また、ユーザ端末40は、感情情報をサーバ60から受信すると、受信した感情情報に基づいて、ユーザ端末40が備える表示部140に、感情を表す表示オブジェクト20を表示する。
When the
サーバ60は、予め定められた時間間隔で最新の感情情報を生成して、ユーザ端末40に送信する。例えば、サーバ60は、1秒間隔で最新の感情情報を生成する。ユーザ端末40は、受信した最新の感情情報に基づく感情の変化に応じて、表示オブジェクト20の色又は形状を変化させる。これにより、感情の移り変わりをユーザ50に適切に提示することができる。
The
なお、本実施形態において、感情を特定する対象となる対象オブジェクトは、ユーザ端末40であるとする。しかし、対象オブジェクトは、ユーザ端末40に限られない。対象オブジェクトは、仮想のオブジェクトであってよい。例えば、対象オブジェクトは、仮想のキャラクターであってよい。例えば、仮想のキャラクターは、アプリケーションプログラムによって仮想的に提供されてよい。例えば、ユーザ端末40における会話アプリケーションにおいて、会話相手として認識される仮想的なオブジェクトを対象オブジェクトとみなしてよい。
In the present embodiment, it is assumed that the target object that is the target for specifying the emotion is the
図2は、ユーザ端末40及びサーバ60のブロック構成を概略的に示すブロック図である。まず、ユーザ端末40の機能ブロック構成について説明する。ユーザ端末40は、センサ部120と、処理部130と、表示部140と、音声出力部180と、通信部102とを有する。処理部130は、表示制御装置として機能する。処理部130は、MPU等のプロセッサであってよい。表示部140は、液晶ディスプレイ等の表示デバイスを有する。通信部102は、サーバ60との通信を担う。通信部102は、ネットワークIF等の通信デバイスであってよい。音声出力部180は、例えばスピーカを含む。ユーザ端末40は、ユーザ端末40として機能させるためのデータを格納する記憶媒体を備えてよい。
FIG. 2 is a block diagram schematically showing a block configuration of the
センサ部120は、マイク、ジャイロセンサ、カメラ、電池残量センサ等の各種のセンサを有する。センサ部120のマイクは、周囲の音声を取得する。例えば、センサ部120のマイクは、ユーザ50の音声を取得する。センサ部120のカメラは、可視光によって撮影して動画や静止画の画像情報を生成する。センサ部120のジャイロセンサは、ユーザ端末40全体及びユーザ端末40の各部の角速度を検出する。センサ部120の電池残量センサは、ユーザ端末40が備える電池の残存容量を検出する。
The
センサ部120は、マイクで取得された音声データ、カメラで撮影された画像、ジャイロセンサで検出された角速度、電池残量センサで検出した残存容量等の各種のセンサデータを、処理部130に出力する。処理部130は、取得したセンサ信号を通信部102に供給して、サーバ60へ送信させる。また、処理部130は、サーバ60から受信したテキスト情報に基づいて、ユーザ端末40の音声出力部180ら出力させる。また、処理部130は、サーバ60から受信した感情情報に基づいて、表示部140に表示オブジェクト20を表示させる。
The
次に、サーバ60の機能ブロック構成について説明する。サーバ60は、処理部270と、通信部202と、格納部280とを有する。処理部270は、感情処理部272と会話処理部274とを有する。感情処理部272は、分泌情報生成部200と、入力情報生成部210と、調整部220と、判定部240と、感情特定部260とを備える。
Next, the functional block configuration of the
通信部202は、ユーザ端末40との通信を担う。通信部202は、ネットワークIF等の通信デバイスであってよい。格納部280は、ハードディスク装置、フラッシュメモリ等の記憶媒体を有する。また、格納部280は、RAM等の揮発性記憶装置を有する。格納部280は、処理部270が実行時に読み出すプログラムコードや各種の一時データの他、処理部270の処理の実行に必要なデータ等を格納する。
The
通信部202が受信したユーザ端末40からのテキスト情報は、会話処理部274に出力される。会話処理部274は、受信したテキスト情報に基づいて、ユーザ50への返答内容を決定する。会話処理部274は、決定した返答内容を示すテキスト情報を通信部202に出力する。通信部202は、返答内容を示すテキスト情報をユーザ端末40に送信する。
The text information from the
通信部202がユーザ端末40から受信した状態情報は、感情処理部272に出力される。感情処理部272において、入力情報生成部210は、状態情報に基づいて、感情を特定するためのニューラルネットワークへの入力情報を生成する。入力情報は、ユーザ50の感情情報や、ユーザ端末40の各種センサで取得されたセンサ情報等を含む。入力情報生成部210が生成した入力情報は、NN演算部230に出力される。
The state information received by the
分泌情報生成部200は、入力情報生成部210から生成した入力情報に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する。内分泌物質としては、ノルアドレナリン、ドーパミン等を例示できる。なお、内分泌物質の分泌量を示す分泌情報は、表示システム10における内部情報として擬似的に生成されるものであり、内分泌物質を実際に分泌させるわけではない。
The secretion
調整部220は、分泌情報生成部200が生成した分泌情報が示す内分泌物質の分泌量に基づいて、NN演算部230が入力情報から感情を決定するための演算パラメータを調整する。調整部220が調整する演算パラメータは、ニューラルネットワークに含まれる人工シナプスの結合係数であってよい。
The
格納部280は、入力情報と内分泌物質の分泌量とを対応づける対応情報を格納する。分泌情報生成部200は、入力情報生成部210が生成した入力情報に対応づけられている内分泌物質の分泌量を変化させる。また、格納部280は、複数の人工シナプスのそれぞれと内分泌物質とを対応づける対応情報を格納する。調整部220は、分泌情報生成部200が生成した分泌情報が示す内分泌物質の分泌量に応じて、対応情報によって内分泌物質が対応づけられている複数の人工シナプスのそれぞれの結合係数を変化させる。
The
NN演算部230は、入力情報生成部210から出力された入力情報を用いて、ニューラルネットワークの演算を行う。判定部240がNN演算部230によるニューラルネットワークの演算結果に基づいて、人工ニューロンの判定を行う。感情特定部260は、判定部240による人工ニューロンの判定結果に基づいて、感情を特定する。また、感情特定部260は、人工ニューロンの発火状態及び内分泌物質の分泌量に基づいて、感情の強さを特定する。
The NN calculation unit 230 performs a neural network calculation using the input information output from the input information generation unit 210. The
ニューラルネットワークは、感情が定められた人工ニューロンである複数の感情人工ニューロンを含む。判定部240は、複数の感情人工ニューロンのそれぞれの現在の発火状態を判定する。感情特定部260は、判定部240により判定された感情人工ニューロンの発火状態に基づいて、現在の感情を決定する。例えば、感情特定部260は、ユーザ端末40の感情として、発火した1以上の感情人工ニューロンに割り当てられている1以上の感情を特定してよい。なお、感情特定部260は、内分泌物質の分泌量が多いほど、強い感情を特定してよい。また、感情特定部260は、発火状態にある感情人工ニューロンの出力が大きいほど、強い感情を特定してよい。感情特定部260により特定された感情を示す情報及び感情の強さを示す情報を含む感情情報は、通信部202に供給され、通信部202からユーザ端末40へ送信される。なお、通信部202は、ユーザ端末40の現在の感情を示す情報を取得する取得部の一例である。
The neural network includes a plurality of emotional artificial neurons, which are artificial neurons in which emotions are defined. The
次に、ユーザ端末40において、通信部202が受信した感情を示す情報に関する処理について説明する。処理部130は、感情情報が示す感情の変化に応じて、球形状の第1の表示オブジェクトの形状又は色を変化させる。具体的には、処理部130は、感情の変化に応じて、第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの形状又は色を変化させる。
Next, in the
感情情報は、ユーザ端末40の現在の主感情及び副感情を示す。処理部130は、主感情の変化に応じて、第2の表示オブジェクトの形状又は色を変化させ、副感情の変化に応じて、第1の表示オブジェクトの形状又は色を変化させる。このように、処理部130は、主感情の変化に応じて、複数の表示オブジェクトのうちの一方の表示オブジェクトの形状又は色を変化させ、副感情の変化に応じて、複数の表示オブジェクトのうちの他方の表示オブジェクトの形状又は色を変化させる。なお、処理部130は、主感情の変化に応じて、第2の表示オブジェクトの色を変化させ、副感情の変化に応じて、第1の表示オブジェクトの色を変化させてよい。
The emotion information indicates the current main emotion and sub emotion of the
感情情報は、複数の感情の強さを示す強さ情報を含んでよい。この場合、処理部130は、複数の感情のうち主感情として選択され得る複数の第2の感情に対応づけられた色を、強さ情報が示す複数の第2の感情の強さに応じた重み付けで合成した色で、第2の表示オブジェクトを表示させる。また、処理部130は、複数の感情のうち副感情として選択され得る複数の第1の感情に対応づけられた色を、強さ情報が示す複数の第1の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させる。
The emotion information may include strength information indicating the strength of a plurality of emotions. In this case, the
複数の感情は、感情マップによって互いに異なる位置にマッピングされ、感情マップが複数の感情をマッピングする位置に色が対応づけられていてよい。この場合、処理部130は、複数の感情の強さと、複数の感情が感情マップによってマッピングされる位置に対応づけられた色とから定まる色で、第1の表示オブジェクトを表示させてよい。このように、処理部130は、複数の感情に対応づけられた色を複数の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させてよい。
A plurality of emotions may be mapped to different positions by the emotion map, and colors may be associated with positions where the emotion map maps a plurality of emotions. In this case, the
処理部130は、感情の強さに応じて、第1の表示オブジェクトの形状を変化させる。例えば、処理部130は、感情の強さが強いほど、第1の表示オブジェクトの一部を大きく突出させる。処理部130は、感情の強さが強いほど、第1の表示オブジェクトの、球形からの変形度を大きくしてよい。
The
一例として、第1の表示オブジェクトは、複数の点と、複数の点を結ぶ線で形成される。この場合、処理部130は、感情の強さが強いほど、複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせる。処理部130は、シフトされる点と他の点とを結ぶ2つの線がなす角度を小さくしてよい。
As an example, the first display object is formed by a plurality of points and lines connecting the plurality of points. In this case, the
図3は、複数の感情がマッピングされる感情マップ300を概略的に示す。感情マップ300において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。感情マップ300において、同心円より上側には、概ね、快い心情を表す感情が配置される。また、同心円より下側には、概ね、不快な心情を表す感情が配置される。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。
FIG. 3 schematically shows an
第一円周は、「好き」、「安心」等の感情を含む。第一円周には、情感に関する感情が含まれる。第二円周は、「愛」、「喜楽」等の感情を含む。第二円周には、情動的感情に関する感情が含まれる。第三円周は、「愛しい」、「楽しい」等の感情を含む。第三円周には、感情表現に関する感情が含まれる。第四円周は、「素晴らしい」、「誇らしい」等の感情を含む。第四円周には、感情状態表現を表す感情が含まれる。 The first circumference includes emotions such as “like” and “relief”. The first circumference includes emotions related to emotion. The second circumference includes emotions such as “love” and “joy”. The second circumference includes emotions related to emotional emotions. The third circumference includes emotions such as “love” and “fun”. The third circle includes emotions related to emotional expression. The fourth circumference includes emotions such as “great” and “proud”. The fourth circumference includes emotions representing emotional state expressions.
NN演算部230が演算対象とするニューラルネットワークは、感情マップ300に示す各感情に割り当てられた人工ニューロンを含む。ニューラルネットワークはまた、感情マップ300において同心円の最も内側に位置する入力にも、それぞれ入力用の人工ニューロンが割り当てられている。入力に割り当てられた入力用の人工ニューロンには、入力情報生成部210が生成した入力情報が入力される。そして、概ね内側から外側に向かって人工ニューロンが人工シナプスで接続されて、ニューラルネットワークを形成する。
The neural network to be calculated by the NN calculation unit 230 includes an artificial neuron assigned to each emotion shown in the
NN演算部230は、入力情報に基づいて繰り返しニューラルネットワークの演算を行い、判定部240は、各人工ニューロンの発火状態を判定する。感情特定部260は、各人工ニューロンの発火状態からユーザ端末40の感情を特定する。例えば、感情特定部260は、発火した人工ニューロンが割り当てられている感情を、ユーザ端末40が持つ感情として特定する。なお、発火した人工ニューロンが複数存在する場合、ユーザ端末40は複数の感情を持つものと判断する。
The NN calculation unit 230 repeatedly calculates a neural network based on the input information, and the
なお、感情マップ300が感情をマッピングする位置には、色が対応づけられている。一例として、感情マップ300が含む領域310には、黄色又は主用な色成分が黄色である色が対応づけられている。領域310内には、「愛しい」、「嬉しい」、「楽しい」、「歓喜」、「愛」、「喜楽」、「好き」の感情が位置している。領域310は、概して嬉しさを表す感情が位置する領域である。
A color is associated with a position where the
領域320には、赤色又は主用な色成分が赤色である色が対応づけられている。領域320内には、「嫌い」、「辛」、「怒」、「悲しい」、「許せない」の感情が位置している。領域320は、概して不快を表す感情が位置する領域である。
The
領域330には、緑色又は主用な色成分が緑色である色が対応づけられている。領域330内には、「安心」、「安穏」、「心強い」の感情が位置している。領域330は、概して安定を表す感情が位置する領域である。 The region 330 is associated with a green color or a color whose main color component is green. Within the region 330, emotions of “relief”, “relax”, and “reassuring” are located. The region 330 is a region where an emotion that generally indicates stability is located.
領域340には、青色又は主用な色成分が青色である色が対応づけられている。領域340内には、「不安」、「恐怖」、「怖い」、「苦痛」、「苦」の感情が位置している。領域340は、概して不安を表す感情が位置する領域である。
The
なお、図3においては一例として、領域310、領域320、領域330及び領域340に対応づけられた色のみを例示したが、感情マップ300がマッピングする全ての感情の位置に、色が対応づけられている。
In FIG. 3, as an example, only the colors associated with the
処理部130は、複数の感情の強さと、複数の感情が感情マップ300よってマッピングされる位置に対応づけられた色とから定まる色で、表示オブジェクト20を表示させる。なお、感情マップ300の第一円周、第二第円周及び三円周に含まれる感情は、主感情に対応する。感情マップ300の第四円周に含まれる感情は、副感情に対応する。処理部130は、主感情に対応する感情に対応づけられた色と、副感情に対応する感情に対応づけられた色とを用いて、表示オブジェクト20の色を決定してよい。処理部130が決定する表示オブジェクト20の色については、後述する。
The
図4は、表示システム10が用いるニューラルネットワークの一部を概略的に示す。図示されるニューラルネットワークの一部は、人工ニューロンN1、N2、N3、N4、N5及びN6と、人工シナプスS12、S14、S23、S25、S36、S42、S43、S45、S53、S56とを含む。人工ニューロンは、生体におけるニューロンに対応する。人工シナプスは、生体におけるシナプスに対応する。
FIG. 4 schematically shows a part of the neural network used by the
E1は、入力情報を示す。人工ニューロンN1は、入力用の人工ニューロンである。人工ニューロンN1には、n個の入力情報E1 1・・・入力情報En 1が入力される。 E 1 shows the input information. Artificial neuron N 1 is an artificial neuron for input. The n pieces of input information E 1 1 ... Input information E n 1 are input to the artificial neuron N 1 .
人工シナプスS12は、人工ニューロンN1と人工ニューロンN2とを接続する人工シナプスである。特に、人工シナプスS12は、人工ニューロンN1の出力を、人工ニューロンN2に入力する人工シナプスである。人工シナプスS14は、人工ニューロンN1と人工ニューロンN4とを接続する人工シナプスである。特に、人工シナプスS14は、人工ニューロンN1の出力を、人工ニューロンN4に入力する人工シナプスである。なお、j、kを整数として、人工ニューロンNjの出力を人工ニューロンNkに入力する人工シナプスを、人工シナプスSjkと表記する。 Artificial Synapse S 12 is an artificial synapses for connecting the neurons and N 1 and the artificial neuron N 2. In particular, the artificial synapse S 12, the output of the artificial neuron N 1, an artificial synapse inputs to the artificial neuron N 2. The artificial synapse S 14 is an artificial synapse that connects the artificial neuron N 1 and the artificial neuron N 4 . In particular, the artificial synapse S 14 is an artificial synapse that inputs the output of the artificial neuron N 1 to the artificial neuron N 4 . Note that an artificial synapse in which j and k are integers and the output of the artificial neuron N j is input to the artificial neuron N k is denoted as an artificial synapse S jk .
ここで、iを整数として、各人工ニューロンをNiで表記するものとする。Niは、Niのステータスを表すSiと、Niが表す人工ニューロンの内部状態を表すVimと、Niの発火の閾値を表すTiとをパラメータとして持つ。また、人工シナプスSjkは、パラメータとして、結合係数BSjkを持つ。なお、本実施形態においては、人工ニューロンを、その添え字を省略して人工ニューロンNと総称する場合がある。また、人工シナプスを、その添え字を省略して人工シナプスSと総称する場合がある。同様に、人工ニューロンのパラメータについても、それらの添え字を省略して、内部情報Vm、閾値T、ステータスSと総称する場合がある。 Here, the i is an integer, it is assumed that each artificial neuron is denoted by N i. N i has a S i representing the status of the N i, and V i m which represents the internal state of the artificial neuron represented by N i, and T i which represents the threshold of the ignition of the N i as a parameter. The artificial synapse S jk has a coupling coefficient BS jk as a parameter. In the present embodiment, the artificial neuron may be collectively referred to as an artificial neuron N with its subscript omitted. In some cases, the artificial synapse is collectively referred to as an artificial synapse S with its subscript omitted. Similarly, the parameters of the artificial neuron may be collectively referred to as internal information Vm, threshold value T, and status S with their subscripts omitted.
人工ニューロンNのステータスS、内部状態Vm、及び閾値Tは、時刻の進展とともに更新され得るパラメータである。ステータスSは、ニューロンの発火状態に関する情報であり、人工ニューロンNが発火状態にあるか非発火状態にあるかを少なくとも示す。内部状態Vmは、ニューロンの膜電位に関する情報であり、人工ニューロンNの内部状態又は出力を表すパラメータの一例である。 The status S, the internal state Vm, and the threshold T of the artificial neuron N are parameters that can be updated as time progresses. The status S is information regarding the firing state of the neuron, and indicates at least whether the artificial neuron N is in a firing state or a non-firing state. The internal state Vm is information relating to the membrane potential of the neuron, and is an example of a parameter representing the internal state or output of the artificial neuron N.
また、人工シナプスSのパラメータである結合係数BSは、時刻の進展とともに更新され得るパラメータである。結合係数BSは、シナプスの可塑性に関する情報であり、人工シナプスSが結合する人工ニューロンN同士の間の結合強度を示す。 In addition, the coupling coefficient BS, which is a parameter of the artificial synapse S, is a parameter that can be updated as time progresses. The coupling coefficient BS is information relating to synaptic plasticity, and indicates the coupling strength between the artificial neurons N to which the artificial synapse S is coupled.
NN演算部230は、入力情報から、ニューラルネットワークにおける上述したパラメータを更新して、各人工ニューロンNの内部状態Vmを算出する。なお、本実施形態において、人工ニューロンNは、内部状態Vmが閾値Tを超えた場合に、ステータスSが発火状態となる。発火状態になると、人工ニューロンNからは、予め定められた時間にわたって予め定められた値が出力される。発火状態の人工ニューロンNが出力は下降してよい。発火状態の人工ニューロンNが出力する値は、上昇した後に下降してよい。発火状態の人工ニューロンNが出力する値は一定であってよい。予め定められた時間が経過すると、NのステータスSは末発火に戻る。 The NN calculation unit 230 updates the above-described parameters in the neural network from the input information, and calculates the internal state Vm of each artificial neuron N. In the present embodiment, when the internal state Vm exceeds the threshold T, the artificial neuron N has the status S in the firing state. In the firing state, the artificial neuron N outputs a predetermined value over a predetermined time. The output of the fired artificial neuron N may drop. The value output by the fired artificial neuron N may increase and then decrease. The value output from the firing artificial neuron N may be constant. When a predetermined time has elapsed, the status S of N returns to the last ignition.
ここで、NN演算部230による演算内容を、N2を取り上げてより具体的に説明する。NN演算部230は、N2への入力I2を、BS12×Vm1×f(S1)+BS42×Vm4×f(S4)により算出する。ここで、f(S)は、Sが未発火を表す値の場合は0を返し、Sが発火を示す値の場合は1を返す関数である。なお、このf(S)は、ニューロンが発火した場合のみシナプスが活動電位を伝達するモデルに対応する。なお、f(S)=1であってもよい。これは、ニューロンの発火状態によらず膜電位を伝達するモデルに対応する。f(S)として、膜電位の他の伝達モデルに対応する関数を適用してよい。
Here, the contents of calculation by the NN calculation unit 230 will be described more specifically with N 2 taken up. NN arithmetic unit 230, an input I 2 to N 2, is calculated by BS 12 × Vm 1 × f ( S 1) +
一般には、NN演算部230は、Niへの入力Iiを、ΣjBSji×Vmj×f(Sj)+ΣjEj iにより算出する。NN演算部230は、現時刻におけるBSji、Vmj、Sj、Ejを用いて、次の時刻におけるNiへの入力Ii及びSi等を算出する。NN演算部230は、これを時間的に繰り返すことにより、各人工ニューロンNのステータスSをリアルタイムに決定する。そして、判定部240は各人工ニューロンNのステータスSを判定し、感情特定部260は判定部240の判定結果からユーザ端末40の感情を特定する。例えば、感情特定部260は、図3における「嬉しい」という感情が割り当てられた人工ニューロンが発火した場合、ユーザ端末40の感情として「嬉しい」を特定する。
Generally, NN calculation unit 230, an input I i to N i, is calculated by Σ j BS ji × Vm j × f (S j) + Σ j E j i. The NN operation unit 230 calculates the inputs I i and S i to the N i at the next time using the BS ji , Vm j , S j , and E j at the current time. The NN calculation unit 230 repeats this in time to determine the status S of each artificial neuron N in real time. Then, the
ここで、調整部220は、ユーザ端末40から取得した情報に基づいて、人工シナプスSの結合係数BSを調整する。例えば、ユーザ端末40が有する蓄電池の残量である残存容量が50%以下であることが検出された場合、分泌情報生成部200は、内部変数としての「ノルアドレナリン」の分泌量を増加させる。そして、調整部220は、「ノルアドレナリン」の分泌量に基づいて、「ノルアドレナリン」に対応づけられた人工シナプスSの結合係数BSを調整する。後述するように、「ノルアドレナリン」の生成は、例えば、「不安」や「怒り」等の感情に対応する人工感情ニューロンが発火する経路上の人工シナプスSの結合係数BSを強化するように設定されている。これにより、「ノルアドレナリン」は、「不安」や「怒り」等の感情が生成され易くなる方向に作用する。
Here, the
内部分泌物質の分泌量は特定の人工シナプスSの結合係数BSに対応づけられている。これにより、ユーザ端末40で取得した情報によって、内部分泌物質の分泌量を介して、ニューラルネットワークにおける各所の人工シナプスSにおける信号の伝わり易さを変えることができる。そのため、ユーザ端末40で取得した情報から多様な感情を生み出すことが可能になる。
The secretion amount of the endocrine substance is associated with the binding coefficient BS of a specific artificial synapse S. Thereby, the ease of transmission of signals at various artificial synapses S in the neural network can be changed by the information acquired by the
図5は、ユーザ50の怒りの強さと内分泌物質とを対応づける対応情報の一例である。格納部280は、怒りの強さを示す複数の値に対応づけて、ノルアドレナリンを示す情報を格納する。より具体的には、格納部280は、怒りの強さのそれぞれに対応づけて、ノルアドレナリンの分泌量の増加量を示す情報を格納する。なお、怒りの強さは、最大強さに対する割合で示す。また、分泌量の増加量は、NN演算部230が使用する内部変数が表す分泌量の上限値1に対する割合で示す。これにより、入力情報に含まれるユーザ50の怒りの強さが強くなるほど、ノルアドレナリンの分泌量が多くなる。その結果、ユーザ端末40の感情として、「不安」や「怒り」の感情が生成され易くなる。
FIG. 5 is an example of correspondence information that associates the intensity of anger of the user 50 with an endocrine substance. The
図6は、ノルアドレナリンの分泌量と結合係数BSとを対応づける結合係数対応情報の一例である。格納部280は、ノルアドレナリンの総分泌量に対応づけて、人工シナプスS14の結合係数BS14の増加係数と、人工シナプスS45の結合係数BS45の増加係数と、人工シナプスS43の結合係数BS43の増加係数とを対応づける情報を格納する。なお、ここで取り上げる人工シナプスSは、強結合で人工ニューロンNを接続しているとする。
FIG. 6 is an example of binding coefficient correspondence information that correlates the secretion amount of noradrenaline and the binding coefficient BS.
図示されるように、BS14の増加係数及びBS45の増加係数には、ノルアドレナリン量が多くなるほどより大きい値が対応づけられる。一方、BS43の増加係数には、ノルアドレナリン量が多くなるほどより小さい値が対応づけられる。これにより、例えば、図4に示すニューラルネットワークにおいて、N1からN3に向かう方向より、N1からN5に向かう方向の方が、入力情報により生じた信号が伝わり易くなる。そのため、N1からN5に向かう方向に配置された人工ニューロンが、より発火し易くなる。そのため、例えば図3に示す感情マップにおいて、ノルアドレナリンが増えるほど、同心円の中心部に対して特定の方向に配置された感情、例えば「不安」や「怖い」という感情が発火し易くなる。そのため、人間が空腹な場合に生じる感情に似た感情がユーザ端末40で生まれ易くなるようにすることができる。
As shown in the figure, the increase coefficient of BS 14 and the increase coefficient of BS 45 are associated with larger values as the amount of noradrenaline increases. On the other hand, the increase coefficient of BS 43 is associated with a smaller value as the amount of noradrenaline increases. Thus, for example, in a neural network shown in FIG. 4, from the direction from N 1 to N 3, towards the direction from N 1 to N 5 it is likely to occur a signal is transmitted by the input information. Therefore, the artificial neuron arranged in the direction from N 1 to N 5 becomes easier to fire. Therefore, for example, in the emotion map shown in FIG. 3, as noradrenaline increases, emotions arranged in a specific direction with respect to the center of the concentric circle, for example, emotions such as “anxiety” and “scary” are more likely to ignite. Therefore, it is possible to make it easier for the
なお、ここでは、人工シナプスSの結合係数BSを、出力先の人工ニューロンNを発火させ易くする方向に調整する場合について説明した。しかし、人工シナプスSの結合係数BSを、出力先の人工ニューロンNを発火させにくくする方向に調整できるように、増加係数が設定されていてもよい。例えば、人工シナプスSが強結合の場合は、増加係数を小さくすることで、出力先の人工ニューロンNを発火させにくくすることができる。一方、人工シナプスSが抑制結合で人工ニューロンNを接続している場合、増加係数を大きくすることで、出力先の人工ニューロンNを発火させにくくすることができ、増加係数を小さくすることで、出力先の人工ニューロンNを発火させ易くすることができる。 Here, a case has been described where the coupling coefficient BS of the artificial synapse S is adjusted in a direction that facilitates firing the output destination artificial neuron N. However, the increase coefficient may be set so that the coupling coefficient BS of the artificial synapse S can be adjusted in a direction that makes the output destination artificial neuron N difficult to fire. For example, when the artificial synapse S is strongly coupled, it is possible to make the output destination artificial neuron N difficult to fire by reducing the increase coefficient. On the other hand, when the artificial synapse S is connected to the artificial neuron N by inhibitory connection, it is possible to make the output artificial neuron N difficult to fire by increasing the increase coefficient, and by reducing the increase coefficient, It is possible to facilitate firing of the output destination artificial neuron N.
調整部220は、結合係数対応情報を参照して、各内部分泌物質の総分泌量に応じた量だけ、対応する結合係数BSを調整する。これにより、ユーザ端末40で取得された情報から、結合係数BSの調整量を複雑に調整することができ、ひいては、多様な組み合わせで感情人工ニューロンを発火させることができる。しかも、ユーザ端末40で取得された情報と内分泌物質との関係、及び、各内分泌物質と結合係数BSとの関係を、人間に置き換えて意味づけして対応づけることで、人間にとって違和感のない自然な感情を生成できる。
The
なお、図5に関連して、ユーザ端末40から取得する情報としてのユーザ50の怒りの強さとノルアドレナリンとの対応関係を例示した。また、図6に関連して、ノルアドレナリンと結合係数BSとの対応関係を例示した。しかし、これらの情報の対応関係は、ニューラルネットワークおける内分泌物質の作用を分かり易く説明するために例示したものである。図5及び図6に関連して説明した対応関係以外の対応関係を定めてよいことは言うまでもない。
In addition, in relation to FIG. 5, the correspondence relationship between the intensity of anger of the user 50 as information acquired from the
図7は、表示部140が表示する表示オブジェクト20の一例を模式的に示す。表示オブジェクト20は、表示オブジェクト21と、表示オブジェクト22とを含む。表示オブジェクト21は、球形状を有する。表示オブジェクト21は、球形状の第1の表示オブジェクトの一例である。表示オブジェクト22は、表示オブジェクト21の内側に位置する。表示オブジェクト22は、第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの一例である。
FIG. 7 schematically illustrates an example of the
第1の表示オブジェクト21は、点710、点720及び点730を含む。表示オブジェクト21は、点710と720を結ぶ直線712を含む。表示オブジェクト21は、点710と730を結ぶ直線713を含む。表示オブジェクト21は、複数の点と、複数の点を結ぶ直線で形成される。なお、表示オブジェクト21において、複数の点を結ぶ線は、直線でなくてよい。
The
なお、球形状の表示オブジェクトとは、人間の眼に略球形に認識される2次元面上の表示オブジェクトであってよい。球形状とは完全な球形を含むが、実質的に球形とみなすことができる形状であれば、球形状に該当する。近似的に球形を持つ表示オブジェクトは、球形状の表示オブジェクトとみなすことができる。完全な球形の表示オブジェクトを2次元面上に投影した場合、表示オブジェクトの外形は円形となる。表示オブジェクトを2次元面上に投影した場合の外形が5角形以上の多角形で表される場合、当該表示オブジェクトを球形状とみなすことができる場合がある。表示オブジェクトを2次元面上に投影した場合の外形が閉曲線で表される場合において、当該閉曲線の接線の回転角方向の変化率が予め定められた値より小さい場合、当該表示オブジェクトを球形状とみなすことができる場合がある。 The spherical display object may be a display object on a two-dimensional surface that is recognized as a substantially spherical shape by human eyes. The spherical shape includes a perfect spherical shape, but corresponds to a spherical shape if it can be regarded as a substantially spherical shape. A display object having an approximately spherical shape can be regarded as a spherical display object. When a perfect spherical display object is projected onto a two-dimensional surface, the outer shape of the display object is a circle. When the outer shape of a display object projected onto a two-dimensional surface is represented by a polygon that is a pentagon or more, the display object may be regarded as a spherical shape. In the case where the outline of a display object projected onto a two-dimensional surface is represented by a closed curve, when the rate of change in the rotation angle direction of the tangent to the closed curve is smaller than a predetermined value, the display object is a spherical shape. Can be considered.
処理部130は、ユーザ端末40の現在の感情に対応した色で、表示オブジェクト21及び表示オブジェクト22を表示させる。具体的には、処理部130は、ユーザ端末40の現在の主感情に対応した色で、表示オブジェクト22を表示させ、ユーザ端末40の現在の副感情に対応した色で、表示オブジェクト22を表示させる。主感情及び副感情は、図3に関連して説明したとおりである。
The
例えば、処理部130は、複数の感情のうち主感情として選択され得る複数の感情に対応づけられた色を、強さ情報が示す複数の感情の強さに応じた重み付けで合成した色で、表示オブジェクト22を表示させる。例えば、処理部130は、副感情が「愛」及び「不安」の感情を含む場合、感情マップ300によって対応づけられる黄色と青色とを合成した色で表示オブジェクト22を表示させる。例えば、処理部130は、「好き」の人工ニューロンの内部状態Vmが、「不安」の人工ニューロンの内部状態Vmの2倍である場合、「好き」と「不安」とを2:1の割合で合成した色で、表示オブジェクト22を表示させる。同様に、処理部130は、複数の感情のうち副感情として選択され得る複数の感情に対応づけられた色を、当該強さ情報が示す複数の感情の強さに応じた重み付けで合成した色で、表示オブジェクト21を表示させる。
For example, the
これにより、「好き」の感情が高いときは、黄色系の色で表示オブジェクト22が表示され、「不安」の感情が高いときは青系の色で表示オブジェクト22が表示される。これにより、交換ユーザ端末40のその時々の感情の種類をユーザ50に分かり易く提示することができる。
As a result, when the “like” emotion is high, the
なお、図7において、オブジェクト750は、処理部130がユーザ50の音声を解析することにより得られたテキスト情報から生成した文字オブジェクトである。当該テキスト情報がサーバ60に送信された後、ユーザ端末40はサーバ60から返答内容のテキスト情報を受信する。オブジェクト751は、処理部130が当該返答内容のテキスト情報から生成した文字オブジェクトである。その後、処理部130はユーザ50の音声を解析することにより新たに得られたテキスト情報からオブジェクト752を生成する。当該テキスト情報がサーバ60に送信された後、ユーザ端末40はサーバ60から新たな返答内容のテキスト情報を受信する。オブジェクト753は、処理部130が当該返答内容のテキスト情報から生成した文字オブジェクトである。このように、処理部130は、表示オブジェクト20とともに、ユーザ50の会話内容を示す文字オブジェクトを表示部140に表示させる。
In FIG. 7, an
図8は、形状及び色を変化させた表示オブジェクトの一例を模式的に示す。図8の表示オブジェクト25は、図7に示す表示オブジェクト20の形状を変化させた表示オブジェクトの一例である。表示オブジェクト25は、表示オブジェクト23と表示オブジェクト24とを含む。表示オブジェクト24は、図7に示す表示オブジェクト22の色を変化させた表示オブジェクトの一例である。ここで、表示オブジェクト24は、表示オブジェクト21の色を黄色に変化させた表示オブジェクトである。
FIG. 8 schematically shows an example of a display object whose shape and color are changed. A
表示オブジェクト23は、表示オブジェクト21の形状を変化させた表示オブジェクトである。表示オブジェクト23は、点810と、点720と点810とを結ぶ直線812と、点730と点810とを結ぶ直線813とを含む。ここでは主として、表示オブジェクト21の形状の変化について説明する。
The
処理部130は、感情の強さが予め定められた値を超える場合、表示オブジェクト21における点710を点810の位置にシフトさせる。点810は、点710を矢印880で示される方向にシフトした位置にある。矢印880が示す方向は、表示オブジェクト21が示す球形状の中心から外向きの方向である。
When the emotion strength exceeds a predetermined value, the
このように、処理部130は、感情の強さが予め定められた値を超える場合、点710の位置を球形状の外側に向けてシフトさせる。また、処理部130は、点810をシフトさせるとともに、線712に代えて、点720と点810とを結ぶ線812を表示させる。また、線712に代えて、点730と点810とを結ぶ線812を表示させる。線812と線813とがなす角度は、線712と線713とがなす角度より小さくなる。表示オブジェクト23は、点810の位置において外側に突出した形状を持つ。
As described above, when the emotion intensity exceeds a predetermined value, the
なお、感情の強さは、内分泌物質の分泌量の総和を指標としてよい。感情の強さは、発火した人工ニューロンの内部状態Vmの総和を指標としてよい。感情の強さは、発火した人工ニューロンの数を指標としてよい。感情の強さは、内分泌物質の分泌量の総和、発火した人工ニューロンの内部状態Vmの総和、及び発火した人工ニューロンの数の任意の組み合わせを指標としてよい。 The strength of emotion may be an index of the total amount of endocrine secretion. The strength of emotion may be based on the sum of the internal state Vm of the fired artificial neuron. The strength of emotion may be an index of the number of fired artificial neurons. The strength of emotion may be determined by using an arbitrary combination of the sum of secreted amounts of endocrine substances, the sum of internal states Vm of fired artificial neurons, and the number of fired artificial neurons.
図8に関連して説明したように、処理部130は、感情の強さが強いほど、複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせる。これにより、感情の強さが予め定められた値を超える場合、表示オブジェクト21の一部が突出して表示される。なお、処理部130は、複数の感情の強さが強いほど、表示オブジェクト21の一部を大きく突出させてよい。処理部130は、複数の感情の強さが強いほど、表示オブジェクト21の一部を大きく突出させてよい。これにより、感情の強さをより分かり易くユーザ50に提示することができる。
As described with reference to FIG. 8, the
なお、表示オブジェクトの形状又は色は、表示オブジェクトの表示態様の一例である。すなわち、処理部130は、感情の変化に応じて表示オブジェクト20の表示態様を変化させてよい。
The shape or color of the display object is an example of the display mode of the display object. That is, the
なお、図8において、オブジェクト754は、処理部130がユーザ50の音声を解析することにより得られたテキスト情報から生成した文字オブジェクトである。当該テキスト情報がサーバ60に送信された後、ユーザ端末40はサーバ60から返答内容のテキスト情報を受信する。オブジェクト755は、処理部130が当該返答内容のテキスト情報から生成した文字オブジェクトである。ユーザ50が会話している最中においても、ユーザ端末40はサーバ60から感情情報を受信して、図7や図8に関連して説明したように、表示オブジェクト20の形状や色を変形させていく。これにより、図8に示されるように、「ありがとう」の言葉が発せられたことに応じて嬉しさの感情が高まったことを、ユーザ50に適切に提示することができる。
In FIG. 8, an
図9は、ユーザ端末40における処理手順を示すフローチャートである。本フローチャートの主体は主として処理部130である。
FIG. 9 is a flowchart showing a processing procedure in the
本フローチャートが開始すると、処理部130は、イベントの発生を待つ(S902)。ここでは、イベントとして、音声の検出イベント、会話情報の受信イベント、感情情報の受信イベント及び終了イベントを取り上げて説明する。音声の検出イベントは、センサ部120におけるマイクから音声信号が入力された場合に生じる。会話情報の受信イベントは、通信部102がサーバ60から返答内容のテキスト情報を受信した場合に生じる。感情情報の受信イベントは、通信部102がサーバ60から感情情報を受信した場合に生じる。終了イベントは、ユーザ端末40の動作を終了する場合に生じる。終了イベントは、本フローチャートに係るアプリケーションソフトの動作を終了する場合にも生じ得る。
When this flowchart starts, the
音声検出イベントが発生した場合、処理部130は音声解析を行い(S904)、音声入力の内容及びユーザ50の感情を特定する(S906)。そして、処理部130は、音声入力内容を示すテキスト情報及びユーザ50の感情等を示す状態情報を、通信部102から送信させ(S908)、S902に進む。
When the voice detection event occurs, the
会話情報の受信イベントが発生した場合、処理部130は受信した返答内容のテキスト情報に基づいて、音声出力部180から音声を出力させ(S920)、S902に進む。
When a conversation information reception event occurs, the
感情情報の受信イベントが発生した場合、処理部130は、感情情報に基づいて、表示オブジェクト20の形状及び色を決定する(S930)。そして、処理部130は、決定した形状及び色で表示オブジェクト21及び表示オブジェクト22を変形させ(S932)、S902に進む。
When an emotion information reception event occurs, the
終了イベントが発生した場合、処理部130はユーザ端末40の終了動作を行う。
When the end event occurs, the
図10は、サーバ60における処理手順を示すフローチャートである。本フローチャートの主体は主として処理部270である。
FIG. 10 is a flowchart showing a processing procedure in the
本フローチャートが開始すると、処理部270は、イベントの発生を待つ(S1002)。ここでは、イベントとして、ユーザ端末40からのテキスト情報の受信イベント、ユーザ端末40からの状態情報の受信イベント、感情情報の生成イベント及び終了イベントを取り上げて説明する。
When this flowchart starts, the
テキスト情報の受信イベントは、通信部202がユーザ端末40から音声入力のテキスト情報を受信した場合に生じる。状態情報の受信イベントは、通信部202がユーザ端末40から状態情報を受信した場合に生じる。感情情報の生成イベントは、感情処理部272において感情情報が生成された場合に生じる。具体的には、感情情報の生成イベントは、感情特定部260において感情が特定された場合に生じる。終了イベントは、サーバ60の動作を終了する場合に生じる。
The text information reception event occurs when the
テキスト情報の受信イベントが発生した場合、処理部270において、受信したテキスト情報が会話処理部274に入力される(S1004)。そして、会話処理部274は、入力されたテキスト情報に基づいて、当該テキスト情報に対する返答内容を決定する(S1006)。そして、処理部270は、会話処理部274が決定した返答内容に基づいてテキスト情報を生成して、通信部202から送信させ(S1008)、S1002に進む。
When a text information reception event occurs, the received text information is input to the
状態情報の受信イベントが発生した場合、処理部270において、受信した状態情報が感情処理部272に入力され(S1020)、S1002に進む。感情処理部272においては、感情を特定する演算が定期的に行われている。感情処理部272において、状態情報が入力された後の次の演算タイミングにおいて、受信した状態情報に基づく入力情報がNN演算部230に供給されて、感情を特定するニューラルネットワークの演算が行われる。
When the reception event of the state information occurs, the received state information is input to the
感情情報の生成イベントが発生した場合、処理部270は、生成された感情情報を通信部202からユーザ端末40に送信させる(S1030)。
When the emotion information generation event occurs, the
終了イベントが発生した場合、処理部270はサーバ60の終了動作を行う。
When the end event occurs, the
図11は、会話アプリケーションにおける表示部140の画面遷移の一例を示す。画面1100は、会話アプリケーションの初期画面である。ユーザ端末40の感情を示す表示オブジェクト1102は、画面1100の中央に表示される。
FIG. 11 shows an example of screen transition of the
ユーザ50が「○○さんの連絡先は」という声を発すると、画面1110において、ユーザ端末40のマイクで取得された音声の解析から得られたオブジェクト1114が、画面の中央付近に表示される。感情を示す表示オブジェクト1112は、画面の上方の位置に表示される。
When the user 50 makes a voice saying “What is Mr. X's contact?”, On the
処理部130は、音声解析から得られた「○○」を名前に含む人をアドレス帳データから検索する。「○○」を名前に含む人が一人のみ検索された場合、画面1120において、検索された人の詳細情報を示すオブジェクト1124が表示される。感情を示す表示オブジェクト1122は、画面の上方の位置に縮小して表示される。
The
音声解析から得られた「○○」を名前に含む人が複数検索された場合において、検索件数が所定数以下であれば、画面1130において、検索された人物の概要情報を示すオブジェクト1134が表示される。感情を示す表示オブジェクト1132は、画面の上方の位置に縮小して表示される。
When a plurality of people whose names contain “XX” obtained from voice analysis are searched, if the number of searches is equal to or less than a predetermined number, an
音声解析から得られた「○○」を名前に含む人が複数検索された場合において、検索件数が所定数を超えるときは、画面1140において、検索された人物を絞り込むための聞き返し内容を示すオブジェクト1144が、オブジェクト1114の下に表示される。聞き返し内容は、サーバ60において決定される。感情を示す表示オブジェクト1142は、画面の上方の位置に縮小して表示される。
In the case where a plurality of people whose names contain “XX” obtained from speech analysis are searched, if the number of searches exceeds a predetermined number, an object indicating the content of the response to narrow down the searched people on the
続いて、ユーザ50が「営業本部」という声を発すると、画面1150において、ユーザ端末40のマイクで取得された音声の解析から得られたオブジェクト1154が、オブジェクト1144の下に表示される。感情を示す表示オブジェクト1152は、画面の上方の位置に表示される。
Subsequently, when the user 50 speaks “sales headquarters”, on the
処理部130は、音声解析から得られた「営業本部」を属性情報に含む人をアドレス帳データから検索する。「営業本部」を属性情報に含む人が一人のみ検索された場合、画面1120に遷移する。「営業本部」を属性情報に含む人が複数検索された場合において、検索件数が所定数以下であれば、画面1130に遷移する。なお、「営業本部」を属性情報に含む人が複数検索された場合において、検索件数が所定数を超える場合は、画面1140に関連して説明した処理と同様に、別の情報で人物を絞り込むための聞き返しが行われてよい。
The
以上に説明したように、表示システム10によれば、感情を適切な表示態様で提示することができる。
As described above, according to the
様々な実施形態が、処理手順又はブロック図等を参照して説明された。ブロック図において各ブロックは、(1)オペレーションが実行されるプロセスの段階または(2)オペレーションを実行する役割を持つ装置のセクションを表わしてよい。例えば、サーバ60において、処理部270、通信部202、格納部280のそれぞれは、サーバ60の1つのセクションを表してよい。処理部270において、感情処理部272及び会話処理部274は、処理部270の1つのセクションを表してよい。感情処理部272において、入力情報生成部210、分泌情報生成部200、調整部220、NN演算部230、判定部240及び感情特定部260は、感情処理部272の1つのセクションを表してよい。また、ユーザ端末40において、通信部102及び処理部130は、ユーザ端末40の1つのセクションを表してよい。
Various embodiments have been described with reference to procedures or block diagrams and the like. Each block in the block diagram may represent (1) a stage of the process in which the operation is performed or (2) a section of the device responsible for performing the operation. For example, in the
特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理オペレーション、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。 Certain stages and sections are implemented by dedicated circuitry, programmable circuitry supplied with computer readable instructions stored on a computer readable medium, and / or processor supplied with computer readable instructions stored on a computer readable medium. It's okay. Dedicated circuitry may include digital and / or analog hardware circuitry and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include memory elements such as logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. Reconfigurable hardware circuitry, including and the like.
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、処理手順またはブロック図で指定されたオペレーションを実行するための手段をもたらすべく実行され得る命令を含む製品の少なくとも一部を構成する。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer-readable media may include any tangible device capable of storing instructions to be executed by a suitable device so that a computer-readable medium having instructions stored thereon is designated by a procedure or block diagram. Constitutes at least part of the product including instructions that may be executed to provide a means for performing the performed operations. Examples of computer readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (RTM) disc, memory stick, integrated A circuit card or the like may be included.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。 Computer readable instructions can be assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or object oriented programming such as Smalltalk, JAVA, C ++, etc. Including any source code or object code written in any combination of one or more programming languages, including languages and conventional procedural programming languages such as "C" programming language or similar programming languages Good.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、説明された処理手順またはブロック図で指定されたオペレーションを実行するための手段をもたらすべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may be directed to a general purpose computer, special purpose computer, or other programmable data processing device processor or programmable circuit locally or in a wide area network (WAN) such as a local area network (LAN), the Internet, etc. The computer-readable instructions may be executed to provide a means for performing the operations provided in and described in the procedure or specified in the block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
図12は、複数の実施形態が全体的または部分的に具現化され得るコンピュータ2000の例を示す。コンピュータ2000にインストールされたプログラムは、コンピュータ2000に、実施形態に係るサーバ60または当該サーバ60の1または複数のセクションとして機能させる、当該サーバ60または当該サーバ60の1または複数のセクションに関連付けられるオペレーションを実行させる、および/または、実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2000に、本明細書に記載のサーバ60に係る処理手順およびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU2012によって実行されてよい。
FIG. 12 illustrates an
本実施形態によるコンピュータ2000は、CPU2012、RAM2014、グラフィックコントローラ2016、および表示デバイス2018を含み、それらはホストコントローラ2010によって相互に接続されている。コンピュータ2000はまた、ROM2030を含む。ROM2030は、入力/出力コントローラ2020を介してホストコントローラ2010に接続されている。コンピュータ2000はまた、通信インタフェース2022、ハードディスクドライブ2024、DVD−ROMドライブ2026、およびメモリカードドライブ2028のような入出力ユニットを含み、それらは入力/出力コントローラ2020を介してホストコントローラ2010に接続されている。コンピュータ2000はまた、キーボード2042のようなレガシの入出力ユニットを含み、それらは入力/出力チップ2040を介して入力/出力コントローラ2020に接続されている。
A
CPU2012は、ROM2030および/またはRAM2014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2016は、RAM2014内に提供されるフレームバッファ等またはRAM2014内にCPU2012によって生成されたイメージデータを取得し、イメージデータを表示デバイス2018上に表示せせる。
The
通信インタフェース2022は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2024は、コンピュータ2000内のCPU2012によって使用されるプログラムおよびデータを格納する。DVD−ROMドライブ2026は、プログラムおよび/またはデータをDVD‐ROM2001から読み取り、RAM2014を介してハードディスクドライブ2024にプログラムおよび/またはデータを提供する。メモリカードドライブ2028は、プログラムおよび/またはデータをメモリカード2003から読み取り、RAM2014を介してハードディスクドライブ2024にプログラムおよび/またはデータを提供する。メモリカードドライブ2028は、プログラムおよび/またはデータをメモリカード2003に書き込んでよい。
The
ROM2030はその中に、アクティブ化時にコンピュータ2000によって実行されるブートプログラム等、および/またはコンピュータ2000のハードウェアに依存するプログラムを格納する。入力/出力チップ2040はまた、様々な入力/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入力/出力コントローラ2020に接続してよい。
The
プログラムが、DVD−ROM2001またはメモリカード2003のようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2024、RAM2014、および/またはROM2030にインストールされ、CPU2012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2000に読み取られ、プログラムと、上記様々な種類のハードウェアリソースとの間の連携をもたらす。装置または方法は、コンピュータ2000の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。
The program is provided by a computer-readable medium such as a DVD-
例えば、通信がコンピュータ2000および外部デバイス間で実行される場合、CPU2012は、RAM2014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2022に対し、通信処理を命令してよい。通信インタフェース2022は、CPU2012の制御下、RAM2014、ハードディスクドライブ2024、DVD‐ROM2001、またはメモリカード2003のような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを、記録媒体上に提供される受信バッファ処理領域等に書き込む。
For example, when communication is performed between the
また、CPU2012は、ハードディスクドライブ2024、DVD‐ROM2001、メモリカード2003等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2014に読み取られるようにし、RAM2014上のデータに対し様々な種類の処理を実行してよい。CPU2012は次に、処理されたデータを外部記録媒体にライトバックする。
Further, the
様々な種類のプログラム、データ、テーブル、およびデータベースのような、様々な種類の情報が記録媒体に格納され、情報処理にかけられてよい。CPU2012は、RAM2014から読み取られたデータに対し、本明細書に記載され、プログラムの命令シーケンスによって指定される様々な種類のオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々な種類の処理を実行してよく、結果をRAM2014にライトバックする。また、CPU2012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2012は、第1の属性の属性値が指定されている、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored in the recording medium and subjected to information processing. The
上述したプログラムまたはソフトウェアモジュールは、コンピュータ2000上またはコンピュータ2000近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2000に提供してよい。
The programs or software modules described above may be stored on a computer readable medium on or near the
なお、サーバ60と同様に、コンピュータをユーザ端末40として機能させることができる。例えば、サーバ60と同様に、コンピュータにインストールされたプログラムが、コンピュータに、実施形態に係るユーザ端末40またはユーザ端末40の1または複数のセクションとして機能させる、ユーザ端末40またはユーザ端末40の1または複数のセクションに関連付けられるオペレーションを実行させる、および/または、実施形態に係るユーザ端末40に関するプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータに、本明細書に記載のユーザ端末40に係る処理手順およびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPUによって実行されてよい。ユーザ端末40がパーソナルコンピュータ等により実現される場合、コンピュータ2000と同様の構成のコンピュータをユーザ端末40用のコンピュータとして適用できる。ユーザ端末40が携帯端末である実現される場合は、コンピュータ2000が備える構成のうち、ハードディスクドライブ2024、DVD−ROMドライブ2026を除き、キーボード2042に代えてタッチ入力デバイス等の入力デバイスを備えるコンピュータを、ユーザ端末40用のコンピュータとして適用できる。
Note that, similarly to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
10 表示システム
20、21、22、23、24、25 表示オブジェクト
40 ユーザ端末
50 ユーザ
60 サーバ
90 ネットワーク
102 通信部
120 センサ部
130 処理部
140 表示部
200 分泌情報生成部
210 入力情報生成部
220 調整部
230 NN演算部
240 判定部
260 感情特定部
270 処理部
272 感情処理部
274 会話処理部
280 格納部
300 感情マップ
180 音声出力部
202 通信部
310、320、330、340 領域
710、720、720 点
712、713 線
750、751,752、753、754、755 オブジェクト
810 点
812、813 線
880 矢印
1100、1110、1120、1130、1140、1150 画面
1102、1112、1122,1132,1142、1152 表示オブジェクト
1114、1124、1134、1144、1154 オブジェクト
2000 コンピュータ
2001 DVD‐ROM
2003 メモリカード
2010 ホストコントローラ
2012 CPU
2014 RAM
2016 グラフィックコントローラ
2018 表示デバイス
2020 入力/出力コントローラ
2022 通信インタフェース
2024 ハードディスクドライブ
2026 DVD−ROMドライブ
2028 メモリカードドライブ
2030 ROM
2040 入力/出力チップ
2042 キーボード
DESCRIPTION OF
2003
2014 RAM
2016
2040 input /
Claims (6)
前記情報が示す前記副感情の変化に応じて、球形状の第1の表示オブジェクトの形状を変化させ、前記情報が示す前記主感情の変化に応じて、前記主感情として選択され得る複数の第2の感情に対応づけられた色を前記複数の第2の感情の強さに応じた重み付けで合成した色に、前記第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの色を変化させる表示制御部と
を備える表示制御装置。 An acquisition unit for acquiring information indicating the current main emotion and sub-emotion of the target object;
According to the change of the secondary emotion indicated by the information, the shape of the spherical first display object is changed in accordance with a change of the main emotion said information indicates, the plurality may be selected as the main emotion first The color of the second display object located inside the first display object is changed to a color obtained by synthesizing the color associated with the second emotion with weighting according to the strength of the plurality of second emotions. A display control unit.
請求項1に記載の表示制御装置。 The display control unit further in accordance with a change in the main emotion, the display control apparatus according to claim 1 for changing the shape of the second display object.
請求項1又は2に記載の表示制御装置。 The display control unit further wherein in response to a change in secondary emotions, corresponding to the intensity of the secondary emotions first emotion previous SL multiple colors associated with the plurality of first emotion may be selected as color synthesized by weighting, the display control device according to claim 1 or 2 changes the color of the first display object.
前記複数の第2の感情は感情マップによって互いに異なる位置にマッピングされ、前記感情マップが前記複数の第2の感情をマッピングする位置に色が対応づけられ、
前記表示制御部は、前記複数の第2の感情が前記感情マップによってマッピングされる位置に対応づけられた色を前記強さ情報が示す前記複数の第2の感情の強さに応じた重み付けで合成した色で、前記第2の表示オブジェクトを表示させる
請求項1から3のいずれか一項に記載の表示制御装置。 The information includes the strength information indicating the strength of the plurality of second emotion,
The plurality of second emotions are mapped to different positions by an emotion map, and a color is associated with a position where the emotion map maps the plurality of second emotions,
The display control unit is weighted according to the strength of the plurality of second emotions indicated by the strength information indicating a color associated with a position where the plurality of second emotions are mapped by the emotion map. The display control apparatus according to any one of claims 1 to 3 , wherein the second display object is displayed in a synthesized color.
前記表示制御部は、前記副感情の強さに応じて、前記第1の表示オブジェクトの形状を変化させる
請求項1から4のいずれか一項に記載の表示制御装置。 The information includes strength information indicating the strength of the secondary emotion,
The display controller, the according to the strength of the secondary emotions, the display control device according to any one of the first display 4 claims 1 to change the shape of the object.
前記表示制御部は、前記副感情の強さが強いほど、前記複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせる
請求項5に記載の表示制御装置。 The first display object is formed by a plurality of points and a line connecting the plurality of points,
The display control according to claim 5 , wherein the display control unit shifts the position of at least one of the plurality of points from a position on a predetermined spherical surface as the strength of the secondary emotion is stronger. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016224422A JP6351692B2 (en) | 2016-11-17 | 2016-11-17 | Display control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016224422A JP6351692B2 (en) | 2016-11-17 | 2016-11-17 | Display control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018081583A JP2018081583A (en) | 2018-05-24 |
JP6351692B2 true JP6351692B2 (en) | 2018-07-04 |
Family
ID=62199016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016224422A Active JP6351692B2 (en) | 2016-11-17 | 2016-11-17 | Display control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6351692B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022051982A (en) * | 2019-02-15 | 2022-04-04 | ソニーグループ株式会社 | Information processor and information processing method |
JP7297342B1 (en) | 2022-09-26 | 2023-06-26 | 株式会社Creator’s NEXT | Recommendation by analysis of brain information |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002210233A (en) * | 2001-01-18 | 2002-07-30 | Sony Computer Entertainment Inc | Entertainment device, recording medium and program |
JP4701564B2 (en) * | 2001-08-31 | 2011-06-15 | ソニー株式会社 | Menu display device and menu display method |
JP5714411B2 (en) * | 2010-05-17 | 2015-05-07 | 株式会社光吉研究所 | Behavior analysis method and behavior analysis device |
-
2016
- 2016-11-17 JP JP2016224422A patent/JP6351692B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018081583A (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10832674B2 (en) | Voice data processing method and electronic device supporting the same | |
WO2020135194A1 (en) | Emotion engine technology-based voice interaction method, smart terminal, and storage medium | |
EP3396666B1 (en) | Electronic device for providing speech recognition service and method thereof | |
KR20200046117A (en) | Joint audio-video facial animation system | |
US20190116323A1 (en) | Method and system for providing camera effect | |
US11458409B2 (en) | Automatic classification and reporting of inappropriate language in online applications | |
US11721333B2 (en) | Electronic apparatus and control method thereof | |
CN109091869A (en) | Method of controlling operation, device, computer equipment and the storage medium of virtual objects | |
JP2019197203A (en) | Method and device for personalizing speech recognition model | |
KR20220149619A (en) | Shared Augmented Reality System | |
US11817097B2 (en) | Electronic apparatus and assistant service providing method thereof | |
WO2018097889A1 (en) | Camera operable using natural language commands | |
US20230128422A1 (en) | Voice Command Integration into Augmented Reality Systems and Virtual Reality Systems | |
US20200005784A1 (en) | Electronic device and operating method thereof for outputting response to user input, by using application | |
JP6351692B2 (en) | Display control device | |
US20230290343A1 (en) | Electronic device and control method therefor | |
Clement | The Postfeminist Mystique: Feminism and Shakespearean Adaptation in 10 Things I Hate About You and She's the Man | |
JP2022020659A (en) | Method and system for recognizing feeling during conversation, and utilizing recognized feeling | |
WO2024169267A1 (en) | Electroencephalogram analysis model training method and apparatus, computer device, computer-readable storage medium and computer program product | |
US20200364068A1 (en) | Emotionally driven software interaction experience | |
WO2022271331A1 (en) | Machine-learning-model based name pronunciation | |
CN110992947B (en) | Voice-based interaction method, device, medium and electronic equipment | |
JP2017204216A (en) | Storage control system, system, and program | |
US20220051661A1 (en) | Electronic device providing modified utterance text and operation method therefor | |
Sadeq et al. | Mitigating hallucination in fictional character role-play |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6351692 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |