JP6351692B2 - Display control device - Google Patents

Display control device Download PDF

Info

Publication number
JP6351692B2
JP6351692B2 JP2016224422A JP2016224422A JP6351692B2 JP 6351692 B2 JP6351692 B2 JP 6351692B2 JP 2016224422 A JP2016224422 A JP 2016224422A JP 2016224422 A JP2016224422 A JP 2016224422A JP 6351692 B2 JP6351692 B2 JP 6351692B2
Authority
JP
Japan
Prior art keywords
emotion
emotions
information
display object
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016224422A
Other languages
Japanese (ja)
Other versions
JP2018081583A (en
Inventor
康介 朝長
康介 朝長
清 大浦
清 大浦
栄治 吉崎
栄治 吉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Robotics Corp
Original Assignee
Cocoro SB Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cocoro SB Corp filed Critical Cocoro SB Corp
Priority to JP2016224422A priority Critical patent/JP6351692B2/en
Publication of JP2018081583A publication Critical patent/JP2018081583A/en
Application granted granted Critical
Publication of JP6351692B2 publication Critical patent/JP6351692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示制御装置に関する。   The present invention relates to a display control apparatus.

ユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末が知られている(例えば、特許文献1参照)。また、ユーザ情報、機器情報及び自身の現在の感情状態を入力して次回の感情状態を出力するニューラルネットを備える感情生成装置が知られている(例えば、特許文献2参照)。また、方向性人工シナプス接続性を有するレイヤ・ニューラルネット関係を有する複数の電子ニューロンを含む連想メモリに時空パターンを記憶する技術が知られている(例えば、特許文献3参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−253389号公報
[特許文献2]特開平10−254592号公報
[特許文献3]特表2013−535067号公報
There is known a terminal that learns a conversation between a user and a call partner and accumulates a response of the call partner in response to the user's inquiry in a response table (see, for example, Patent Document 1). There is also known an emotion generation device including a neural network that inputs user information, device information, and the current emotion state of itself and outputs the next emotion state (see, for example, Patent Document 2). In addition, a technique for storing a space-time pattern in an associative memory including a plurality of electronic neurons having a layer-neural network relationship having directional artificial synaptic connectivity is known (see, for example, Patent Document 3).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2011-253389 [Patent Document 2] Japanese Patent Application Laid-Open No. 10-254592 [Patent Document 3] Japanese Patent Application Publication No. 2013-535067

感情を適切な態様で表示することが望まれている。   It is desired to display emotions in an appropriate manner.

本発明の第1の態様においては、表示制御装置は、対象オブジェクトの現在の感情を示す情報を取得する取得部と、情報が示す感情の変化に応じて、球形状の第1の表示オブジェクトの形状又は色を変化させる表示制御部とを備える。   In the first aspect of the present invention, the display control device acquires the information indicating the current emotion of the target object, and the spherical first display object according to the emotion change indicated by the information. And a display control unit that changes the shape or color.

表示制御部は、感情の変化に応じて、第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの形状又は色を変化させてよい。   The display control unit may change the shape or color of the second display object located inside the first display object in accordance with the change in emotion.

情報は、対象オブジェクトの現在の主感情及び副感情を示してよい。表示制御部は、主感情の変化に応じて、第2の表示オブジェクトの形状又は色を変化させ、副感情の変化に応じて、第1の表示オブジェクトの形状又は色を変化させてよい。   The information may indicate the current main emotion and sub emotion of the target object. The display control unit may change the shape or color of the second display object according to a change in the main emotion, and may change the shape or color of the first display object according to a change in the sub-emotion.

情報は、複数の感情の強さを示す強さ情報を含んでよい。表示制御部は、複数の感情のうち主感情として選択され得る複数の第2の感情に対応づけられた色を、強さ情報が示す複数の第2の感情の強さに応じた重み付けで合成した色で、第2の表示オブジェクトを表示させてよい。   The information may include strength information indicating the strength of a plurality of emotions. The display control unit combines the colors associated with the plurality of second emotions that can be selected as the main emotion among the plurality of emotions by weighting according to the strengths of the plurality of second emotions indicated by the strength information. The second display object may be displayed with the selected color.

表示制御部は、複数の感情のうち副感情として選択され得る複数の第1の感情に対応づけられた色を、強さ情報が示す複数の第1の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させてよい。   The display control unit synthesizes the color associated with the plurality of first emotions that can be selected as the sub-emotion among the plurality of emotions by weighting according to the strength of the plurality of first emotions indicated by the strength information. The first display object may be displayed with the selected color.

情報は、複数の感情の強さを示す強さ情報を含んでよい。複数の感情は感情マップによって互いに異なる位置にマッピングされ、感情マップが複数の感情をマッピングする位置に色が対応づけられてよい。表示制御部は、複数の感情の強さと、複数の感情が感情マップによってマッピングされる位置に対応づけられた色とから定まる色で、第1の表示オブジェクトを表示させてよい。   The information may include strength information indicating the strength of a plurality of emotions. A plurality of emotions may be mapped to different positions by the emotion map, and colors may be associated with positions where the emotion map maps a plurality of emotions. The display control unit may display the first display object in a color determined from the strength of the plurality of emotions and the color associated with the position where the plurality of emotions are mapped by the emotion map.

情報は、複数の感情の強さを示す強さ情報を含んでよい。表示制御部は、複数の感情に対応づけられた色を複数の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させてよい。   The information may include strength information indicating the strength of a plurality of emotions. The display control unit may display the first display object with a color obtained by combining colors associated with a plurality of emotions with weighting according to the strengths of the plurality of emotions.

情報は、感情の強さを示す強さ情報を含んでよい。表示制御部は、感情の強さに応じて、第1の表示オブジェクトの形状を変化させてよい。   The information may include strength information indicating the strength of emotion. The display control unit may change the shape of the first display object according to the strength of emotion.

第1の表示オブジェクトは、複数の点と、複数の点を結ぶ線で形成されてよい。表示制御部は、感情の強さが強いほど、複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせてよい。   The first display object may be formed by a plurality of points and lines connecting the plurality of points. The display control unit may shift the position of at least one of the plurality of points from a predetermined position on the spherical surface as the emotion is stronger.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る表示システム10の全体構成の一例を概略的に示す。An example of the whole composition of display system 10 concerning this embodiment is shown roughly. ユーザ端末40及びサーバ60のブロック構成を概略的に示すブロック図である。2 is a block diagram schematically showing a block configuration of a user terminal 40 and a server 60. FIG. 複数の感情がマッピングされる感情マップ300を概略的に示す。1 schematically shows an emotion map 300 to which a plurality of emotions are mapped. 表示システム10が用いるニューラルネットワークの一部を概略的に示す。1 schematically shows a part of a neural network used by a display system 10. ユーザ50の怒りの強さと内分泌物質とを対応づける対応情報の一例である。It is an example of the correspondence information which matches the strength of anger of the user 50 and the endocrine substance. ノルアドレナリンの分泌量と結合係数BSとを対応づける結合係数対応情報の一例である。It is an example of binding coefficient correspondence information that correlates the secretion amount of noradrenaline and the binding coefficient BS. 表示部140が表示する表示オブジェクト20の一例を模式的に示す。An example of the display object 20 which the display part 140 displays is shown typically. 形状及び色を変化させた表示オブジェクトの一例を模式的に示す。An example of the display object which changed the shape and the color is shown typically. ユーザ端末40における処理手順を示すフローチャートである。4 is a flowchart showing a processing procedure in a user terminal 40. サーバ60における処理手順を示すフローチャートである。5 is a flowchart showing a processing procedure in a server 60. 会話アプリケーションにおける表示部140の画面遷移の一例を示す。An example of the screen transition of the display part 140 in a conversation application is shown. 複数の実施形態が全体的または部分的に具現化され得るコンピュータ2000の例を示す。1 illustrates an example of a computer 2000 in which embodiments can be implemented in whole or in part.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る表示システム10の全体構成の一例を概略的に示す。表示システム10は、サーバ60と、ユーザ端末40とを備える。ユーザ端末40は、表示装置の一例である。ユーザ端末40は、表示システム10において感情を特定する対象オブジェクトの一例である。   FIG. 1 schematically shows an example of the overall configuration of a display system 10 according to the present embodiment. The display system 10 includes a server 60 and a user terminal 40. The user terminal 40 is an example of a display device. The user terminal 40 is an example of a target object that specifies emotions in the display system 10.

本実施形態において、ユーザ端末40は携帯端末である。ユーザ端末40は、例えば、携帯電話である。ユーザ端末40は通信機能を有する。ユーザ50は、ユーザ端末40のユーザである。ユーザ端末40は、ユーザ50と会話等のやりとりを行う。   In the present embodiment, the user terminal 40 is a mobile terminal. The user terminal 40 is a mobile phone, for example. The user terminal 40 has a communication function. The user 50 is a user of the user terminal 40. The user terminal 40 exchanges conversations with the user 50.

なお、ユーザ端末40は、携帯情報端末、タブレット端末等のコンピュータであってよい。ユーザ端末40はロボットに組み込まれたコンピュータであってよい。ユーザ端末40は、家電製品等の機器に組み込まれた組み込みコンピュータであってよい。ユーザ端末40は、店舗に設けられたコンピュータであってよい。ユーザ端末40は、自動販売機等の販売機に組み込まれたコンピュータであってよい。ユーザ端末40は、車両に搭載されたコンピュータであってよい。車両は、自動車や自動二輪車等であってよい。ユーザ端末40は、ユーザとインタラクトし得る他の任意のコンピュータであってよい。   The user terminal 40 may be a computer such as a portable information terminal or a tablet terminal. The user terminal 40 may be a computer incorporated in a robot. The user terminal 40 may be an embedded computer embedded in a device such as a home appliance. The user terminal 40 may be a computer provided in a store. The user terminal 40 may be a computer incorporated in a vending machine such as a vending machine. The user terminal 40 may be a computer mounted on a vehicle. The vehicle may be an automobile or a motorcycle. The user terminal 40 may be any other computer that can interact with the user.

サーバ60は、ユーザ端末40とは遠隔に設けられる。サーバ60は、通信ネットワーク90を通じてユーザ端末40を通信することができる。例えば、サーバ60は、ユーザ端末40で取得された情報を通信ネットワーク90を通じて受信して、受信した情報に基づいてユーザ端末40の感情やユーザ端末40に行わせる処理等を特定して、特定した感情や処理等を示す情報を通信ネットワーク90を通じてユーザ端末40に送信する。なお、本実施形態においては、ユーザ端末40を1つのみ示すが、表示システム10はユーザ端末40と同様の機能を有するユーザ端末を複数備えてよい。表示システム10が複数のユーザ端末を備える場合、複数のユーザ端末のうちの少なくとも一部のユーザ端末のユーザは、他のユーザ端末のユーザと異なってよい。   The server 60 is provided remotely from the user terminal 40. The server 60 can communicate the user terminal 40 through the communication network 90. For example, the server 60 receives the information acquired by the user terminal 40 through the communication network 90, specifies the emotion of the user terminal 40, processing to be performed by the user terminal 40, and the like based on the received information. Information indicating emotions and processing is transmitted to the user terminal 40 through the communication network 90. In the present embodiment, only one user terminal 40 is shown, but the display system 10 may include a plurality of user terminals having the same function as the user terminal 40. When the display system 10 includes a plurality of user terminals, users of at least some of the plurality of user terminals may be different from users of other user terminals.

表示システム10では、ユーザ端末40の感情を特定したりユーザ端末40の処理を決定したりする処理を、サーバ60が実行する。しかし、サーバ60における処理の一部又は全てを、ユーザ端末40が実行してもよい。   In the display system 10, the server 60 executes a process of specifying the emotion of the user terminal 40 or determining the process of the user terminal 40. However, the user terminal 40 may execute part or all of the processing in the server 60.

ユーザ端末40は、ユーザ50からの音声入力を検出すると、音声認識により音声からテキスト情報を抽出する。また、ユーザ端末40は、入力された音声を解析してユーザ50の感情情報を含む状態情報を特定する。状態情報は、ユーザ50の状態及びユーザ端末40の状態等を示す。ユーザ端末40は、抽出した音声入力のテキスト情報及びユーザ50の状態情報を、通信ネットワーク90を介してサーバ60に送信する。サーバ60は、ユーザ端末40から受信したテキスト情報に基づいて、返答内容を決定して、返答内容を示すテキスト情報をユーザ端末40に送信する。また、サーバ60は、ユーザ端末40から受信した状態情報等に基づいて、ユーザ端末40の感情を特定する。サーバ60は、特定した感情を示す感情情報を、通信ネットワーク90を通じてユーザ端末40に送信する。   When detecting the voice input from the user 50, the user terminal 40 extracts text information from the voice by voice recognition. Further, the user terminal 40 analyzes the input voice and specifies state information including emotion information of the user 50. The state information indicates the state of the user 50, the state of the user terminal 40, and the like. The user terminal 40 transmits the extracted voice input text information and the user 50 status information to the server 60 via the communication network 90. The server 60 determines the response content based on the text information received from the user terminal 40 and transmits text information indicating the response content to the user terminal 40. Further, the server 60 specifies the emotion of the user terminal 40 based on the state information received from the user terminal 40. The server 60 transmits emotion information indicating the identified emotion to the user terminal 40 through the communication network 90.

ユーザ端末40は、返答内容を示すテキスト情報をサーバ60から受信すると、受信したテキスト情報に基づいてユーザ端末40から音声を発生させる。これにより、ユーザ端末40は、ユーザ50と会話を行う。また、ユーザ端末40は、感情情報をサーバ60から受信すると、受信した感情情報に基づいて、ユーザ端末40が備える表示部140に、感情を表す表示オブジェクト20を表示する。   When the user terminal 40 receives the text information indicating the response content from the server 60, the user terminal 40 generates a voice from the user terminal 40 based on the received text information. Thereby, the user terminal 40 has a conversation with the user 50. Moreover, when the user terminal 40 receives emotion information from the server 60, the user terminal 40 displays the display object 20 representing emotion on the display unit 140 included in the user terminal 40 based on the received emotion information.

サーバ60は、予め定められた時間間隔で最新の感情情報を生成して、ユーザ端末40に送信する。例えば、サーバ60は、1秒間隔で最新の感情情報を生成する。ユーザ端末40は、受信した最新の感情情報に基づく感情の変化に応じて、表示オブジェクト20の色又は形状を変化させる。これにより、感情の移り変わりをユーザ50に適切に提示することができる。   The server 60 generates the latest emotion information at a predetermined time interval and transmits it to the user terminal 40. For example, the server 60 generates the latest emotion information at 1 second intervals. The user terminal 40 changes the color or shape of the display object 20 in accordance with a change in emotion based on the latest received emotion information. Thereby, the change of emotion can be appropriately presented to the user 50.

なお、本実施形態において、感情を特定する対象となる対象オブジェクトは、ユーザ端末40であるとする。しかし、対象オブジェクトは、ユーザ端末40に限られない。対象オブジェクトは、仮想のオブジェクトであってよい。例えば、対象オブジェクトは、仮想のキャラクターであってよい。例えば、仮想のキャラクターは、アプリケーションプログラムによって仮想的に提供されてよい。例えば、ユーザ端末40における会話アプリケーションにおいて、会話相手として認識される仮想的なオブジェクトを対象オブジェクトとみなしてよい。   In the present embodiment, it is assumed that the target object that is the target for specifying the emotion is the user terminal 40. However, the target object is not limited to the user terminal 40. The target object may be a virtual object. For example, the target object may be a virtual character. For example, the virtual character may be virtually provided by an application program. For example, in a conversation application on the user terminal 40, a virtual object recognized as a conversation partner may be regarded as a target object.

図2は、ユーザ端末40及びサーバ60のブロック構成を概略的に示すブロック図である。まず、ユーザ端末40の機能ブロック構成について説明する。ユーザ端末40は、センサ部120と、処理部130と、表示部140と、音声出力部180と、通信部102とを有する。処理部130は、表示制御装置として機能する。処理部130は、MPU等のプロセッサであってよい。表示部140は、液晶ディスプレイ等の表示デバイスを有する。通信部102は、サーバ60との通信を担う。通信部102は、ネットワークIF等の通信デバイスであってよい。音声出力部180は、例えばスピーカを含む。ユーザ端末40は、ユーザ端末40として機能させるためのデータを格納する記憶媒体を備えてよい。   FIG. 2 is a block diagram schematically showing a block configuration of the user terminal 40 and the server 60. First, the functional block configuration of the user terminal 40 will be described. The user terminal 40 includes a sensor unit 120, a processing unit 130, a display unit 140, an audio output unit 180, and a communication unit 102. The processing unit 130 functions as a display control device. The processing unit 130 may be a processor such as an MPU. The display unit 140 includes a display device such as a liquid crystal display. The communication unit 102 is responsible for communication with the server 60. The communication unit 102 may be a communication device such as a network IF. The audio output unit 180 includes, for example, a speaker. The user terminal 40 may include a storage medium that stores data for functioning as the user terminal 40.

センサ部120は、マイク、ジャイロセンサ、カメラ、電池残量センサ等の各種のセンサを有する。センサ部120のマイクは、周囲の音声を取得する。例えば、センサ部120のマイクは、ユーザ50の音声を取得する。センサ部120のカメラは、可視光によって撮影して動画や静止画の画像情報を生成する。センサ部120のジャイロセンサは、ユーザ端末40全体及びユーザ端末40の各部の角速度を検出する。センサ部120の電池残量センサは、ユーザ端末40が備える電池の残存容量を検出する。   The sensor unit 120 includes various sensors such as a microphone, a gyro sensor, a camera, and a battery remaining amount sensor. The microphone of the sensor unit 120 acquires ambient sound. For example, the microphone of the sensor unit 120 acquires the voice of the user 50. The camera of the sensor unit 120 shoots with visible light and generates image information of moving images and still images. The gyro sensor of the sensor unit 120 detects the angular velocity of the entire user terminal 40 and each part of the user terminal 40. The battery remaining amount sensor of the sensor unit 120 detects the remaining battery capacity of the user terminal 40.

センサ部120は、マイクで取得された音声データ、カメラで撮影された画像、ジャイロセンサで検出された角速度、電池残量センサで検出した残存容量等の各種のセンサデータを、処理部130に出力する。処理部130は、取得したセンサ信号を通信部102に供給して、サーバ60へ送信させる。また、処理部130は、サーバ60から受信したテキスト情報に基づいて、ユーザ端末40の音声出力部180ら出力させる。また、処理部130は、サーバ60から受信した感情情報に基づいて、表示部140に表示オブジェクト20を表示させる。   The sensor unit 120 outputs, to the processing unit 130, various sensor data such as voice data acquired by the microphone, an image captured by the camera, an angular velocity detected by the gyro sensor, and a remaining capacity detected by the battery remaining amount sensor. To do. The processing unit 130 supplies the acquired sensor signal to the communication unit 102 and transmits it to the server 60. Further, the processing unit 130 causes the voice output unit 180 of the user terminal 40 to output based on the text information received from the server 60. Further, the processing unit 130 causes the display unit 140 to display the display object 20 based on the emotion information received from the server 60.

次に、サーバ60の機能ブロック構成について説明する。サーバ60は、処理部270と、通信部202と、格納部280とを有する。処理部270は、感情処理部272と会話処理部274とを有する。感情処理部272は、分泌情報生成部200と、入力情報生成部210と、調整部220と、判定部240と、感情特定部260とを備える。   Next, the functional block configuration of the server 60 will be described. The server 60 includes a processing unit 270, a communication unit 202, and a storage unit 280. The processing unit 270 includes an emotion processing unit 272 and a conversation processing unit 274. The emotion processing unit 272 includes a secretion information generation unit 200, an input information generation unit 210, an adjustment unit 220, a determination unit 240, and an emotion identification unit 260.

通信部202は、ユーザ端末40との通信を担う。通信部202は、ネットワークIF等の通信デバイスであってよい。格納部280は、ハードディスク装置、フラッシュメモリ等の記憶媒体を有する。また、格納部280は、RAM等の揮発性記憶装置を有する。格納部280は、処理部270が実行時に読み出すプログラムコードや各種の一時データの他、処理部270の処理の実行に必要なデータ等を格納する。   The communication unit 202 is responsible for communication with the user terminal 40. The communication unit 202 may be a communication device such as a network IF. The storage unit 280 includes a storage medium such as a hard disk device or a flash memory. The storage unit 280 includes a volatile storage device such as a RAM. The storage unit 280 stores data necessary for executing the processing of the processing unit 270, in addition to program codes read by the processing unit 270 during execution and various kinds of temporary data.

通信部202が受信したユーザ端末40からのテキスト情報は、会話処理部274に出力される。会話処理部274は、受信したテキスト情報に基づいて、ユーザ50への返答内容を決定する。会話処理部274は、決定した返答内容を示すテキスト情報を通信部202に出力する。通信部202は、返答内容を示すテキスト情報をユーザ端末40に送信する。   The text information from the user terminal 40 received by the communication unit 202 is output to the conversation processing unit 274. The conversation processing unit 274 determines the content of the response to the user 50 based on the received text information. The conversation processing unit 274 outputs text information indicating the determined response content to the communication unit 202. The communication unit 202 transmits text information indicating the response content to the user terminal 40.

通信部202がユーザ端末40から受信した状態情報は、感情処理部272に出力される。感情処理部272において、入力情報生成部210は、状態情報に基づいて、感情を特定するためのニューラルネットワークへの入力情報を生成する。入力情報は、ユーザ50の感情情報や、ユーザ端末40の各種センサで取得されたセンサ情報等を含む。入力情報生成部210が生成した入力情報は、NN演算部230に出力される。   The state information received by the communication unit 202 from the user terminal 40 is output to the emotion processing unit 272. In the emotion processing unit 272, the input information generation unit 210 generates input information to the neural network for specifying emotion based on the state information. The input information includes emotion information of the user 50, sensor information acquired by various sensors of the user terminal 40, and the like. The input information generated by the input information generation unit 210 is output to the NN calculation unit 230.

分泌情報生成部200は、入力情報生成部210から生成した入力情報に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する。内分泌物質としては、ノルアドレナリン、ドーパミン等を例示できる。なお、内分泌物質の分泌量を示す分泌情報は、表示システム10における内部情報として擬似的に生成されるものであり、内分泌物質を実際に分泌させるわけではない。   The secretion information generation unit 200 generates secretion information indicating the secretion amount of one or more endocrine substances based on the input information generated from the input information generation unit 210. Examples of endocrine substances include noradrenaline and dopamine. The secretory information indicating the secretory amount of the endocrine substance is generated in a pseudo manner as the internal information in the display system 10 and does not actually secrete the endocrine substance.

調整部220は、分泌情報生成部200が生成した分泌情報が示す内分泌物質の分泌量に基づいて、NN演算部230が入力情報から感情を決定するための演算パラメータを調整する。調整部220が調整する演算パラメータは、ニューラルネットワークに含まれる人工シナプスの結合係数であってよい。   The adjustment unit 220 adjusts calculation parameters for the NN calculation unit 230 to determine emotion from the input information based on the secretion amount of the endocrine substance indicated by the secretion information generated by the secretion information generation unit 200. The calculation parameter adjusted by the adjustment unit 220 may be a coupling coefficient of an artificial synapse included in the neural network.

格納部280は、入力情報と内分泌物質の分泌量とを対応づける対応情報を格納する。分泌情報生成部200は、入力情報生成部210が生成した入力情報に対応づけられている内分泌物質の分泌量を変化させる。また、格納部280は、複数の人工シナプスのそれぞれと内分泌物質とを対応づける対応情報を格納する。調整部220は、分泌情報生成部200が生成した分泌情報が示す内分泌物質の分泌量に応じて、対応情報によって内分泌物質が対応づけられている複数の人工シナプスのそれぞれの結合係数を変化させる。   The storage unit 280 stores correspondence information that associates the input information with the secretion amount of the endocrine substance. Secretion information generation unit 200 changes the secretion amount of the endocrine substance associated with the input information generated by input information generation unit 210. The storage unit 280 stores correspondence information that associates each of the plurality of artificial synapses with an endocrine substance. The adjustment unit 220 changes the coupling coefficient of each of the plurality of artificial synapses associated with the endocrine substance according to the correspondence information, according to the secretion amount of the endocrine substance indicated by the secretion information generated by the secretion information generation unit 200.

NN演算部230は、入力情報生成部210から出力された入力情報を用いて、ニューラルネットワークの演算を行う。判定部240がNN演算部230によるニューラルネットワークの演算結果に基づいて、人工ニューロンの判定を行う。感情特定部260は、判定部240による人工ニューロンの判定結果に基づいて、感情を特定する。また、感情特定部260は、人工ニューロンの発火状態及び内分泌物質の分泌量に基づいて、感情の強さを特定する。   The NN calculation unit 230 performs a neural network calculation using the input information output from the input information generation unit 210. The determination unit 240 determines an artificial neuron based on the calculation result of the neural network by the NN calculation unit 230. The emotion identification unit 260 identifies an emotion based on the determination result of the artificial neuron by the determination unit 240. The emotion identifying unit 260 identifies the strength of emotion based on the firing state of the artificial neuron and the secretion amount of the endocrine substance.

ニューラルネットワークは、感情が定められた人工ニューロンである複数の感情人工ニューロンを含む。判定部240は、複数の感情人工ニューロンのそれぞれの現在の発火状態を判定する。感情特定部260は、判定部240により判定された感情人工ニューロンの発火状態に基づいて、現在の感情を決定する。例えば、感情特定部260は、ユーザ端末40の感情として、発火した1以上の感情人工ニューロンに割り当てられている1以上の感情を特定してよい。なお、感情特定部260は、内分泌物質の分泌量が多いほど、強い感情を特定してよい。また、感情特定部260は、発火状態にある感情人工ニューロンの出力が大きいほど、強い感情を特定してよい。感情特定部260により特定された感情を示す情報及び感情の強さを示す情報を含む感情情報は、通信部202に供給され、通信部202からユーザ端末40へ送信される。なお、通信部202は、ユーザ端末40の現在の感情を示す情報を取得する取得部の一例である。   The neural network includes a plurality of emotional artificial neurons, which are artificial neurons in which emotions are defined. The determination unit 240 determines the current firing state of each of the plurality of emotional artificial neurons. The emotion identification unit 260 determines the current emotion based on the firing state of the emotion artificial neuron determined by the determination unit 240. For example, the emotion identification unit 260 may identify one or more emotions assigned to one or more emotion artificial neurons that have ignited as the emotion of the user terminal 40. Emotion specifying unit 260 may specify a stronger emotion as the amount of endocrine secretion increases. In addition, the emotion identification unit 260 may identify a stronger emotion as the output of the emotion artificial neuron in the fired state is larger. Emotion information including information indicating the emotion specified by the emotion specifying unit 260 and information indicating the strength of the emotion is supplied to the communication unit 202 and transmitted from the communication unit 202 to the user terminal 40. The communication unit 202 is an example of an acquisition unit that acquires information indicating the current emotion of the user terminal 40.

次に、ユーザ端末40において、通信部202が受信した感情を示す情報に関する処理について説明する。処理部130は、感情情報が示す感情の変化に応じて、球形状の第1の表示オブジェクトの形状又は色を変化させる。具体的には、処理部130は、感情の変化に応じて、第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの形状又は色を変化させる。   Next, in the user terminal 40, the process regarding the information which shows the emotion which the communication part 202 received is demonstrated. The processing unit 130 changes the shape or color of the spherical first display object in accordance with the change in emotion indicated by the emotion information. Specifically, the processing unit 130 changes the shape or color of the second display object located inside the first display object in accordance with the change in emotion.

感情情報は、ユーザ端末40の現在の主感情及び副感情を示す。処理部130は、主感情の変化に応じて、第2の表示オブジェクトの形状又は色を変化させ、副感情の変化に応じて、第1の表示オブジェクトの形状又は色を変化させる。このように、処理部130は、主感情の変化に応じて、複数の表示オブジェクトのうちの一方の表示オブジェクトの形状又は色を変化させ、副感情の変化に応じて、複数の表示オブジェクトのうちの他方の表示オブジェクトの形状又は色を変化させる。なお、処理部130は、主感情の変化に応じて、第2の表示オブジェクトの色を変化させ、副感情の変化に応じて、第1の表示オブジェクトの色を変化させてよい。   The emotion information indicates the current main emotion and sub emotion of the user terminal 40. The processing unit 130 changes the shape or color of the second display object according to the change in the main emotion, and changes the shape or color of the first display object according to the change in the secondary emotion. As described above, the processing unit 130 changes the shape or color of one display object among the plurality of display objects according to the change in the main emotion, and among the plurality of display objects according to the change in the sub-emotion. The shape or color of the other display object is changed. Note that the processing unit 130 may change the color of the second display object according to a change in the main emotion, and change the color of the first display object according to a change in the sub emotion.

感情情報は、複数の感情の強さを示す強さ情報を含んでよい。この場合、処理部130は、複数の感情のうち主感情として選択され得る複数の第2の感情に対応づけられた色を、強さ情報が示す複数の第2の感情の強さに応じた重み付けで合成した色で、第2の表示オブジェクトを表示させる。また、処理部130は、複数の感情のうち副感情として選択され得る複数の第1の感情に対応づけられた色を、強さ情報が示す複数の第1の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させる。   The emotion information may include strength information indicating the strength of a plurality of emotions. In this case, the processing unit 130 corresponds to the strength of the plurality of second emotions indicated by the strength information, with the color associated with the plurality of second emotions that can be selected as the main emotion among the plurality of emotions. The second display object is displayed with the color synthesized by weighting. In addition, the processing unit 130 weights the colors associated with the plurality of first emotions that can be selected as the secondary emotion among the plurality of emotions according to the strengths of the plurality of first emotions indicated by the strength information. The first display object is displayed with the color synthesized in step (b).

複数の感情は、感情マップによって互いに異なる位置にマッピングされ、感情マップが複数の感情をマッピングする位置に色が対応づけられていてよい。この場合、処理部130は、複数の感情の強さと、複数の感情が感情マップによってマッピングされる位置に対応づけられた色とから定まる色で、第1の表示オブジェクトを表示させてよい。このように、処理部130は、複数の感情に対応づけられた色を複数の感情の強さに応じた重み付けで合成した色で、第1の表示オブジェクトを表示させてよい。   A plurality of emotions may be mapped to different positions by the emotion map, and colors may be associated with positions where the emotion map maps a plurality of emotions. In this case, the processing unit 130 may display the first display object in a color determined from the strength of the plurality of emotions and the color associated with the position where the plurality of emotions are mapped by the emotion map. In this way, the processing unit 130 may display the first display object with a color obtained by combining colors associated with a plurality of emotions with weighting according to the strengths of the plurality of emotions.

処理部130は、感情の強さに応じて、第1の表示オブジェクトの形状を変化させる。例えば、処理部130は、感情の強さが強いほど、第1の表示オブジェクトの一部を大きく突出させる。処理部130は、感情の強さが強いほど、第1の表示オブジェクトの、球形からの変形度を大きくしてよい。   The processing unit 130 changes the shape of the first display object according to the emotion strength. For example, the processing unit 130 causes a part of the first display object to protrude more greatly as the emotion is stronger. The processing unit 130 may increase the degree of deformation of the first display object from the spherical shape as the emotion strength increases.

一例として、第1の表示オブジェクトは、複数の点と、複数の点を結ぶ線で形成される。この場合、処理部130は、感情の強さが強いほど、複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせる。処理部130は、シフトされる点と他の点とを結ぶ2つの線がなす角度を小さくしてよい。   As an example, the first display object is formed by a plurality of points and lines connecting the plurality of points. In this case, the processing unit 130 shifts the position of at least one of the plurality of points from a predetermined position on the spherical surface as the emotion is stronger. The processing unit 130 may reduce the angle formed by the two lines connecting the shifted point and another point.

図3は、複数の感情がマッピングされる感情マップ300を概略的に示す。感情マップ300において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。感情マップ300において、同心円より上側には、概ね、快い心情を表す感情が配置される。また、同心円より下側には、概ね、不快な心情を表す感情が配置される。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。   FIG. 3 schematically shows an emotion map 300 to which a plurality of emotions are mapped. In the emotion map 300, the emotions are arranged concentrically radially from the center. The closer to the center of the concentric circles, the more primitive emotions are placed. Outside the concentric circles, emotions representing the state and behavior born from the emotional state are arranged. Emotion is a concept that includes emotions and mental states. In the emotion map 300, emotions that express a pleasant feeling are generally arranged above the concentric circles. In addition, below the concentric circles, an emotion representing an unpleasant feeling is generally arranged. On the left side of the concentric circles, emotions generated from reactions that occur in the brain are generally arranged. On the right side of the concentric circles, emotions induced by situation judgment are generally arranged.

第一円周は、「好き」、「安心」等の感情を含む。第一円周には、情感に関する感情が含まれる。第二円周は、「愛」、「喜楽」等の感情を含む。第二円周には、情動的感情に関する感情が含まれる。第三円周は、「愛しい」、「楽しい」等の感情を含む。第三円周には、感情表現に関する感情が含まれる。第四円周は、「素晴らしい」、「誇らしい」等の感情を含む。第四円周には、感情状態表現を表す感情が含まれる。   The first circumference includes emotions such as “like” and “relief”. The first circumference includes emotions related to emotion. The second circumference includes emotions such as “love” and “joy”. The second circumference includes emotions related to emotional emotions. The third circumference includes emotions such as “love” and “fun”. The third circle includes emotions related to emotional expression. The fourth circumference includes emotions such as “great” and “proud”. The fourth circumference includes emotions representing emotional state expressions.

NN演算部230が演算対象とするニューラルネットワークは、感情マップ300に示す各感情に割り当てられた人工ニューロンを含む。ニューラルネットワークはまた、感情マップ300において同心円の最も内側に位置する入力にも、それぞれ入力用の人工ニューロンが割り当てられている。入力に割り当てられた入力用の人工ニューロンには、入力情報生成部210が生成した入力情報が入力される。そして、概ね内側から外側に向かって人工ニューロンが人工シナプスで接続されて、ニューラルネットワークを形成する。   The neural network to be calculated by the NN calculation unit 230 includes an artificial neuron assigned to each emotion shown in the emotion map 300. In the neural network, an artificial neuron for input is assigned to each input located on the innermost side of the concentric circle in the emotion map 300. The input information generated by the input information generation unit 210 is input to the input artificial neuron assigned to the input. Then, artificial neurons are generally connected by artificial synapses from the inside to the outside to form a neural network.

NN演算部230は、入力情報に基づいて繰り返しニューラルネットワークの演算を行い、判定部240は、各人工ニューロンの発火状態を判定する。感情特定部260は、各人工ニューロンの発火状態からユーザ端末40の感情を特定する。例えば、感情特定部260は、発火した人工ニューロンが割り当てられている感情を、ユーザ端末40が持つ感情として特定する。なお、発火した人工ニューロンが複数存在する場合、ユーザ端末40は複数の感情を持つものと判断する。   The NN calculation unit 230 repeatedly calculates a neural network based on the input information, and the determination unit 240 determines the firing state of each artificial neuron. The emotion identifying unit 260 identifies the emotion of the user terminal 40 from the firing state of each artificial neuron. For example, the emotion identifying unit 260 identifies the emotion to which the fired artificial neuron is assigned as the emotion that the user terminal 40 has. If there are a plurality of fired artificial neurons, the user terminal 40 determines that the user terminal 40 has a plurality of emotions.

なお、感情マップ300が感情をマッピングする位置には、色が対応づけられている。一例として、感情マップ300が含む領域310には、黄色又は主用な色成分が黄色である色が対応づけられている。領域310内には、「愛しい」、「嬉しい」、「楽しい」、「歓喜」、「愛」、「喜楽」、「好き」の感情が位置している。領域310は、概して嬉しさを表す感情が位置する領域である。   A color is associated with a position where the emotion map 300 maps an emotion. As an example, the region 310 included in the emotion map 300 is associated with yellow or a color whose main color component is yellow. In the area 310, emotions of “love”, “happy”, “fun”, “joy”, “love”, “joy”, “like” are located. A region 310 is a region where emotions that generally express happiness are located.

領域320には、赤色又は主用な色成分が赤色である色が対応づけられている。領域320内には、「嫌い」、「辛」、「怒」、「悲しい」、「許せない」の感情が位置している。領域320は、概して不快を表す感情が位置する領域である。   The region 320 is associated with red or a color whose main color component is red. In the region 320, emotions of “dislike”, “spicy”, “anger”, “sad”, and “don't forgive” are located. Area 320 is an area where emotions that generally indicate discomfort are located.

領域330には、緑色又は主用な色成分が緑色である色が対応づけられている。領域330内には、「安心」、「安穏」、「心強い」の感情が位置している。領域330は、概して安定を表す感情が位置する領域である。   The region 330 is associated with a green color or a color whose main color component is green. Within the region 330, emotions of “relief”, “relax”, and “reassuring” are located. The region 330 is a region where an emotion that generally indicates stability is located.

領域340には、青色又は主用な色成分が青色である色が対応づけられている。領域340内には、「不安」、「恐怖」、「怖い」、「苦痛」、「苦」の感情が位置している。領域340は、概して不安を表す感情が位置する領域である。   The region 340 is associated with blue or a color whose main color component is blue. In the region 340, emotions of “anxiety”, “fear”, “scary”, “pain”, and “pain” are located. The region 340 is a region where emotions generally expressing anxiety are located.

なお、図3においては一例として、領域310、領域320、領域330及び領域340に対応づけられた色のみを例示したが、感情マップ300がマッピングする全ての感情の位置に、色が対応づけられている。   In FIG. 3, as an example, only the colors associated with the area 310, the area 320, the area 330, and the area 340 are illustrated, but the colors are associated with all the emotion positions mapped by the emotion map 300. ing.

処理部130は、複数の感情の強さと、複数の感情が感情マップ300よってマッピングされる位置に対応づけられた色とから定まる色で、表示オブジェクト20を表示させる。なお、感情マップ300の第一円周、第二第円周及び三円周に含まれる感情は、主感情に対応する。感情マップ300の第四円周に含まれる感情は、副感情に対応する。処理部130は、主感情に対応する感情に対応づけられた色と、副感情に対応する感情に対応づけられた色とを用いて、表示オブジェクト20の色を決定してよい。処理部130が決定する表示オブジェクト20の色については、後述する。   The processing unit 130 displays the display object 20 in a color determined from the strength of the plurality of emotions and the color associated with the position where the plurality of emotions are mapped by the emotion map 300. The emotions included in the first circle, the second circle, and the three circles of the emotion map 300 correspond to the main emotion. Emotions included in the fourth circumference of the emotion map 300 correspond to secondary emotions. The processing unit 130 may determine the color of the display object 20 using the color associated with the emotion corresponding to the main emotion and the color associated with the emotion corresponding to the secondary emotion. The color of the display object 20 determined by the processing unit 130 will be described later.

図4は、表示システム10が用いるニューラルネットワークの一部を概略的に示す。図示されるニューラルネットワークの一部は、人工ニューロンN、N、N、N、N及びNと、人工シナプスS12、S14、S23、S25、S36、S42、S43、S45、S53、S56とを含む。人工ニューロンは、生体におけるニューロンに対応する。人工シナプスは、生体におけるシナプスに対応する。 FIG. 4 schematically shows a part of the neural network used by the display system 10. Part of the illustrated neural network includes artificial neurons N 1 , N 2 , N 3 , N 4 , N 5 and N 6 and artificial synapses S 12 , S 14 , S 23 , S 25 , S 36 , S 42. , S 43 , S 45 , S 53 , S 56 . Artificial neurons correspond to neurons in the living body. An artificial synapse corresponds to a synapse in a living body.

は、入力情報を示す。人工ニューロンNは、入力用の人工ニューロンである。人工ニューロンNには、n個の入力情報E ・・・入力情報E が入力される。 E 1 shows the input information. Artificial neuron N 1 is an artificial neuron for input. The n pieces of input information E 1 1 ... Input information E n 1 are input to the artificial neuron N 1 .

人工シナプスS12は、人工ニューロンNと人工ニューロンNとを接続する人工シナプスである。特に、人工シナプスS12は、人工ニューロンNの出力を、人工ニューロンNに入力する人工シナプスである。人工シナプスS14は、人工ニューロンNと人工ニューロンNとを接続する人工シナプスである。特に、人工シナプスS14は、人工ニューロンNの出力を、人工ニューロンNに入力する人工シナプスである。なお、j、kを整数として、人工ニューロンNの出力を人工ニューロンNに入力する人工シナプスを、人工シナプスSjkと表記する。 Artificial Synapse S 12 is an artificial synapses for connecting the neurons and N 1 and the artificial neuron N 2. In particular, the artificial synapse S 12, the output of the artificial neuron N 1, an artificial synapse inputs to the artificial neuron N 2. The artificial synapse S 14 is an artificial synapse that connects the artificial neuron N 1 and the artificial neuron N 4 . In particular, the artificial synapse S 14 is an artificial synapse that inputs the output of the artificial neuron N 1 to the artificial neuron N 4 . Note that an artificial synapse in which j and k are integers and the output of the artificial neuron N j is input to the artificial neuron N k is denoted as an artificial synapse S jk .

ここで、iを整数として、各人工ニューロンをNで表記するものとする。Nは、Nのステータスを表すSと、Nが表す人工ニューロンの内部状態を表すVmと、Nの発火の閾値を表すTとをパラメータとして持つ。また、人工シナプスSjkは、パラメータとして、結合係数BSjkを持つ。なお、本実施形態においては、人工ニューロンを、その添え字を省略して人工ニューロンNと総称する場合がある。また、人工シナプスを、その添え字を省略して人工シナプスSと総称する場合がある。同様に、人工ニューロンのパラメータについても、それらの添え字を省略して、内部情報Vm、閾値T、ステータスSと総称する場合がある。 Here, the i is an integer, it is assumed that each artificial neuron is denoted by N i. N i has a S i representing the status of the N i, and V i m which represents the internal state of the artificial neuron represented by N i, and T i which represents the threshold of the ignition of the N i as a parameter. The artificial synapse S jk has a coupling coefficient BS jk as a parameter. In the present embodiment, the artificial neuron may be collectively referred to as an artificial neuron N with its subscript omitted. In some cases, the artificial synapse is collectively referred to as an artificial synapse S with its subscript omitted. Similarly, the parameters of the artificial neuron may be collectively referred to as internal information Vm, threshold value T, and status S with their subscripts omitted.

人工ニューロンNのステータスS、内部状態Vm、及び閾値Tは、時刻の進展とともに更新され得るパラメータである。ステータスSは、ニューロンの発火状態に関する情報であり、人工ニューロンNが発火状態にあるか非発火状態にあるかを少なくとも示す。内部状態Vmは、ニューロンの膜電位に関する情報であり、人工ニューロンNの内部状態又は出力を表すパラメータの一例である。   The status S, the internal state Vm, and the threshold T of the artificial neuron N are parameters that can be updated as time progresses. The status S is information regarding the firing state of the neuron, and indicates at least whether the artificial neuron N is in a firing state or a non-firing state. The internal state Vm is information relating to the membrane potential of the neuron, and is an example of a parameter representing the internal state or output of the artificial neuron N.

また、人工シナプスSのパラメータである結合係数BSは、時刻の進展とともに更新され得るパラメータである。結合係数BSは、シナプスの可塑性に関する情報であり、人工シナプスSが結合する人工ニューロンN同士の間の結合強度を示す。   In addition, the coupling coefficient BS, which is a parameter of the artificial synapse S, is a parameter that can be updated as time progresses. The coupling coefficient BS is information relating to synaptic plasticity, and indicates the coupling strength between the artificial neurons N to which the artificial synapse S is coupled.

NN演算部230は、入力情報から、ニューラルネットワークにおける上述したパラメータを更新して、各人工ニューロンNの内部状態Vmを算出する。なお、本実施形態において、人工ニューロンNは、内部状態Vmが閾値Tを超えた場合に、ステータスSが発火状態となる。発火状態になると、人工ニューロンNからは、予め定められた時間にわたって予め定められた値が出力される。発火状態の人工ニューロンNが出力は下降してよい。発火状態の人工ニューロンNが出力する値は、上昇した後に下降してよい。発火状態の人工ニューロンNが出力する値は一定であってよい。予め定められた時間が経過すると、NのステータスSは末発火に戻る。   The NN calculation unit 230 updates the above-described parameters in the neural network from the input information, and calculates the internal state Vm of each artificial neuron N. In the present embodiment, when the internal state Vm exceeds the threshold T, the artificial neuron N has the status S in the firing state. In the firing state, the artificial neuron N outputs a predetermined value over a predetermined time. The output of the fired artificial neuron N may drop. The value output by the fired artificial neuron N may increase and then decrease. The value output from the firing artificial neuron N may be constant. When a predetermined time has elapsed, the status S of N returns to the last ignition.

ここで、NN演算部230による演算内容を、Nを取り上げてより具体的に説明する。NN演算部230は、Nへの入力Iを、BS12×Vm×f(S)+BS42×Vm×f(S)により算出する。ここで、f(S)は、Sが未発火を表す値の場合は0を返し、Sが発火を示す値の場合は1を返す関数である。なお、このf(S)は、ニューロンが発火した場合のみシナプスが活動電位を伝達するモデルに対応する。なお、f(S)=1であってもよい。これは、ニューロンの発火状態によらず膜電位を伝達するモデルに対応する。f(S)として、膜電位の他の伝達モデルに対応する関数を適用してよい。 Here, the contents of calculation by the NN calculation unit 230 will be described more specifically with N 2 taken up. NN arithmetic unit 230, an input I 2 to N 2, is calculated by BS 12 × Vm 1 × f ( S 1) + BS 42 × Vm 4 × f (S 4). Here, f (S) is a function that returns 0 if S is a value indicating unfired, and returns 1 if S is a value indicating firing. This f (S) corresponds to a model in which the synapse transmits the action potential only when the neuron fires. It may be f (S) = 1. This corresponds to a model that transmits a membrane potential regardless of the firing state of neurons. As f (S), a function corresponding to another transfer model of the membrane potential may be applied.

一般には、NN演算部230は、Nへの入力Iを、ΣBSji×Vm×f(S)+Σ により算出する。NN演算部230は、現時刻におけるBSji、Vm、S、Eを用いて、次の時刻におけるNへの入力I及びS等を算出する。NN演算部230は、これを時間的に繰り返すことにより、各人工ニューロンNのステータスSをリアルタイムに決定する。そして、判定部240は各人工ニューロンNのステータスSを判定し、感情特定部260は判定部240の判定結果からユーザ端末40の感情を特定する。例えば、感情特定部260は、図3における「嬉しい」という感情が割り当てられた人工ニューロンが発火した場合、ユーザ端末40の感情として「嬉しい」を特定する。 Generally, NN calculation unit 230, an input I i to N i, is calculated by Σ j BS ji × Vm j × f (S j) + Σ j E j i. The NN operation unit 230 calculates the inputs I i and S i to the N i at the next time using the BS ji , Vm j , S j , and E j at the current time. The NN calculation unit 230 repeats this in time to determine the status S of each artificial neuron N in real time. Then, the determination unit 240 determines the status S of each artificial neuron N, and the emotion specifying unit 260 specifies the emotion of the user terminal 40 from the determination result of the determination unit 240. For example, the emotion specifying unit 260 specifies “happy” as the emotion of the user terminal 40 when an artificial neuron assigned with the emotion “happy” in FIG.

ここで、調整部220は、ユーザ端末40から取得した情報に基づいて、人工シナプスSの結合係数BSを調整する。例えば、ユーザ端末40が有する蓄電池の残量である残存容量が50%以下であることが検出された場合、分泌情報生成部200は、内部変数としての「ノルアドレナリン」の分泌量を増加させる。そして、調整部220は、「ノルアドレナリン」の分泌量に基づいて、「ノルアドレナリン」に対応づけられた人工シナプスSの結合係数BSを調整する。後述するように、「ノルアドレナリン」の生成は、例えば、「不安」や「怒り」等の感情に対応する人工感情ニューロンが発火する経路上の人工シナプスSの結合係数BSを強化するように設定されている。これにより、「ノルアドレナリン」は、「不安」や「怒り」等の感情が生成され易くなる方向に作用する。   Here, the adjustment unit 220 adjusts the coupling coefficient BS of the artificial synapse S based on the information acquired from the user terminal 40. For example, when it is detected that the remaining capacity that is the remaining amount of the storage battery of the user terminal 40 is 50% or less, the secretion information generation unit 200 increases the secretion amount of “noradrenaline” as an internal variable. Then, the adjustment unit 220 adjusts the coupling coefficient BS of the artificial synapse S associated with “noradrenaline” based on the secretion amount of “noradrenaline”. As will be described later, the generation of “noradrenaline” is set so as to enhance the coupling coefficient BS of the artificial synapse S on the path where the artificial emotional neuron corresponding to the emotion such as “anxiety” or “anger” fires, for example. ing. As a result, “noradrenaline” acts in such a direction that emotions such as “anxiety” and “anger” are likely to be generated.

内部分泌物質の分泌量は特定の人工シナプスSの結合係数BSに対応づけられている。これにより、ユーザ端末40で取得した情報によって、内部分泌物質の分泌量を介して、ニューラルネットワークにおける各所の人工シナプスSにおける信号の伝わり易さを変えることができる。そのため、ユーザ端末40で取得した情報から多様な感情を生み出すことが可能になる。   The secretion amount of the endocrine substance is associated with the binding coefficient BS of a specific artificial synapse S. Thereby, the ease of transmission of signals at various artificial synapses S in the neural network can be changed by the information acquired by the user terminal 40 through the secretion amount of the endocrine substances. Therefore, various emotions can be generated from the information acquired by the user terminal 40.

図5は、ユーザ50の怒りの強さと内分泌物質とを対応づける対応情報の一例である。格納部280は、怒りの強さを示す複数の値に対応づけて、ノルアドレナリンを示す情報を格納する。より具体的には、格納部280は、怒りの強さのそれぞれに対応づけて、ノルアドレナリンの分泌量の増加量を示す情報を格納する。なお、怒りの強さは、最大強さに対する割合で示す。また、分泌量の増加量は、NN演算部230が使用する内部変数が表す分泌量の上限値1に対する割合で示す。これにより、入力情報に含まれるユーザ50の怒りの強さが強くなるほど、ノルアドレナリンの分泌量が多くなる。その結果、ユーザ端末40の感情として、「不安」や「怒り」の感情が生成され易くなる。   FIG. 5 is an example of correspondence information that associates the intensity of anger of the user 50 with an endocrine substance. The storage unit 280 stores information indicating noradrenaline in association with a plurality of values indicating the strength of anger. More specifically, the storage unit 280 stores information indicating an increase in the amount of noradrenaline secreted in association with each anger intensity. The strength of anger is shown as a percentage of the maximum strength. Further, the increase amount of the secretion amount is shown as a ratio to the upper limit value 1 of the secretion amount represented by the internal variable used by the NN calculation unit 230. Thereby, the amount of noradrenaline secretion increases as the anger of the user 50 included in the input information increases. As a result, emotions of “anxiety” and “anger” are easily generated as emotions of the user terminal 40.

図6は、ノルアドレナリンの分泌量と結合係数BSとを対応づける結合係数対応情報の一例である。格納部280は、ノルアドレナリンの総分泌量に対応づけて、人工シナプスS14の結合係数BS14の増加係数と、人工シナプスS45の結合係数BS45の増加係数と、人工シナプスS43の結合係数BS43の増加係数とを対応づける情報を格納する。なお、ここで取り上げる人工シナプスSは、強結合で人工ニューロンNを接続しているとする。 FIG. 6 is an example of binding coefficient correspondence information that correlates the secretion amount of noradrenaline and the binding coefficient BS. Storage unit 280, in association with total amount of secreted noradrenaline, and increase the coefficient of coupling coefficient BS 14 of the artificial synapse S 14, the increase factor of the coupling coefficient BS 45 of the artificial synapse S 45, the coupling coefficient of the artificial synapse S 43 Information for associating the increase coefficient of the BS 43 is stored. It is assumed that the artificial synapse S taken up here is connected to the artificial neuron N by strong coupling.

図示されるように、BS14の増加係数及びBS45の増加係数には、ノルアドレナリン量が多くなるほどより大きい値が対応づけられる。一方、BS43の増加係数には、ノルアドレナリン量が多くなるほどより小さい値が対応づけられる。これにより、例えば、図4に示すニューラルネットワークにおいて、NからNに向かう方向より、NからNに向かう方向の方が、入力情報により生じた信号が伝わり易くなる。そのため、NからNに向かう方向に配置された人工ニューロンが、より発火し易くなる。そのため、例えば図3に示す感情マップにおいて、ノルアドレナリンが増えるほど、同心円の中心部に対して特定の方向に配置された感情、例えば「不安」や「怖い」という感情が発火し易くなる。そのため、人間が空腹な場合に生じる感情に似た感情がユーザ端末40で生まれ易くなるようにすることができる。 As shown in the figure, the increase coefficient of BS 14 and the increase coefficient of BS 45 are associated with larger values as the amount of noradrenaline increases. On the other hand, the increase coefficient of BS 43 is associated with a smaller value as the amount of noradrenaline increases. Thus, for example, in a neural network shown in FIG. 4, from the direction from N 1 to N 3, towards the direction from N 1 to N 5 it is likely to occur a signal is transmitted by the input information. Therefore, the artificial neuron arranged in the direction from N 1 to N 5 becomes easier to fire. Therefore, for example, in the emotion map shown in FIG. 3, as noradrenaline increases, emotions arranged in a specific direction with respect to the center of the concentric circle, for example, emotions such as “anxiety” and “scary” are more likely to ignite. Therefore, it is possible to make it easier for the user terminal 40 to generate emotions similar to those that occur when a person is hungry.

なお、ここでは、人工シナプスSの結合係数BSを、出力先の人工ニューロンNを発火させ易くする方向に調整する場合について説明した。しかし、人工シナプスSの結合係数BSを、出力先の人工ニューロンNを発火させにくくする方向に調整できるように、増加係数が設定されていてもよい。例えば、人工シナプスSが強結合の場合は、増加係数を小さくすることで、出力先の人工ニューロンNを発火させにくくすることができる。一方、人工シナプスSが抑制結合で人工ニューロンNを接続している場合、増加係数を大きくすることで、出力先の人工ニューロンNを発火させにくくすることができ、増加係数を小さくすることで、出力先の人工ニューロンNを発火させ易くすることができる。   Here, a case has been described where the coupling coefficient BS of the artificial synapse S is adjusted in a direction that facilitates firing the output destination artificial neuron N. However, the increase coefficient may be set so that the coupling coefficient BS of the artificial synapse S can be adjusted in a direction that makes the output destination artificial neuron N difficult to fire. For example, when the artificial synapse S is strongly coupled, it is possible to make the output destination artificial neuron N difficult to fire by reducing the increase coefficient. On the other hand, when the artificial synapse S is connected to the artificial neuron N by inhibitory connection, it is possible to make the output artificial neuron N difficult to fire by increasing the increase coefficient, and by reducing the increase coefficient, It is possible to facilitate firing of the output destination artificial neuron N.

調整部220は、結合係数対応情報を参照して、各内部分泌物質の総分泌量に応じた量だけ、対応する結合係数BSを調整する。これにより、ユーザ端末40で取得された情報から、結合係数BSの調整量を複雑に調整することができ、ひいては、多様な組み合わせで感情人工ニューロンを発火させることができる。しかも、ユーザ端末40で取得された情報と内分泌物質との関係、及び、各内分泌物質と結合係数BSとの関係を、人間に置き換えて意味づけして対応づけることで、人間にとって違和感のない自然な感情を生成できる。   The adjustment unit 220 refers to the coupling coefficient correspondence information and adjusts the corresponding coupling coefficient BS by an amount corresponding to the total secretion amount of each endocrine substance. Thereby, from the information acquired by the user terminal 40, the adjustment amount of the coupling coefficient BS can be adjusted in a complicated manner. As a result, emotional artificial neurons can be fired in various combinations. In addition, the relationship between the information acquired by the user terminal 40 and the endocrine substance, and the relationship between each endocrine substance and the binding coefficient BS are replaced with humans to make them correspond to each other. Can generate emotions.

なお、図5に関連して、ユーザ端末40から取得する情報としてのユーザ50の怒りの強さとノルアドレナリンとの対応関係を例示した。また、図6に関連して、ノルアドレナリンと結合係数BSとの対応関係を例示した。しかし、これらの情報の対応関係は、ニューラルネットワークおける内分泌物質の作用を分かり易く説明するために例示したものである。図5及び図6に関連して説明した対応関係以外の対応関係を定めてよいことは言うまでもない。   In addition, in relation to FIG. 5, the correspondence relationship between the intensity of anger of the user 50 as information acquired from the user terminal 40 and noradrenaline is illustrated. In addition, in relation to FIG. 6, the correspondence relationship between noradrenaline and the binding coefficient BS is illustrated. However, the correspondence between these pieces of information is illustrated for easy understanding of the action of endocrine substances in the neural network. It goes without saying that a correspondence relationship other than the correspondence relationship described with reference to FIGS. 5 and 6 may be determined.

図7は、表示部140が表示する表示オブジェクト20の一例を模式的に示す。表示オブジェクト20は、表示オブジェクト21と、表示オブジェクト22とを含む。表示オブジェクト21は、球形状を有する。表示オブジェクト21は、球形状の第1の表示オブジェクトの一例である。表示オブジェクト22は、表示オブジェクト21の内側に位置する。表示オブジェクト22は、第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの一例である。   FIG. 7 schematically illustrates an example of the display object 20 displayed by the display unit 140. The display object 20 includes a display object 21 and a display object 22. The display object 21 has a spherical shape. The display object 21 is an example of a spherical first display object. The display object 22 is located inside the display object 21. The display object 22 is an example of a second display object located inside the first display object.

第1の表示オブジェクト21は、点710、点720及び点730を含む。表示オブジェクト21は、点710と720を結ぶ直線712を含む。表示オブジェクト21は、点710と730を結ぶ直線713を含む。表示オブジェクト21は、複数の点と、複数の点を結ぶ直線で形成される。なお、表示オブジェクト21において、複数の点を結ぶ線は、直線でなくてよい。   The first display object 21 includes a point 710, a point 720, and a point 730. The display object 21 includes a straight line 712 that connects the points 710 and 720. The display object 21 includes a straight line 713 connecting the points 710 and 730. The display object 21 is formed by a plurality of points and straight lines connecting the plurality of points. In the display object 21, a line connecting a plurality of points may not be a straight line.

なお、球形状の表示オブジェクトとは、人間の眼に略球形に認識される2次元面上の表示オブジェクトであってよい。球形状とは完全な球形を含むが、実質的に球形とみなすことができる形状であれば、球形状に該当する。近似的に球形を持つ表示オブジェクトは、球形状の表示オブジェクトとみなすことができる。完全な球形の表示オブジェクトを2次元面上に投影した場合、表示オブジェクトの外形は円形となる。表示オブジェクトを2次元面上に投影した場合の外形が5角形以上の多角形で表される場合、当該表示オブジェクトを球形状とみなすことができる場合がある。表示オブジェクトを2次元面上に投影した場合の外形が閉曲線で表される場合において、当該閉曲線の接線の回転角方向の変化率が予め定められた値より小さい場合、当該表示オブジェクトを球形状とみなすことができる場合がある。   The spherical display object may be a display object on a two-dimensional surface that is recognized as a substantially spherical shape by human eyes. The spherical shape includes a perfect spherical shape, but corresponds to a spherical shape if it can be regarded as a substantially spherical shape. A display object having an approximately spherical shape can be regarded as a spherical display object. When a perfect spherical display object is projected onto a two-dimensional surface, the outer shape of the display object is a circle. When the outer shape of a display object projected onto a two-dimensional surface is represented by a polygon that is a pentagon or more, the display object may be regarded as a spherical shape. In the case where the outline of a display object projected onto a two-dimensional surface is represented by a closed curve, when the rate of change in the rotation angle direction of the tangent to the closed curve is smaller than a predetermined value, the display object is a spherical shape. Can be considered.

処理部130は、ユーザ端末40の現在の感情に対応した色で、表示オブジェクト21及び表示オブジェクト22を表示させる。具体的には、処理部130は、ユーザ端末40の現在の主感情に対応した色で、表示オブジェクト22を表示させ、ユーザ端末40の現在の副感情に対応した色で、表示オブジェクト22を表示させる。主感情及び副感情は、図3に関連して説明したとおりである。   The processing unit 130 displays the display object 21 and the display object 22 with a color corresponding to the current emotion of the user terminal 40. Specifically, the processing unit 130 displays the display object 22 in a color corresponding to the current main emotion of the user terminal 40 and displays the display object 22 in a color corresponding to the current sub emotion of the user terminal 40. Let The main emotion and the secondary emotion are as described with reference to FIG.

例えば、処理部130は、複数の感情のうち主感情として選択され得る複数の感情に対応づけられた色を、強さ情報が示す複数の感情の強さに応じた重み付けで合成した色で、表示オブジェクト22を表示させる。例えば、処理部130は、副感情が「愛」及び「不安」の感情を含む場合、感情マップ300によって対応づけられる黄色と青色とを合成した色で表示オブジェクト22を表示させる。例えば、処理部130は、「好き」の人工ニューロンの内部状態Vmが、「不安」の人工ニューロンの内部状態Vmの2倍である場合、「好き」と「不安」とを2:1の割合で合成した色で、表示オブジェクト22を表示させる。同様に、処理部130は、複数の感情のうち副感情として選択され得る複数の感情に対応づけられた色を、当該強さ情報が示す複数の感情の強さに応じた重み付けで合成した色で、表示オブジェクト21を表示させる。   For example, the processing unit 130 is a color obtained by combining colors associated with a plurality of emotions that can be selected as main emotions among a plurality of emotions by weighting according to the strengths of the plurality of emotions indicated by the strength information, The display object 22 is displayed. For example, when the secondary emotion includes emotions of “love” and “anxiety”, the processing unit 130 displays the display object 22 in a color obtained by combining yellow and blue associated with the emotion map 300. For example, when the internal state Vm of the “like” artificial neuron is twice the internal state Vm of the “anxiety” artificial neuron, the processing unit 130 sets “like” and “anxiety” in a ratio of 2: 1. The display object 22 is displayed with the color synthesized in step (b). Similarly, the processing unit 130 combines a color associated with a plurality of emotions that can be selected as a sub-emotion among a plurality of emotions by weighting according to the strength of the plurality of emotions indicated by the strength information. Thus, the display object 21 is displayed.

これにより、「好き」の感情が高いときは、黄色系の色で表示オブジェクト22が表示され、「不安」の感情が高いときは青系の色で表示オブジェクト22が表示される。これにより、交換ユーザ端末40のその時々の感情の種類をユーザ50に分かり易く提示することができる。   As a result, when the “like” emotion is high, the display object 22 is displayed in a yellow color, and when the “anxiety” emotion is high, the display object 22 is displayed in a blue color. Thereby, the type of emotion at the time of the exchange user terminal 40 can be presented to the user 50 in an easily understandable manner.

なお、図7において、オブジェクト750は、処理部130がユーザ50の音声を解析することにより得られたテキスト情報から生成した文字オブジェクトである。当該テキスト情報がサーバ60に送信された後、ユーザ端末40はサーバ60から返答内容のテキスト情報を受信する。オブジェクト751は、処理部130が当該返答内容のテキスト情報から生成した文字オブジェクトである。その後、処理部130はユーザ50の音声を解析することにより新たに得られたテキスト情報からオブジェクト752を生成する。当該テキスト情報がサーバ60に送信された後、ユーザ端末40はサーバ60から新たな返答内容のテキスト情報を受信する。オブジェクト753は、処理部130が当該返答内容のテキスト情報から生成した文字オブジェクトである。このように、処理部130は、表示オブジェクト20とともに、ユーザ50の会話内容を示す文字オブジェクトを表示部140に表示させる。   In FIG. 7, an object 750 is a character object generated from text information obtained by the processing unit 130 analyzing the voice of the user 50. After the text information is transmitted to the server 60, the user terminal 40 receives the text information of the response content from the server 60. An object 751 is a character object generated by the processing unit 130 from the text information of the response content. Thereafter, the processing unit 130 generates an object 752 from the text information newly obtained by analyzing the voice of the user 50. After the text information is transmitted to the server 60, the user terminal 40 receives text information of new response content from the server 60. An object 753 is a character object generated by the processing unit 130 from the text information of the response content. As described above, the processing unit 130 causes the display unit 140 to display the character object indicating the conversation content of the user 50 together with the display object 20.

図8は、形状及び色を変化させた表示オブジェクトの一例を模式的に示す。図8の表示オブジェクト25は、図7に示す表示オブジェクト20の形状を変化させた表示オブジェクトの一例である。表示オブジェクト25は、表示オブジェクト23と表示オブジェクト24とを含む。表示オブジェクト24は、図7に示す表示オブジェクト22の色を変化させた表示オブジェクトの一例である。ここで、表示オブジェクト24は、表示オブジェクト21の色を黄色に変化させた表示オブジェクトである。   FIG. 8 schematically shows an example of a display object whose shape and color are changed. A display object 25 in FIG. 8 is an example of a display object in which the shape of the display object 20 shown in FIG. 7 is changed. The display object 25 includes a display object 23 and a display object 24. The display object 24 is an example of a display object in which the color of the display object 22 illustrated in FIG. 7 is changed. Here, the display object 24 is a display object in which the color of the display object 21 is changed to yellow.

表示オブジェクト23は、表示オブジェクト21の形状を変化させた表示オブジェクトである。表示オブジェクト23は、点810と、点720と点810とを結ぶ直線812と、点730と点810とを結ぶ直線813とを含む。ここでは主として、表示オブジェクト21の形状の変化について説明する。   The display object 23 is a display object in which the shape of the display object 21 is changed. The display object 23 includes a point 810, a straight line 812 connecting the points 720 and 810, and a straight line 813 connecting the points 730 and 810. Here, the change in the shape of the display object 21 will be mainly described.

処理部130は、感情の強さが予め定められた値を超える場合、表示オブジェクト21における点710を点810の位置にシフトさせる。点810は、点710を矢印880で示される方向にシフトした位置にある。矢印880が示す方向は、表示オブジェクト21が示す球形状の中心から外向きの方向である。   When the emotion strength exceeds a predetermined value, the processing unit 130 shifts the point 710 on the display object 21 to the position of the point 810. Point 810 is at a position shifted from point 710 in the direction indicated by arrow 880. The direction indicated by the arrow 880 is a direction outward from the center of the spherical shape indicated by the display object 21.

このように、処理部130は、感情の強さが予め定められた値を超える場合、点710の位置を球形状の外側に向けてシフトさせる。また、処理部130は、点810をシフトさせるとともに、線712に代えて、点720と点810とを結ぶ線812を表示させる。また、線712に代えて、点730と点810とを結ぶ線812を表示させる。線812と線813とがなす角度は、線712と線713とがなす角度より小さくなる。表示オブジェクト23は、点810の位置において外側に突出した形状を持つ。   As described above, when the emotion intensity exceeds a predetermined value, the processing unit 130 shifts the position of the point 710 toward the outside of the spherical shape. Further, the processing unit 130 shifts the point 810 and displays a line 812 connecting the point 720 and the point 810 instead of the line 712. Further, instead of the line 712, a line 812 connecting the points 730 and 810 is displayed. The angle formed by the line 812 and the line 813 is smaller than the angle formed by the line 712 and the line 713. The display object 23 has a shape protruding outward at the position of the point 810.

なお、感情の強さは、内分泌物質の分泌量の総和を指標としてよい。感情の強さは、発火した人工ニューロンの内部状態Vmの総和を指標としてよい。感情の強さは、発火した人工ニューロンの数を指標としてよい。感情の強さは、内分泌物質の分泌量の総和、発火した人工ニューロンの内部状態Vmの総和、及び発火した人工ニューロンの数の任意の組み合わせを指標としてよい。   The strength of emotion may be an index of the total amount of endocrine secretion. The strength of emotion may be based on the sum of the internal state Vm of the fired artificial neuron. The strength of emotion may be an index of the number of fired artificial neurons. The strength of emotion may be determined by using an arbitrary combination of the sum of secreted amounts of endocrine substances, the sum of internal states Vm of fired artificial neurons, and the number of fired artificial neurons.

図8に関連して説明したように、処理部130は、感情の強さが強いほど、複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせる。これにより、感情の強さが予め定められた値を超える場合、表示オブジェクト21の一部が突出して表示される。なお、処理部130は、複数の感情の強さが強いほど、表示オブジェクト21の一部を大きく突出させてよい。処理部130は、複数の感情の強さが強いほど、表示オブジェクト21の一部を大きく突出させてよい。これにより、感情の強さをより分かり易くユーザ50に提示することができる。   As described with reference to FIG. 8, the processing unit 130 shifts the position of at least one of the plurality of points from a predetermined position on the spherical surface as the emotion is stronger. Thereby, when the strength of emotion exceeds a predetermined value, a part of the display object 21 is projected and displayed. In addition, the process part 130 may protrude a part of display object 21 largely, so that the intensity | strength of several emotions is strong. The processing unit 130 may cause a part of the display object 21 to protrude more greatly as the strength of a plurality of emotions is stronger. Thereby, the strength of emotion can be presented to the user 50 in an easy-to-understand manner.

なお、表示オブジェクトの形状又は色は、表示オブジェクトの表示態様の一例である。すなわち、処理部130は、感情の変化に応じて表示オブジェクト20の表示態様を変化させてよい。   The shape or color of the display object is an example of the display mode of the display object. That is, the processing unit 130 may change the display mode of the display object 20 according to the change of emotion.

なお、図8において、オブジェクト754は、処理部130がユーザ50の音声を解析することにより得られたテキスト情報から生成した文字オブジェクトである。当該テキスト情報がサーバ60に送信された後、ユーザ端末40はサーバ60から返答内容のテキスト情報を受信する。オブジェクト755は、処理部130が当該返答内容のテキスト情報から生成した文字オブジェクトである。ユーザ50が会話している最中においても、ユーザ端末40はサーバ60から感情情報を受信して、図7や図8に関連して説明したように、表示オブジェクト20の形状や色を変形させていく。これにより、図8に示されるように、「ありがとう」の言葉が発せられたことに応じて嬉しさの感情が高まったことを、ユーザ50に適切に提示することができる。   In FIG. 8, an object 754 is a character object generated from text information obtained by the processing unit 130 analyzing the voice of the user 50. After the text information is transmitted to the server 60, the user terminal 40 receives the text information of the response content from the server 60. An object 755 is a character object generated by the processing unit 130 from the text information of the response content. Even while the user 50 is talking, the user terminal 40 receives emotion information from the server 60 and changes the shape and color of the display object 20 as described with reference to FIGS. To go. Thereby, as shown in FIG. 8, it is possible to appropriately present to the user 50 that the feeling of happiness has increased in response to the word “thank you” being issued.

図9は、ユーザ端末40における処理手順を示すフローチャートである。本フローチャートの主体は主として処理部130である。   FIG. 9 is a flowchart showing a processing procedure in the user terminal 40. The subject of this flowchart is mainly the processing unit 130.

本フローチャートが開始すると、処理部130は、イベントの発生を待つ(S902)。ここでは、イベントとして、音声の検出イベント、会話情報の受信イベント、感情情報の受信イベント及び終了イベントを取り上げて説明する。音声の検出イベントは、センサ部120におけるマイクから音声信号が入力された場合に生じる。会話情報の受信イベントは、通信部102がサーバ60から返答内容のテキスト情報を受信した場合に生じる。感情情報の受信イベントは、通信部102がサーバ60から感情情報を受信した場合に生じる。終了イベントは、ユーザ端末40の動作を終了する場合に生じる。終了イベントは、本フローチャートに係るアプリケーションソフトの動作を終了する場合にも生じ得る。   When this flowchart starts, the processing unit 130 waits for an event to occur (S902). Here, a description will be given by taking a speech detection event, conversation information reception event, emotion information reception event, and end event as events. The sound detection event occurs when a sound signal is input from the microphone in the sensor unit 120. The conversation information reception event occurs when the communication unit 102 receives text information of a response content from the server 60. An emotion information reception event occurs when the communication unit 102 receives emotion information from the server 60. The end event occurs when the operation of the user terminal 40 is ended. The end event may also occur when the operation of the application software according to this flowchart is ended.

音声検出イベントが発生した場合、処理部130は音声解析を行い(S904)、音声入力の内容及びユーザ50の感情を特定する(S906)。そして、処理部130は、音声入力内容を示すテキスト情報及びユーザ50の感情等を示す状態情報を、通信部102から送信させ(S908)、S902に進む。   When the voice detection event occurs, the processing unit 130 performs voice analysis (S904), and specifies the content of the voice input and the emotion of the user 50 (S906). Then, the processing unit 130 causes the communication unit 102 to transmit the text information indicating the voice input content and the state information indicating the emotion of the user 50 (S908), and proceeds to S902.

会話情報の受信イベントが発生した場合、処理部130は受信した返答内容のテキスト情報に基づいて、音声出力部180から音声を出力させ(S920)、S902に進む。   When a conversation information reception event occurs, the processing unit 130 outputs a voice from the voice output unit 180 based on the received text information of the response content (S920), and proceeds to S902.

感情情報の受信イベントが発生した場合、処理部130は、感情情報に基づいて、表示オブジェクト20の形状及び色を決定する(S930)。そして、処理部130は、決定した形状及び色で表示オブジェクト21及び表示オブジェクト22を変形させ(S932)、S902に進む。   When an emotion information reception event occurs, the processing unit 130 determines the shape and color of the display object 20 based on the emotion information (S930). Then, the processing unit 130 deforms the display object 21 and the display object 22 with the determined shape and color (S932), and proceeds to S902.

終了イベントが発生した場合、処理部130はユーザ端末40の終了動作を行う。   When the end event occurs, the processing unit 130 performs the end operation of the user terminal 40.

図10は、サーバ60における処理手順を示すフローチャートである。本フローチャートの主体は主として処理部270である。   FIG. 10 is a flowchart showing a processing procedure in the server 60. The main part of this flowchart is the processing unit 270.

本フローチャートが開始すると、処理部270は、イベントの発生を待つ(S1002)。ここでは、イベントとして、ユーザ端末40からのテキスト情報の受信イベント、ユーザ端末40からの状態情報の受信イベント、感情情報の生成イベント及び終了イベントを取り上げて説明する。   When this flowchart starts, the processing unit 270 waits for the occurrence of an event (S1002). Here, a text information reception event from the user terminal 40, a state information reception event from the user terminal 40, an emotion information generation event, and an end event will be described as events.

テキスト情報の受信イベントは、通信部202がユーザ端末40から音声入力のテキスト情報を受信した場合に生じる。状態情報の受信イベントは、通信部202がユーザ端末40から状態情報を受信した場合に生じる。感情情報の生成イベントは、感情処理部272において感情情報が生成された場合に生じる。具体的には、感情情報の生成イベントは、感情特定部260において感情が特定された場合に生じる。終了イベントは、サーバ60の動作を終了する場合に生じる。   The text information reception event occurs when the communication unit 202 receives text information of voice input from the user terminal 40. The state information reception event occurs when the communication unit 202 receives state information from the user terminal 40. The emotion information generation event occurs when emotion information is generated in the emotion processing unit 272. Specifically, the emotion information generation event occurs when an emotion is specified by the emotion specifying unit 260. The end event occurs when the operation of the server 60 is ended.

テキスト情報の受信イベントが発生した場合、処理部270において、受信したテキスト情報が会話処理部274に入力される(S1004)。そして、会話処理部274は、入力されたテキスト情報に基づいて、当該テキスト情報に対する返答内容を決定する(S1006)。そして、処理部270は、会話処理部274が決定した返答内容に基づいてテキスト情報を生成して、通信部202から送信させ(S1008)、S1002に進む。   When a text information reception event occurs, the received text information is input to the conversation processing unit 274 in the processing unit 270 (S1004). Then, the conversation processing unit 274 determines the content of the response to the text information based on the input text information (S1006). Then, the processing unit 270 generates text information based on the response content determined by the conversation processing unit 274, transmits the text information from the communication unit 202 (S1008), and proceeds to S1002.

状態情報の受信イベントが発生した場合、処理部270において、受信した状態情報が感情処理部272に入力され(S1020)、S1002に進む。感情処理部272においては、感情を特定する演算が定期的に行われている。感情処理部272において、状態情報が入力された後の次の演算タイミングにおいて、受信した状態情報に基づく入力情報がNN演算部230に供給されて、感情を特定するニューラルネットワークの演算が行われる。   When the reception event of the state information occurs, the received state information is input to the emotion processing unit 272 in the processing unit 270 (S1020), and the process proceeds to S1002. In the emotion processing unit 272, calculations for specifying emotions are periodically performed. In the emotion processing unit 272, at the next calculation timing after the state information is input, the input information based on the received state information is supplied to the NN calculation unit 230, and the calculation of the neural network for specifying the emotion is performed.

感情情報の生成イベントが発生した場合、処理部270は、生成された感情情報を通信部202からユーザ端末40に送信させる(S1030)。   When the emotion information generation event occurs, the processing unit 270 causes the communication unit 202 to transmit the generated emotion information to the user terminal 40 (S1030).

終了イベントが発生した場合、処理部270はサーバ60の終了動作を行う。   When the end event occurs, the processing unit 270 performs the end operation of the server 60.

図11は、会話アプリケーションにおける表示部140の画面遷移の一例を示す。画面1100は、会話アプリケーションの初期画面である。ユーザ端末40の感情を示す表示オブジェクト1102は、画面1100の中央に表示される。   FIG. 11 shows an example of screen transition of the display unit 140 in the conversation application. Screen 1100 is an initial screen of the conversation application. A display object 1102 indicating the emotion of the user terminal 40 is displayed at the center of the screen 1100.

ユーザ50が「○○さんの連絡先は」という声を発すると、画面1110において、ユーザ端末40のマイクで取得された音声の解析から得られたオブジェクト1114が、画面の中央付近に表示される。感情を示す表示オブジェクト1112は、画面の上方の位置に表示される。   When the user 50 makes a voice saying “What is Mr. X's contact?”, On the screen 1110, an object 1114 obtained from the analysis of the voice acquired by the microphone of the user terminal 40 is displayed near the center of the screen. . A display object 1112 indicating emotion is displayed at a position above the screen.

処理部130は、音声解析から得られた「○○」を名前に含む人をアドレス帳データから検索する。「○○」を名前に含む人が一人のみ検索された場合、画面1120において、検索された人の詳細情報を示すオブジェクト1124が表示される。感情を示す表示オブジェクト1122は、画面の上方の位置に縮小して表示される。   The processing unit 130 searches the address book data for a person whose name includes “XX” obtained from the voice analysis. When only one person whose name includes “OO” is searched, an object 1124 indicating detailed information of the searched person is displayed on the screen 1120. A display object 1122 indicating emotion is reduced and displayed at an upper position on the screen.

音声解析から得られた「○○」を名前に含む人が複数検索された場合において、検索件数が所定数以下であれば、画面1130において、検索された人物の概要情報を示すオブジェクト1134が表示される。感情を示す表示オブジェクト1132は、画面の上方の位置に縮小して表示される。   When a plurality of people whose names contain “XX” obtained from voice analysis are searched, if the number of searches is equal to or less than a predetermined number, an object 1134 indicating summary information of the searched people is displayed on the screen 1130. Is done. A display object 1132 indicating emotion is reduced and displayed at a position above the screen.

音声解析から得られた「○○」を名前に含む人が複数検索された場合において、検索件数が所定数を超えるときは、画面1140において、検索された人物を絞り込むための聞き返し内容を示すオブジェクト1144が、オブジェクト1114の下に表示される。聞き返し内容は、サーバ60において決定される。感情を示す表示オブジェクト1142は、画面の上方の位置に縮小して表示される。   In the case where a plurality of people whose names contain “XX” obtained from speech analysis are searched, if the number of searches exceeds a predetermined number, an object indicating the content of the response to narrow down the searched people on the screen 1140 1144 is displayed below the object 1114. The contents to be heard back are determined by the server 60. A display object 1142 indicating emotion is reduced and displayed at a position above the screen.

続いて、ユーザ50が「営業本部」という声を発すると、画面1150において、ユーザ端末40のマイクで取得された音声の解析から得られたオブジェクト1154が、オブジェクト1144の下に表示される。感情を示す表示オブジェクト1152は、画面の上方の位置に表示される。   Subsequently, when the user 50 speaks “sales headquarters”, on the screen 1150, the object 1154 obtained from the analysis of the voice acquired by the microphone of the user terminal 40 is displayed under the object 1144. A display object 1152 indicating emotion is displayed at a position above the screen.

処理部130は、音声解析から得られた「営業本部」を属性情報に含む人をアドレス帳データから検索する。「営業本部」を属性情報に含む人が一人のみ検索された場合、画面1120に遷移する。「営業本部」を属性情報に含む人が複数検索された場合において、検索件数が所定数以下であれば、画面1130に遷移する。なお、「営業本部」を属性情報に含む人が複数検索された場合において、検索件数が所定数を超える場合は、画面1140に関連して説明した処理と同様に、別の情報で人物を絞り込むための聞き返しが行われてよい。   The processing unit 130 searches the address book data for a person whose attribute information includes “sales headquarters” obtained from the voice analysis. When only one person including “sales headquarters” in the attribute information is searched, the screen transitions to a screen 1120. When a plurality of people whose attribute information includes “sales headquarters” are searched, if the number of searches is equal to or less than a predetermined number, the screen transitions to a screen 1130. When a plurality of people whose attribute information includes “sales headquarters” is searched, if the number of search items exceeds a predetermined number, the person is narrowed down by another information as in the process described in relation to the screen 1140. A rehearsal may be made.

以上に説明したように、表示システム10によれば、感情を適切な表示態様で提示することができる。   As described above, according to the display system 10, emotions can be presented in an appropriate display mode.

様々な実施形態が、処理手順又はブロック図等を参照して説明された。ブロック図において各ブロックは、(1)オペレーションが実行されるプロセスの段階または(2)オペレーションを実行する役割を持つ装置のセクションを表わしてよい。例えば、サーバ60において、処理部270、通信部202、格納部280のそれぞれは、サーバ60の1つのセクションを表してよい。処理部270において、感情処理部272及び会話処理部274は、処理部270の1つのセクションを表してよい。感情処理部272において、入力情報生成部210、分泌情報生成部200、調整部220、NN演算部230、判定部240及び感情特定部260は、感情処理部272の1つのセクションを表してよい。また、ユーザ端末40において、通信部102及び処理部130は、ユーザ端末40の1つのセクションを表してよい。   Various embodiments have been described with reference to procedures or block diagrams and the like. Each block in the block diagram may represent (1) a stage of the process in which the operation is performed or (2) a section of the device responsible for performing the operation. For example, in the server 60, each of the processing unit 270, the communication unit 202, and the storage unit 280 may represent one section of the server 60. In the processing unit 270, the emotion processing unit 272 and the conversation processing unit 274 may represent one section of the processing unit 270. In the emotion processing unit 272, the input information generation unit 210, the secretion information generation unit 200, the adjustment unit 220, the NN calculation unit 230, the determination unit 240, and the emotion identification unit 260 may represent one section of the emotion processing unit 272. In the user terminal 40, the communication unit 102 and the processing unit 130 may represent one section of the user terminal 40.

特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理オペレーション、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。   Certain stages and sections are implemented by dedicated circuitry, programmable circuitry supplied with computer readable instructions stored on a computer readable medium, and / or processor supplied with computer readable instructions stored on a computer readable medium. It's okay. Dedicated circuitry may include digital and / or analog hardware circuitry and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include memory elements such as logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. Reconfigurable hardware circuitry, including and the like.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、処理手順またはブロック図で指定されたオペレーションを実行するための手段をもたらすべく実行され得る命令を含む製品の少なくとも一部を構成する。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。   Computer-readable media may include any tangible device capable of storing instructions to be executed by a suitable device so that a computer-readable medium having instructions stored thereon is designated by a procedure or block diagram. Constitutes at least part of the product including instructions that may be executed to provide a means for performing the performed operations. Examples of computer readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (RTM) disc, memory stick, integrated A circuit card or the like may be included.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。   Computer readable instructions can be assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or object oriented programming such as Smalltalk, JAVA, C ++, etc. Including any source code or object code written in any combination of one or more programming languages, including languages and conventional procedural programming languages such as "C" programming language or similar programming languages Good.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、説明された処理手順またはブロック図で指定されたオペレーションを実行するための手段をもたらすべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。   Computer readable instructions may be directed to a general purpose computer, special purpose computer, or other programmable data processing device processor or programmable circuit locally or in a wide area network (WAN) such as a local area network (LAN), the Internet, etc. The computer-readable instructions may be executed to provide a means for performing the operations provided in and described in the procedure or specified in the block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図12は、複数の実施形態が全体的または部分的に具現化され得るコンピュータ2000の例を示す。コンピュータ2000にインストールされたプログラムは、コンピュータ2000に、実施形態に係るサーバ60または当該サーバ60の1または複数のセクションとして機能させる、当該サーバ60または当該サーバ60の1または複数のセクションに関連付けられるオペレーションを実行させる、および/または、実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2000に、本明細書に記載のサーバ60に係る処理手順およびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU2012によって実行されてよい。   FIG. 12 illustrates an example computer 2000 in which embodiments may be implemented in whole or in part. A program installed in the computer 2000 causes the computer 2000 to function as the server 60 according to the embodiment or one or more sections of the server 60, and operations associated with the server 60 or one or more sections of the server 60. And / or a process according to an embodiment or a stage of the process can be executed. Such a program is executed by the CPU 2012 to cause the computer 2000 to perform certain operations associated with some or all of the processing procedures and block diagram blocks for the server 60 described herein. It's okay.

本実施形態によるコンピュータ2000は、CPU2012、RAM2014、グラフィックコントローラ2016、および表示デバイス2018を含み、それらはホストコントローラ2010によって相互に接続されている。コンピュータ2000はまた、ROM2030を含む。ROM2030は、入力/出力コントローラ2020を介してホストコントローラ2010に接続されている。コンピュータ2000はまた、通信インタフェース2022、ハードディスクドライブ2024、DVD−ROMドライブ2026、およびメモリカードドライブ2028のような入出力ユニットを含み、それらは入力/出力コントローラ2020を介してホストコントローラ2010に接続されている。コンピュータ2000はまた、キーボード2042のようなレガシの入出力ユニットを含み、それらは入力/出力チップ2040を介して入力/出力コントローラ2020に接続されている。   A computer 2000 according to the present embodiment includes a CPU 2012, a RAM 2014, a graphic controller 2016, and a display device 2018, which are connected to each other by a host controller 2010. Computer 2000 also includes ROM 2030. The ROM 2030 is connected to the host controller 2010 via the input / output controller 2020. The computer 2000 also includes input / output units such as a communication interface 2022, a hard disk drive 2024, a DVD-ROM drive 2026, and a memory card drive 2028, which are connected to the host controller 2010 via the input / output controller 2020. Yes. The computer 2000 also includes legacy input / output units such as a keyboard 2042, which are connected to an input / output controller 2020 via an input / output chip 2040.

CPU2012は、ROM2030および/またはRAM2014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2016は、RAM2014内に提供されるフレームバッファ等またはRAM2014内にCPU2012によって生成されたイメージデータを取得し、イメージデータを表示デバイス2018上に表示せせる。   The CPU 2012 operates in accordance with a program stored in the ROM 2030 and / or the RAM 2014, thereby controlling each unit. The graphic controller 2016 acquires a frame buffer or the like provided in the RAM 2014 or image data generated by the CPU 2012 in the RAM 2014 and causes the display device 2018 to display the image data.

通信インタフェース2022は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2024は、コンピュータ2000内のCPU2012によって使用されるプログラムおよびデータを格納する。DVD−ROMドライブ2026は、プログラムおよび/またはデータをDVD‐ROM2001から読み取り、RAM2014を介してハードディスクドライブ2024にプログラムおよび/またはデータを提供する。メモリカードドライブ2028は、プログラムおよび/またはデータをメモリカード2003から読み取り、RAM2014を介してハードディスクドライブ2024にプログラムおよび/またはデータを提供する。メモリカードドライブ2028は、プログラムおよび/またはデータをメモリカード2003に書き込んでよい。   The communication interface 2022 communicates with other electronic devices via a network. The hard disk drive 2024 stores programs and data used by the CPU 2012 in the computer 2000. The DVD-ROM drive 2026 reads a program and / or data from the DVD-ROM 2001 and provides the program and / or data to the hard disk drive 2024 via the RAM 2014. The memory card drive 2028 reads programs and / or data from the memory card 2003, and provides the programs and / or data to the hard disk drive 2024 via the RAM 2014. The memory card drive 2028 may write a program and / or data to the memory card 2003.

ROM2030はその中に、アクティブ化時にコンピュータ2000によって実行されるブートプログラム等、および/またはコンピュータ2000のハードウェアに依存するプログラムを格納する。入力/出力チップ2040はまた、様々な入力/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入力/出力コントローラ2020に接続してよい。   The ROM 2030 stores therein a boot program executed by the computer 2000 at the time of activation and / or a program depending on the hardware of the computer 2000. The input / output chip 2040 may also connect various input / output units to the input / output controller 2020 via a parallel port, serial port, keyboard port, mouse port, and the like.

プログラムが、DVD−ROM2001またはメモリカード2003のようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2024、RAM2014、および/またはROM2030にインストールされ、CPU2012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2000に読み取られ、プログラムと、上記様々な種類のハードウェアリソースとの間の連携をもたらす。装置または方法は、コンピュータ2000の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。   The program is provided by a computer-readable medium such as a DVD-ROM 2001 or a memory card 2003. The program is read from a computer-readable medium, installed in the hard disk drive 2024, the RAM 2014, and / or the ROM 2030, which are also examples of the computer-readable medium, and executed by the CPU 2012. Information processing described in these programs is read by the computer 2000 to bring about cooperation between the programs and the various types of hardware resources. The apparatus or method may be configured by implementing information operations or processing in accordance with the use of computer 2000.

例えば、通信がコンピュータ2000および外部デバイス間で実行される場合、CPU2012は、RAM2014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2022に対し、通信処理を命令してよい。通信インタフェース2022は、CPU2012の制御下、RAM2014、ハードディスクドライブ2024、DVD‐ROM2001、またはメモリカード2003のような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを、記録媒体上に提供される受信バッファ処理領域等に書き込む。   For example, when communication is performed between the computer 2000 and an external device, the CPU 2012 executes a communication program loaded in the RAM 2014 and performs communication processing on the communication interface 2022 based on the processing described in the communication program. You may order. The communication interface 2022 reads and reads transmission data stored in a transmission buffer processing area provided in a recording medium such as the RAM 2014, the hard disk drive 2024, the DVD-ROM 2001, or the memory card 2003 under the control of the CPU 2012. The transmission data is transmitted to the network, or the reception data received from the network is written in a reception buffer processing area provided on the recording medium.

また、CPU2012は、ハードディスクドライブ2024、DVD‐ROM2001、メモリカード2003等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2014に読み取られるようにし、RAM2014上のデータに対し様々な種類の処理を実行してよい。CPU2012は次に、処理されたデータを外部記録媒体にライトバックする。   Further, the CPU 2012 reads all or a necessary part of a file or database stored in an external recording medium such as the hard disk drive 2024, the DVD-ROM 2001, the memory card 2003 or the like into the RAM 2014, Various types of processing may be performed. Next, the CPU 2012 writes back the processed data to the external recording medium.

様々な種類のプログラム、データ、テーブル、およびデータベースのような、様々な種類の情報が記録媒体に格納され、情報処理にかけられてよい。CPU2012は、RAM2014から読み取られたデータに対し、本明細書に記載され、プログラムの命令シーケンスによって指定される様々な種類のオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々な種類の処理を実行してよく、結果をRAM2014にライトバックする。また、CPU2012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2012は、第1の属性の属性値が指定されている、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。   Various types of information such as various types of programs, data, tables, and databases may be stored in the recording medium and subjected to information processing. The CPU 2012 performs various types of operations, information processing, condition determination, conditional branching, unconditional branching, information retrieval / information described in this specification and specified by the instruction sequence of the program for the data read from the RAM 2014. Various types of processing, including replacement, may be performed, and the result written back to the RAM 2014. Further, the CPU 2012 may search for information in files, databases, etc. in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 2012 specifies the attribute value of the first attribute. The entry matching the condition is searched from the plurality of entries, the attribute value of the second attribute stored in the entry is read, and the first attribute satisfying a predetermined condition is thereby read. The attribute value of the associated second attribute may be obtained.

上述したプログラムまたはソフトウェアモジュールは、コンピュータ2000上またはコンピュータ2000近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2000に提供してよい。   The programs or software modules described above may be stored on a computer readable medium on or near the computer 2000. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable medium, thereby providing the program to the computer 2000 via the network. You can do it.

なお、サーバ60と同様に、コンピュータをユーザ端末40として機能させることができる。例えば、サーバ60と同様に、コンピュータにインストールされたプログラムが、コンピュータに、実施形態に係るユーザ端末40またはユーザ端末40の1または複数のセクションとして機能させる、ユーザ端末40またはユーザ端末40の1または複数のセクションに関連付けられるオペレーションを実行させる、および/または、実施形態に係るユーザ端末40に関するプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータに、本明細書に記載のユーザ端末40に係る処理手順およびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPUによって実行されてよい。ユーザ端末40がパーソナルコンピュータ等により実現される場合、コンピュータ2000と同様の構成のコンピュータをユーザ端末40用のコンピュータとして適用できる。ユーザ端末40が携帯端末である実現される場合は、コンピュータ2000が備える構成のうち、ハードディスクドライブ2024、DVD−ROMドライブ2026を除き、キーボード2042に代えてタッチ入力デバイス等の入力デバイスを備えるコンピュータを、ユーザ端末40用のコンピュータとして適用できる。   Note that, similarly to the server 60, the computer can function as the user terminal 40. For example, similarly to the server 60, a program installed in a computer causes the computer to function as one or more sections of the user terminal 40 or the user terminal 40 according to the embodiment. Operations associated with multiple sections may be performed and / or processes or steps of the processes related to the user terminal 40 according to embodiments may be performed. Such a program is executed by the CPU to cause the computer to perform specific operations associated with some or all of the processing procedures and block diagram blocks for the user terminal 40 described herein. It's okay. When the user terminal 40 is realized by a personal computer or the like, a computer having the same configuration as the computer 2000 can be applied as the computer for the user terminal 40. When the user terminal 40 is realized as a portable terminal, a computer provided with an input device such as a touch input device in place of the keyboard 2042 except for the hard disk drive 2024 and the DVD-ROM drive 2026 in the configuration provided in the computer 2000. It can be applied as a computer for the user terminal 40.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 表示システム
20、21、22、23、24、25 表示オブジェクト
40 ユーザ端末
50 ユーザ
60 サーバ
90 ネットワーク
102 通信部
120 センサ部
130 処理部
140 表示部
200 分泌情報生成部
210 入力情報生成部
220 調整部
230 NN演算部
240 判定部
260 感情特定部
270 処理部
272 感情処理部
274 会話処理部
280 格納部
300 感情マップ
180 音声出力部
202 通信部
310、320、330、340 領域
710、720、720 点
712、713 線
750、751,752、753、754、755 オブジェクト
810 点
812、813 線
880 矢印
1100、1110、1120、1130、1140、1150 画面
1102、1112、1122,1132,1142、1152 表示オブジェクト
1114、1124、1134、1144、1154 オブジェクト
2000 コンピュータ
2001 DVD‐ROM
2003 メモリカード
2010 ホストコントローラ
2012 CPU
2014 RAM
2016 グラフィックコントローラ
2018 表示デバイス
2020 入力/出力コントローラ
2022 通信インタフェース
2024 ハードディスクドライブ
2026 DVD−ROMドライブ
2028 メモリカードドライブ
2030 ROM
2040 入力/出力チップ
2042 キーボード
DESCRIPTION OF SYMBOLS 10 Display system 20, 21, 22, 23, 24, 25 Display object 40 User terminal 50 User 60 Server 90 Network 102 Communication part 120 Sensor part 130 Processing part 140 Display part 200 Secretion information generation part 210 Input information generation part 220 Adjustment part 230 NN operation unit 240 determination unit 260 emotion identification unit 270 processing unit 272 emotion processing unit 274 conversation processing unit 280 storage unit 300 emotion map 180 voice output unit 202 communication unit 310, 320, 330, 340 region 710, 720, 720 point 712 , 713 Line 750, 751, 752, 753, 754, 755 Object 810 Point 812, 813 Line 880 Arrow 1100, 1110, 1120, 1130, 1140, 1150 Screen 1102, 1112, 1122, 1132, 1142, 114, 115 2 Display object 1114, 1124, 1134, 1144, 1154 Object 2000 Computer 2001 DVD-ROM
2003 Memory Card 2010 Host Controller 2012 CPU
2014 RAM
2016 Graphic controller 2018 Display device 2020 Input / output controller 2022 Communication interface 2024 Hard disk drive 2026 DVD-ROM drive 2028 Memory card drive 2030 ROM
2040 input / output chip 2042 keyboard

Claims (6)

対象オブジェクトの現在の主感情及び副感情を示す情報を取得する取得部と、
前記情報が示す前記感情の変化に応じて、球形状の第1の表示オブジェクトの形状変化させ、前記情報が示す前記主感情の変化に応じて、前記主感情として選択され得る複数の第2の感情に対応づけられた色を前記複数の第2の感情の強さに応じた重み付けで合成した色に、前記第1の表示オブジェクトの内側に位置する第2の表示オブジェクトの色を変化させる表示制御部と
を備える表示制御装置。
An acquisition unit for acquiring information indicating the current main emotion and sub-emotion of the target object;
According to the change of the secondary emotion indicated by the information, the shape of the spherical first display object is changed in accordance with a change of the main emotion said information indicates, the plurality may be selected as the main emotion first The color of the second display object located inside the first display object is changed to a color obtained by synthesizing the color associated with the second emotion with weighting according to the strength of the plurality of second emotions. A display control unit.
前記表示制御部はさらに、前記感情の変化に応じて、前記第2の表示オブジェクトの形状変化させる
請求項1に記載の表示制御装置。
The display control unit further in accordance with a change in the main emotion, the display control apparatus according to claim 1 for changing the shape of the second display object.
前記表示制御部はさらに前記副感情の変化に応じて、前記副感情として選択され得る複数の第1の感情に対応づけられた色を記複数の第1の感情の強さに応じた重み付けで合成した色、前記第1の表示オブジェクトの色変化させる
請求項1又は2に記載の表示制御装置。
The display control unit further wherein in response to a change in secondary emotions, corresponding to the intensity of the secondary emotions first emotion previous SL multiple colors associated with the plurality of first emotion may be selected as color synthesized by weighting, the display control device according to claim 1 or 2 changes the color of the first display object.
前記情報は、前記複数の第2の感情の強さを示す強さ情報を含み、
前記複数の第2の感情は感情マップによって互いに異なる位置にマッピングされ、前記感情マップが前記複数の第2の感情をマッピングする位置に色が対応づけられ、
前記表示制御部は、前記複数の第2の感情が前記感情マップによってマッピングされる位置に対応づけられた色を前記強さ情報が示す前記複数の第2の感情の強さに応じた重み付けで合成した色で、前記第の表示オブジェクトを表示させる
請求項1からのいずれか一項に記載の表示制御装置。
The information includes the strength information indicating the strength of the plurality of second emotion,
The plurality of second emotions are mapped to different positions by an emotion map, and a color is associated with a position where the emotion map maps the plurality of second emotions,
The display control unit is weighted according to the strength of the plurality of second emotions indicated by the strength information indicating a color associated with a position where the plurality of second emotions are mapped by the emotion map. The display control apparatus according to any one of claims 1 to 3 , wherein the second display object is displayed in a synthesized color.
前記情報は、前記感情の強さを示す強さ情報を含み、
前記表示制御部は、前記感情の強さに応じて、前記第1の表示オブジェクトの形状を変化させる
請求項1からのいずれか一項に記載の表示制御装置。
The information includes strength information indicating the strength of the secondary emotion,
The display controller, the according to the strength of the secondary emotions, the display control device according to any one of the first display 4 claims 1 to change the shape of the object.
前記第1の表示オブジェクトは、複数の点と、前記複数の点を結ぶ線で形成され、
前記表示制御部は、前記感情の強さが強いほど、前記複数の点のうちの少なくとも1つの点の位置を、予め定められた球面上の位置からシフトさせる
請求項に記載の表示制御装置。
The first display object is formed by a plurality of points and a line connecting the plurality of points,
The display control according to claim 5 , wherein the display control unit shifts the position of at least one of the plurality of points from a position on a predetermined spherical surface as the strength of the secondary emotion is stronger. apparatus.
JP2016224422A 2016-11-17 2016-11-17 Display control device Active JP6351692B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016224422A JP6351692B2 (en) 2016-11-17 2016-11-17 Display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016224422A JP6351692B2 (en) 2016-11-17 2016-11-17 Display control device

Publications (2)

Publication Number Publication Date
JP2018081583A JP2018081583A (en) 2018-05-24
JP6351692B2 true JP6351692B2 (en) 2018-07-04

Family

ID=62199016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016224422A Active JP6351692B2 (en) 2016-11-17 2016-11-17 Display control device

Country Status (1)

Country Link
JP (1) JP6351692B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022051982A (en) * 2019-02-15 2022-04-04 ソニーグループ株式会社 Information processor and information processing method
JP7297342B1 (en) 2022-09-26 2023-06-26 株式会社Creator’s NEXT Recommendation by analysis of brain information

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002210233A (en) * 2001-01-18 2002-07-30 Sony Computer Entertainment Inc Entertainment device, recording medium and program
JP4701564B2 (en) * 2001-08-31 2011-06-15 ソニー株式会社 Menu display device and menu display method
JP5714411B2 (en) * 2010-05-17 2015-05-07 株式会社光吉研究所 Behavior analysis method and behavior analysis device

Also Published As

Publication number Publication date
JP2018081583A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
US10832674B2 (en) Voice data processing method and electronic device supporting the same
WO2020135194A1 (en) Emotion engine technology-based voice interaction method, smart terminal, and storage medium
EP3396666B1 (en) Electronic device for providing speech recognition service and method thereof
KR20200046117A (en) Joint audio-video facial animation system
US20190116323A1 (en) Method and system for providing camera effect
US11458409B2 (en) Automatic classification and reporting of inappropriate language in online applications
US11721333B2 (en) Electronic apparatus and control method thereof
CN109091869A (en) Method of controlling operation, device, computer equipment and the storage medium of virtual objects
JP2019197203A (en) Method and device for personalizing speech recognition model
KR20220149619A (en) Shared Augmented Reality System
US11817097B2 (en) Electronic apparatus and assistant service providing method thereof
WO2018097889A1 (en) Camera operable using natural language commands
US20230128422A1 (en) Voice Command Integration into Augmented Reality Systems and Virtual Reality Systems
US20200005784A1 (en) Electronic device and operating method thereof for outputting response to user input, by using application
JP6351692B2 (en) Display control device
US20230290343A1 (en) Electronic device and control method therefor
Clement The Postfeminist Mystique: Feminism and Shakespearean Adaptation in 10 Things I Hate About You and She's the Man
JP2022020659A (en) Method and system for recognizing feeling during conversation, and utilizing recognized feeling
WO2024169267A1 (en) Electroencephalogram analysis model training method and apparatus, computer device, computer-readable storage medium and computer program product
US20200364068A1 (en) Emotionally driven software interaction experience
WO2022271331A1 (en) Machine-learning-model based name pronunciation
CN110992947B (en) Voice-based interaction method, device, medium and electronic equipment
JP2017204216A (en) Storage control system, system, and program
US20220051661A1 (en) Electronic device providing modified utterance text and operation method therefor
Sadeq et al. Mitigating hallucination in fictional character role-play

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180605

R150 Certificate of patent or registration of utility model

Ref document number: 6351692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250