JP6768597B2 - Dialogue system, control method of dialogue system, and device - Google Patents

Dialogue system, control method of dialogue system, and device Download PDF

Info

Publication number
JP6768597B2
JP6768597B2 JP2017113177A JP2017113177A JP6768597B2 JP 6768597 B2 JP6768597 B2 JP 6768597B2 JP 2017113177 A JP2017113177 A JP 2017113177A JP 2017113177 A JP2017113177 A JP 2017113177A JP 6768597 B2 JP6768597 B2 JP 6768597B2
Authority
JP
Japan
Prior art keywords
dialogue
arithmetic unit
user
feature amount
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017113177A
Other languages
Japanese (ja)
Other versions
JP2018205616A (en
Inventor
崇志 沼田
崇志 沼田
朝 康博
康博 朝
利昇 三好
利昇 三好
佐藤 大樹
大樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017113177A priority Critical patent/JP6768597B2/en
Priority to US15/903,640 priority patent/US10832119B2/en
Publication of JP2018205616A publication Critical patent/JP2018205616A/en
Application granted granted Critical
Publication of JP6768597B2 publication Critical patent/JP6768597B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Description

対話インタフェースを介したユーザとの対話を実現する対話システムに関する。 It relates to a dialogue system that realizes dialogue with a user through a dialogue interface.

近年、ロボット及びCG等を用いてヒトと持続的な対話を行う対話インタフェースの開発が進展している。 In recent years, the development of a dialogue interface for continuous dialogue with humans using robots and CG has been progressing.

対話インタフェースの開発では、ヒトの表情、音声、及び身体の動き等の対話に関するアクションを示す対話データから対話特徴量を算出し、対話特徴量を用いて対話インタフェースを制御する技術が提案されている。対話特徴量に基づく対話インタフェースの制御によって、ロボット又はCGの表情が変化し、また、音声が再生される。このような制御によってヒトの共感を誘起できる。前述の技術として、特許文献1及び特許文献2に記載の技術が知られている。 In the development of a dialogue interface, a technique has been proposed in which a dialogue feature is calculated from dialogue data indicating actions related to dialogue such as human facial expression, voice, and body movement, and the dialogue interface is controlled using the dialogue feature. .. By controlling the dialogue interface based on the dialogue features, the facial expression of the robot or CG is changed, and the voice is reproduced. Such control can induce human empathy. As the above-mentioned techniques, the techniques described in Patent Document 1 and Patent Document 2 are known.

特許文献1には、「インタラクション状態量算出部は、ユーザPの発話における話者交替潜時、発話区間のピッチ、パワーまたはモーラを含むインタラクション状態量を検出する。コミュニケーション同調制御部は、ユーザPとロボットシステムとのコミュニケーション同調ずれ量を算出し、同調モデルを表す状態方程式による連続的な引き込み制御によりコミュニケーション同調ずれ量を最小化すると同時に、インタラクションルールによる離散的な引き込み制御により、ユーザPのインタラクション状態量をロボットシステム10のそれに近づけていく、または、ロボットシステム10のインタラクション状態量をユーザPのインタラクション状態量に近づけつつユーザPのインタラクション状態量をロボットシステム10のそれに近づけていく。」ことが記載されている。 According to Patent Document 1, "the interaction state quantity calculation unit detects the interaction state quantity including the speaker change latency, the pitch, power, or the mora of the speech section in the speech of the user P. The amount of communication synchronization deviation between the user and the robot system is calculated, and the amount of communication synchronization deviation is minimized by continuous pull-in control by the state equation representing the synchronization model. The state quantity is brought closer to that of the robot system 10, or the interaction state quantity of the robot system 10 is brought closer to that of the user P while the interaction state quantity of the user P is brought closer to that of the robot system 10. " Are listed.

特許文献2には、「ユーザ発話を入力する工程と、入力された前記ユーザ発話の韻律的特徴を抽出する工程と、抽出された前記韻律的特徴に基づき前記ユーザ発話に応答する相槌を生成する工程と、を備え、前記相槌を生成する際、前記相槌の韻律的特徴が前記ユーザ発話の韻律的特徴と合うように前記相槌の韻律を調整する」音声対話方法が記載されている。 In Patent Document 2, "a step of inputting a user utterance, a step of extracting the input prosodic characteristics of the user utterance, and generating a prosody that responds to the user utterance based on the extracted prosodic characteristics. A voice dialogue method is described which comprises a step and, upon generating the apocalypse, adjusting the prosodic characteristics of the abutment so that the prosodic characteristics of the abutment match the prosodic characteristics of the user utterance.

特開2012−181697号公報Japanese Unexamined Patent Publication No. 2012-181697 特開2016−38501号公報Japanese Unexamined Patent Publication No. 2016-38501

特許文献1及び特許文献2に記載の技術を組み合わせることによって、ヒトのアクションを模倣する対話インタフェースの制御が可能となる。このとき、人のアクションを模倣した対話インタフェースの制御タイミングを任意に設定できる。例えば、ヒトの相槌に対して、ロボット又はCGが相槌を行う制御タイミングを任意に設定できる。 By combining the techniques described in Patent Document 1 and Patent Document 2, it is possible to control an interactive interface that mimics human action. At this time, the control timing of the dialogue interface that imitates the human action can be arbitrarily set. For example, the control timing at which the robot or CG performs the aizuchi can be arbitrarily set for the human aizuchi.

ヒトの共感を誘起するためには、模倣するアクションに応じて制御タイミングを設定する必要がある。しかし、特許文献1及び特許文献2のいずれも前述の課題を想定されていない。そのため、特許文献1及び特許文献2を組み合わせた発明は、相槌の制御タイミングを任意に設定できるだけであり、対話インタフェースのアクションに多様性がない。したがって、ヒトの共感を誘起する効果が低い。 In order to induce human empathy, it is necessary to set the control timing according to the action to be imitated. However, neither Patent Document 1 nor Patent Document 2 is supposed to have the above-mentioned problems. Therefore, in the invention in which Patent Document 1 and Patent Document 2 are combined, the control timing of the aizuchi can be set arbitrarily, and the action of the dialogue interface is not diverse. Therefore, the effect of inducing human empathy is low.

本発明では、ヒトの共感を強く誘起することができる対話インタフェースを実現する技術を提供することを目的とする。 An object of the present invention is to provide a technique for realizing a dialogue interface capable of strongly inducing human empathy.

本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、ユーザとの対話を行う対話インタフェースを提供する対話システムであって、前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、前記記憶装置は、前記対話インタフェースが前記ユーザに対して行う応答アクションの種別と、前記応答アクションの制御のタイミングを調整する制御時間の設定可能な範囲を示す設定範囲と、から構成されるエントリを含む制御時間定義情報を保持し、前記演算装置は、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、前記制御時間定義情報を参照し、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出し、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする。 A typical example of the invention disclosed in the present application is as follows. That is, a dialogue system that provides a dialogue interface for interacting with a user, wherein the dialogue system includes a computing device, a storage device connected to the computing device, and a computer having an interface connected to the computing device. The storage device includes a measuring device for measuring a signal related to the user's speech, and the storage device adjusts the type of response action performed by the dialogue interface to the user and the control timing of the response action. A setting range indicating a settable range of the control time and a control time definition information including an entry composed of the control time are held, and the calculation device is a user in the speech of the user based on a signal measured by the measurement device. calculating a first feature quantity indicating the feature of the action, the first based on the feature amount, calculates a second characteristic quantity which is a control value of the response actions, by referring to the control time definition information, said response action It is characterized in that a random control time is calculated based on the set range corresponding to the type of the above, and the dialogue interface is controlled based on the second feature amount and the control time.

本発明によれば、遅延時間に基づいて応答アクションを実行する対話インタフェースを制御することによって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, by controlling the dialogue interface that executes the response action based on the delay time, it is possible to induce the user's empathy and realize a continuous dialogue and a multi-information dialogue. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

実施例1のシステムの構成例を示す図である。It is a figure which shows the configuration example of the system of Example 1. FIG. 実施例1のシステムを用いて対話を行う場合の動作の流れの一例を説明する図である。It is a figure explaining an example of the operation flow at the time of having a dialogue using the system of Example 1. 実施例1の計算機の構成例を説明する図である。It is a figure explaining the configuration example of the computer of Example 1. FIG. 実施例1の対話信号情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the dialogue signal information of Example 1. 実施例1の模倣情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the imitation information of Example 1. 実施例1の遅延時間定義情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the delay time definition information of Example 1. FIG. 実施例1の言語信号情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the language signal information of Example 1. 実施例1の発話情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the utterance information of Example 1. FIG. 実施例1の出力情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the output information of Example 1. FIG. 実施例1の出力条件情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the output condition information of Example 1. FIG. 実施例1の出力履歴情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the output history information of Example 1. FIG. 実施例1の模倣情報算出モジュールが実行する処理を説明するフローチャートである。It is a flowchart explaining the process executed by the imitation information calculation module of Example 1. 実施例1の言語情報算出モジュールが実行する処理を説明するフローチャートである。It is a flowchart explaining the process executed by the language information calculation module of Example 1. 実施例1の出力情報生成モジュールが実行する処理を説明するフローチャートである。It is a flowchart explaining the process executed by the output information generation module of Example 1. 実施例2の遅延時間定義情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the delay time definition information of Example 2. 実施例2の学習モジュールが実行する処理を説明するフローチャートである。It is a flowchart explaining the process which the learning module of Example 2 executes. 実施例2の学習モジュールが実行する遅延時間の学習処理の流れを示す図である。It is a figure which shows the flow of the learning process of the delay time executed by the learning module of Example 2. 実施例3のシステムの構成例を示す図である。It is a figure which shows the configuration example of the system of Example 3. 実施例3の計算機が保持する生体信号情報の構造の一例を示す図である。It is a figure which shows an example of the structure of the biological signal information held by the computer of Example 3. 実施例3の出力情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the output information of Example 3. 実施例3の模倣情報算出モジュールが実行する処理を説明するフローチャートである。It is a flowchart explaining the process which the imitation information calculation module of Example 3 executes. 実施例3の模倣情報算出モジュールが実行する処理を説明するフローチャートである。It is a flowchart explaining the process which the imitation information calculation module of Example 3 executes. 実施例5の計算機に対する設定を行うためのGUIの一例を示す図である。It is a figure which shows an example of GUI for making the setting for the computer of Example 5. 実施例5の計算機に対する設定を行うためのGUIの一例を示す図である。It is a figure which shows an example of GUI for making the setting for the computer of Example 5.

以下、実施例を図面を用いて説明する。なお、以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。 Hereinafter, examples will be described with reference to the drawings. In the configurations of the inventions described below, the same or similar configurations or functions are designated by the same reference numerals, and duplicate description will be omitted.

本実施例では、ユーザとの対話を実現する対話インタフェースを提供する計算機が、対話信号を用いて、実行する応答アクションの制御特徴量を算出し、さらに、応答アクションの種別に応じて、応答アクションに対応する対話インタフェースの制御のタイミングを調整する制御時間(遅延時間)を設定する。また、計算機は、計測した言語信号に基づいてユーザの発話内容を特定し、当該発話内容に対して出力する発話内容を選択する。計算機は、制御特徴量、制御時間、及び発話内容に基づいて、出力情報を生成する。ここで、本明細書における用語について説明する。 In this embodiment, a computer that provides a dialogue interface that realizes a dialogue with a user calculates a control feature amount of a response action to be executed by using a dialogue signal, and further, a response action is performed according to the type of the response action. Set the control time (delay time) to adjust the control timing of the interactive interface corresponding to. In addition, the computer identifies the utterance content of the user based on the measured language signal, and selects the utterance content to be output for the utterance content. The computer generates output information based on the control feature amount, the control time, and the utterance content. Here, the terms in the present specification will be described.

対話信号は、対話においてユーザから取得される信号、特に、視線、顔の向き、身体の動き等のユーザのアクションに関する情報を含む信号である。対話信号は、対話データを算出するために用いられる。例えば、ユーザの画像及びユーザの身体の一部の加速度等が対話信号として取得される。 The dialogue signal is a signal acquired from the user in the dialogue, particularly a signal including information on the user's action such as a line of sight, a face orientation, and a body movement. The dialogue signal is used to calculate the dialogue data. For example, an image of the user, acceleration of a part of the user's body, and the like are acquired as dialogue signals.

対話データは、対話信号を用いて生成され、また、対話特徴量を算出するためのデータである。 The dialogue data is generated by using the dialogue signal, and is data for calculating the dialogue feature amount.

対話特徴量は、ユーザのアクションを特徴づける値である。例えば、ユーザの視線の向き、顔の向き、身体の移動方向、及び身体の移動距離等が対話特徴量として算出される。 The dialogue feature quantity is a value that characterizes the user's action. For example, the direction of the user's line of sight, the direction of the face, the moving direction of the body, the moving distance of the body, and the like are calculated as the dialogue features.

言語信号は、ユーザから発せられた言語、すなわち、ユーザの発話を評価するための信号である。例えば、ユーザの音声等が言語信号として取得される。 The language signal is a language emitted from the user, that is, a signal for evaluating the user's utterance. For example, the user's voice or the like is acquired as a language signal.

応答アクションは、対話インタフェースを構成する表示装置に表示される人物画像の動き、及び対話インタフェースを構成するロボットの動き等を表す。 The response action represents the movement of a person image displayed on the display device constituting the dialogue interface, the movement of the robot constituting the dialogue interface, and the like.

制御特徴量は、応答アクションを実現するための対話インタフェースの制御値を表す。 The control feature represents the control value of the dialogue interface for realizing the response action.

本実施例では、ユーザの共感を誘起する模倣を行う対話インタフェースを一例として説明する。当該インタフェースを実現するシステムでは以下のような処理が実行される。 In this embodiment, a dialogue interface that imitates to induce empathy of the user will be described as an example. The following processing is executed in the system that realizes the interface.

計算機は、ユーザの画像を含む対話信号からユーザの眼球画像、顔画像、及び身体画像の三種類の対話データを算出し、ユーザの視線、顔の向き、及び身体の動きに関する対話特徴量を算出する。計算機は、対話特徴量に基づいてユーザの視線、顔の向き、及び身体の動きを模倣する応答アクションの制御特徴量を算出する。計算機は、三つの種類の応答アクションのそれぞれに制御時間を設定する。また、計算機は、取得した言語信号に基づいて、ユーザに対して出力する発話内容を選択する。 The computer calculates three types of dialogue data, the user's eyeball image, face image, and body image, from the dialogue signal including the user's image, and calculates the dialogue features related to the user's line of sight, face orientation, and body movement. To do. The computer calculates the control features of the response action that mimics the user's line of sight, face orientation, and body movements based on the dialogue features. The computer sets a control time for each of the three types of response actions. In addition, the computer selects the utterance content to be output to the user based on the acquired language signal.

計算機は、制御特徴量、制御時間、及び発話内容に基づいて出力情報を生成し、出力情報に基づいて対話インタフェースを制御することによって、応答アクションの実行及び発話内容の出力を行う。 The computer generates output information based on the control feature amount, the control time, and the utterance content, and controls the dialogue interface based on the output information to execute the response action and output the utterance content.

なお、対話データは、眼球画像、顔画像、及び身体画像に限定されない。対話データは、手等の身体の一部又は周囲の環境等の画像、ヒトの音声、及び近赤外光で計測した瞳孔径等、対話時の様々な信号を含んでもよい。なお、対話特徴量は、ユーザの視線、顔の向き、及び身体の動きに限定されない。対話特徴量は、顔画像から抽出する表情変化及び音声から抽出する声のピッチ等、対話信号及び言語信号から抽出可能な様々な特徴量を含んでもよい。なお、出力情報は、制御特徴量のみから生成されてもよいし、また、発話内容のみから生成されてもよい。 The dialogue data is not limited to the eyeball image, the face image, and the body image. The dialogue data may include various signals during dialogue such as an image of a part of the body such as a hand or the surrounding environment, human voice, and a pupil diameter measured by near-infrared light. The dialogue features are not limited to the user's line of sight, face orientation, and body movement. The dialogue feature amount may include various feature amounts that can be extracted from the dialogue signal and the language signal, such as the facial expression change extracted from the face image and the voice pitch extracted from the voice. The output information may be generated only from the control feature amount, or may be generated only from the utterance content.

本実施例では、ユーザの動き及びユーザの発話をユーザアクションと記載する。また、応答アクション及び発話内容の出力(音声の再生)を出力アクションと記載する。また、ユーザの動きを模倣する応答アクションを模倣アクションと記載し、模倣アクションの制御特徴量を模倣特徴量と記載する。 In this embodiment, the user's movement and the user's utterance are described as user actions. Further, the response action and the output of the utterance content (reproduction of voice) are described as the output action. Further, the response action that imitates the movement of the user is described as the imitation action, and the control feature amount of the imitation action is described as the imitation feature amount.

図1は、実施例1のシステムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of the system of the first embodiment.

システムは、計算機100、対話信号計測装置110、言語信号計測装置120、表示装置130、及び対話出力装置140から構成される。また、計算機100には、マウス、キーボード、及びタッチパネル等の入力装置150が接続される。 The system includes a computer 100, an interactive signal measuring device 110, a language signal measuring device 120, a display device 130, and an interactive output device 140. Further, an input device 150 such as a mouse, a keyboard, and a touch panel is connected to the computer 100.

計算機100は、対話信号及び言語信号を用いて出力情報316(図3参照)を生成し、出力情報316に基づいて、表示装置130及び対話出力装置140からユーザに対して情報等を出力する。本実施例では、表示装置130及び対話出力装置140が対話インタフェースとして機能する。本実施例の表示装置130には、ユーザの動きを模倣する模倣アクションを行う人物画像が表示される。 The computer 100 generates output information 316 (see FIG. 3) using the dialogue signal and the language signal, and outputs information and the like from the display device 130 and the dialogue output device 140 to the user based on the output information 316. In this embodiment, the display device 130 and the dialogue output device 140 function as a dialogue interface. On the display device 130 of this embodiment, a person image that performs an imitation action that imitates the movement of the user is displayed.

対話信号計測装置110は、ユーザから対話信号を取得する。本実施例の対話信号計測装置110は、画像を対話信号として取得する。なお、ユーザの頭部に装着する角度センサ及び加速度センサを対話信号計測装置110として用いてもよい。当該センサが計測した値は、顔の向き及び身体の動きを算出するために用いることができる。 The dialogue signal measuring device 110 acquires a dialogue signal from the user. The dialogue signal measuring device 110 of this embodiment acquires an image as a dialogue signal. An angle sensor and an acceleration sensor worn on the user's head may be used as the dialogue signal measuring device 110. The values measured by the sensor can be used to calculate the orientation of the face and the movement of the body.

言語信号計測装置120は、ユーザから言語信号を取得する。本実施例の言語信号計測装置120は、音声を言語信号として取得する。 The language signal measuring device 120 acquires a language signal from the user. The language signal measuring device 120 of this embodiment acquires voice as a language signal.

入力装置150は、外部信号を入力するための装置である。ここで、外部信号は、計算機100の動作を制御するため信号を表す。本明細書では、特に、対話信号及び言語信号を除いた信号を外部信号として扱う。 The input device 150 is a device for inputting an external signal. Here, the external signal represents a signal for controlling the operation of the computer 100. In this specification, in particular, signals excluding dialogue signals and language signals are treated as external signals.

ここで、計算機100のソフトウェア構成の概要について説明する。計算機100は、模倣情報算出モジュール101、言語情報算出モジュール102、出力情報生成モジュール103、及び学習モジュール104を含み、また、情報群105を保持する。 Here, an outline of the software configuration of the computer 100 will be described. The computer 100 includes an imitation information calculation module 101, a language information calculation module 102, an output information generation module 103, and a learning module 104, and also holds an information group 105.

模倣情報算出モジュール101は、対話信号から対話データを算出し、対話データに基づいて対話特徴量を算出する。模倣情報算出モジュール101は、対話特徴量に基づいて模倣特徴量を算出する。対話特徴量に基づいて模倣特徴量を算出するアルゴリズムは予め設定されているものとする。 The imitation information calculation module 101 calculates dialogue data from the dialogue signal, and calculates the dialogue feature amount based on the dialogue data. The imitation information calculation module 101 calculates the imitation feature amount based on the dialogue feature amount. It is assumed that the algorithm for calculating the imitation feature based on the dialogue feature is set in advance.

なお、本発明は模倣特徴量を算出するアルゴリズムに限定されない。一種類の対話特徴量に基づいて一種類の模倣特徴量を算出するアルゴリズムでもよいし、複数種類の対話特徴量に基づいて一種類の模倣特徴量を算出するアルゴリズムでもよいし、また、一種類の対話特徴量に基づいて複数種類の模倣特徴量を算出するアルゴリズムでもよい。 The present invention is not limited to an algorithm for calculating imitation features. An algorithm that calculates one type of imitation feature based on one type of dialogue feature, an algorithm that calculates one type of imitation feature based on a plurality of types of dialogue feature, or one type An algorithm may be used to calculate a plurality of types of imitation features based on the dialogue features of.

前述のアルゴリズムでは、入力された対話特徴量がベクトル量である場合、ベクトルの向きを逆方向に変換する演算、人物画像のサイズ、形状、位置等に基づいて成分値を補正する演算等が実行される。ユーザの視線が任意の座標に存在する物に向いている場合、人物画像の眼球の向きを当該座標に合わせるような眼球の移動及び動向の変化を再現するための模倣特徴量が算出される。 In the above algorithm, when the input dialogue feature amount is a vector amount, an operation of converting the direction of the vector in the opposite direction, an operation of correcting the component value based on the size, shape, position, etc. of the person image are executed. Will be done. When the user's line of sight is directed to an object existing at an arbitrary coordinate, the imitation feature amount for reproducing the movement of the eyeball and the change in the movement such that the direction of the eyeball of the person image is adjusted to the coordinate is calculated.

言語情報算出モジュール102は、言語信号を分析することによってユーザの発話内容を評価する。言語情報算出モジュール102は、ユーザの発話内容に基づいて対話インタフェースから出力する発話内容を選択する。対話インタフェースから出力する発話内容を選択するアルゴリズムは予め設定されているものとする。 The language information calculation module 102 evaluates the utterance content of the user by analyzing the language signal. The language information calculation module 102 selects the utterance content to be output from the dialogue interface based on the utterance content of the user. It is assumed that the algorithm for selecting the utterance content to be output from the dialogue interface is set in advance.

なお、本発明は対話インタフェースから出力する発話内容を選択するアルゴリズムに限定されない。 The present invention is not limited to the algorithm for selecting the utterance content output from the dialogue interface.

出力情報生成モジュール103は、模倣特徴量及び発話内容に基づいて出力情報316を生成し、出力情報316に基づいて対話インタフェースを制御する。 The output information generation module 103 generates output information 316 based on the imitation feature amount and the utterance content, and controls the dialogue interface based on the output information 316.

学習モジュール104は、出力情報316(図3参照)の履歴を学習する。学習モジュール104が実行する処理については実施例2で説明する。 The learning module 104 learns the history of the output information 316 (see FIG. 3). The process executed by the learning module 104 will be described in the second embodiment.

なお、図1では、一つの計算機100が各モジュールを有しているが、複数の計算機に各モジュールを配置してもよい。また、図1では、対話信号計測装置110等の計測装置と計算機100とを別々の装置として記載しているが、計算機100が計測装置を含んでもよい。 In addition, although one computer 100 has each module in FIG. 1, each module may be arranged in a plurality of computers. Further, in FIG. 1, a measuring device such as the interactive signal measuring device 110 and the computer 100 are described as separate devices, but the computer 100 may include the measuring device.

なお、計算機100が有する各モジュールは、二つ以上のモジュールを一つのモジュールにまとめてもよいし、一つのモジュールを機能毎に複数のモジュールに分けてもよい。 For each module included in the computer 100, two or more modules may be combined into one module, or one module may be divided into a plurality of modules for each function.

図2は、実施例1のシステムを用いて対話を行う場合の動作の流れの一例を説明する図である。 FIG. 2 is a diagram illustrating an example of an operation flow when a dialogue is performed using the system of the first embodiment.

計算機100は、対話信号又は言語信号を計測することによってユーザアクションを検出した場合、模倣アクションの模倣特徴量を算出し、各模倣アクションの制御時間として遅延時間を設定する。遅延時間を伴った模倣アクションを対話インタフェースが実行することによって、ユーザの共感を共起し、また、ユーザの発話内容に対応した対話が可能となる。 When a user action is detected by measuring an interactive signal or a language signal, the computer 100 calculates the imitation feature amount of the imitation action and sets a delay time as a control time of each imitation action. By executing the imitation action with a delay time by the dialogue interface, it is possible to sympathize with the user and to have a dialogue corresponding to the content of the user's utterance.

入力201では、計算機100が対話信号計測装置110及び言語信号計測装置120から対話信号及び言語信号を取得する。計算機100は、対話信号に基づいて対話データを算出し、対話データに基づいて対話特徴量を算出する。計算機100は、言語信号に基づいて発話内容を評価する。計算機100は、対話特徴量及びユーザの発話内容に基づいて、演算202から演算205を並列で実行する。 At input 201, the computer 100 acquires the dialogue signal and the language signal from the dialogue signal measuring device 110 and the language signal measuring device 120. The computer 100 calculates the dialogue data based on the dialogue signal, and calculates the dialogue feature amount based on the dialogue data. The computer 100 evaluates the utterance content based on the language signal. The computer 100 executes operations 202 to 205 in parallel based on the dialogue feature amount and the utterance content of the user.

演算202では、計算機100は、ユーザの視線に関する対話特徴量に基づいて、ユーザの視線の動きを模倣した人物画像の眼球の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の眼球の動きに対応する遅延時間を設定する。 In the calculation 202, the computer 100 calculates the imitation feature amount for performing the movement of the eyeball of the person image that imitates the movement of the user's line of sight, based on the dialogue feature amount related to the user's line of sight. Further, the computer 100 sets a delay time corresponding to the movement of the eyeball of the person image.

演算203では、計算機100は、ユーザの顔の動きに関する対話特徴量に基づいて、ユーザの顔の動きを模倣した人物画像の顔の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の顔の動きに対応する遅延時間を設定する。 In the calculation 203, the computer 100 calculates the imitation feature amount for performing the face movement of the person image that imitates the face movement of the user based on the dialogue feature amount regarding the movement of the user's face. Further, the computer 100 sets a delay time corresponding to the movement of the face of the person image.

演算204では、計算機100は、ユーザの身体の動きに関する対話特徴量に基づいて、ユーザの身体の動きを模倣した人物画像の身体の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の身体の動きに対応する遅延時間を設定する。 In the calculation 204, the computer 100 calculates the imitation feature amount for performing the body movement of the person image that imitates the body movement of the user based on the dialogue feature amount regarding the movement of the user's body. In addition, the computer 100 sets a delay time corresponding to the movement of the body of the person image.

演算205では、計算機100は、ユーザの発話内容に合わせた発話内容を選択する。本実施例では、発話内容の出力には特に遅延時間を設定していないが、発話内容の出力についても遅延時間を設定することができる。 In the calculation 205, the computer 100 selects the utterance content according to the utterance content of the user. In this embodiment, the delay time is not set in particular for the output of the utterance content, but the delay time can also be set for the output of the utterance content.

出力206では、計算機は、遅延時間を伴って模倣アクションを対話インタフェースに実行させ、また、発話内容を対話インタフェースに出力される。 At output 206, the computer causes the dialogue interface to execute the imitation action with a delay time, and outputs the utterance content to the dialogue interface.

図3は、実施例1の計算機100の構成例を説明する図である。 FIG. 3 is a diagram illustrating a configuration example of the computer 100 of the first embodiment.

図3に示したように、計算機100は、演算装置301、記憶装置302、入力インタフェース303、及び出力インタフェース304を有する。 As shown in FIG. 3, the computer 100 has an arithmetic unit 301, a storage device 302, an input interface 303, and an output interface 304.

演算装置301は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のハードウェアであり、記憶装置302に格納されるプログラムを実行する。演算装置301は、プログラムにしたがって動作することによって、所定のモジュールとして機能する。本実施例では、演算装置301は、模倣情報算出モジュール101、言語情報算出モジュール102、及び出力情報生成モジュール103として機能する。 The arithmetic unit 301 is hardware such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and executes a program stored in the storage device 302. The arithmetic unit 301 functions as a predetermined module by operating according to the program. In this embodiment, the arithmetic unit 301 functions as the imitation information calculation module 101, the language information calculation module 102, and the output information generation module 103.

記憶装置302は、メモリ等のハードウェアであり、演算装置301が実行するプログラム及び当該プログラムが使用する情報を格納する。また、記憶装置302はワークエリアを含む。記憶装置302に格納されるプログラム及び情報については後述する。なお、計算機100は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。 The storage device 302 is hardware such as a memory, and stores a program executed by the arithmetic unit 301 and information used by the program. The storage device 302 also includes a work area. The programs and information stored in the storage device 302 will be described later. The computer 100 may have a storage device such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive).

入力インタフェース303は、対話信号、言語信号、及び外部信号の入力を受け付けるハードウェアである。USB(Universal Serial Bus)規格の接続線を介して信号を入力する装置と接続される場合、USB端子を有するインタフェースが入力インタフェース303になり、ネットワークを介して信号を入力する装置と接続される場合、ポートを有するインタフェースが入力インタフェース303となる。 The input interface 303 is hardware that accepts inputs of dialogue signals, language signals, and external signals. When connected to a device that inputs a signal via a USB (Universal Social Bus) standard connection line, the interface having a USB terminal becomes the input interface 303, and is connected to a device that inputs a signal via a network. The interface having the port is the input interface 303.

出力インタフェース304は、各種情報を出力するハードウェアである。情報を出力する装置がディスプレイの場合、VGA端子又はHDMI端子(HDMIは登録商標)等の端子を有するインタフェースが出力インタフェース304となり、情報を出力する装置がスピーカの場合、USB端子を有するインタフェースが出力インタフェース304となる。 The output interface 304 is hardware that outputs various information. If the device that outputs information is a display, the interface that has a terminal such as a VGA terminal or HDMI terminal (HDMI is a registered trademark) is the output interface 304, and if the device that outputs information is a speaker, the interface that has a USB terminal outputs. It becomes the interface 304.

ここで、記憶装置302に格納されるプログラム及び情報について説明する。 Here, the program and information stored in the storage device 302 will be described.

記憶装置302は、模倣情報算出モジュール101、言語情報算出モジュール102、出力情報生成モジュール103、及び学習モジュール104を実現するプログラムを格納する。また、記憶装置302は、対話信号情報311、模倣情報312、遅延時間定義情報313、言語信号情報314、発話情報315、出力情報316、出力条件情報317、及び出力履歴情報318を格納する。 The storage device 302 stores a program that realizes the imitation information calculation module 101, the language information calculation module 102, the output information generation module 103, and the learning module 104. Further, the storage device 302 stores dialogue signal information 311, imitation information 312, delay time definition information 313, language signal information 314, utterance information 315, output information 316, output condition information 317, and output history information 318.

対話信号情報311は、対話信号を管理する情報である。対話信号情報311のデータ構造の一例は図4を用いて説明する。模倣情報312は、模倣アクションの模倣特徴量を管理する情報である。模倣情報312のデータ構造の一例は図5を用いて説明する。遅延時間定義情報313は、模倣アクションに対応する遅延時間を定義する情報である。遅延時間定義情報313のデータ構造の一例は図6を用いて説明する。 The dialogue signal information 311 is information for managing the dialogue signal. An example of the data structure of the dialogue signal information 311 will be described with reference to FIG. The imitation information 312 is information for managing the imitation feature amount of the imitation action. An example of the data structure of the counterfeit information 312 will be described with reference to FIG. The delay time definition information 313 is information that defines the delay time corresponding to the imitation action. An example of the data structure of the delay time definition information 313 will be described with reference to FIG.

言語信号情報314は、言語信号を管理する情報である。言語信号情報314のデータ構造の一例は図7を用いて説明する。発話情報315は、ユーザの発話内容及び選択された発話内容を管理する情報である。発話情報315のデータ構造の一例は図8を用いて説明する。 The language signal information 314 is information for managing the language signal. An example of the data structure of the language signal information 314 will be described with reference to FIG. The utterance information 315 is information for managing the utterance content of the user and the selected utterance content. An example of the data structure of the utterance information 315 will be described with reference to FIG.

出力情報316は、模倣アクションを行い、また、発話内容を出力する対話インタフェースを制御するための情報である。出力情報316のデータ構造の一例は図9を用いて説明する。 The output information 316 is information for performing an imitation action and controlling an interactive interface that outputs the utterance content. An example of the data structure of the output information 316 will be described with reference to FIG.

出力条件情報317は、応答アクションを実行する条件を管理する情報である。出力条件情報317のデータ構造の一例は図10を用いて説明する。なお、出力条件情報317を用いた処理については、実施例4で説明する。 The output condition information 317 is information for managing the condition for executing the response action. An example of the data structure of the output condition information 317 will be described with reference to FIG. The process using the output condition information 317 will be described in the fourth embodiment.

出力履歴情報318は、出力情報316の履歴を管理する情報である。出力履歴情報318のデータ構造の一例は図11を用いて説明する。 The output history information 318 is information for managing the history of the output information 316. An example of the data structure of the output history information 318 will be described with reference to FIG.

模倣情報算出モジュール101は、対話信号から各模倣アクションの模倣特徴量を算出し、各模倣アクションに対応する遅延時間を設定することによって、模倣情報312を生成する。 The imitation information calculation module 101 generates imitation information 312 by calculating the imitation feature amount of each imitation action from the dialogue signal and setting the delay time corresponding to each imitation action.

言語情報算出モジュール102は、言語信号からユーザの発話内容を特定し、ユーザの発話内容に対する発話内容を選択することによって、発話情報315を生成する。 The language information calculation module 102 generates utterance information 315 by specifying the utterance content of the user from the language signal and selecting the utterance content for the utterance content of the user.

出力情報生成モジュール103は、模倣情報312及び発話情報315を用いて出力情報316を生成する。 The output information generation module 103 generates output information 316 using imitation information 312 and utterance information 315.

図4は、実施例1の対話信号情報311のデータ構造の一例を示す図である。 FIG. 4 is a diagram showing an example of the data structure of the dialogue signal information 311 of the first embodiment.

対話信号情報311は、ID401、信号名402、取得時間403、及びポインタ404から構成されるエントリを含む。一つのエントリが一つの対話信号に対応する。 The dialogue signal information 311 includes an entry composed of an ID 401, a signal name 402, an acquisition time 403, and a pointer 404. One entry corresponds to one dialogue signal.

ID401は、対話信号情報311のエントリを一意に識別するための識別情報を格納するフィールドである。 The ID 401 is a field for storing identification information for uniquely identifying the entry of the dialogue signal information 311.

信号名402は、対話信号の種別等を識別するための情報を格納するフィールドである。本実施例では、対話信号を計測した対話信号計測装置110の名称が信号名402に格納される。なお、信号名402には「画像」等の信号に含まれるデータの種別が格納されてもよい。 The signal name 402 is a field for storing information for identifying the type of the dialogue signal and the like. In this embodiment, the name of the dialogue signal measuring device 110 that measures the dialogue signal is stored in the signal name 402. The signal name 402 may store the type of data included in the signal such as "image".

取得時間403は、対話信号の取得時間を格納するフィールドである。取得時間403には、例えば、対話信号の計測の開始時間を基準とした時間が格納される。なお、対話信号及び言語信号のそれぞれの計測開始時刻の関係性を示す値を格納するフィールドを設けてもよい。 The acquisition time 403 is a field for storing the acquisition time of the dialogue signal. In the acquisition time 403, for example, a time based on the start time of measurement of the dialogue signal is stored. A field may be provided to store a value indicating the relationship between the measurement start times of the dialogue signal and the language signal.

ポインタ404は、取得された対話信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ404の代わりに、取得された対話信号を格納するフィールドを設けてもよい。当該フィールドには、例えば、座標及びRGB値の組合せが複数格納される。 The pointer 404 is a field that stores a pointer of a storage area in which the acquired dialogue signal is stored. In addition, instead of the pointer 404, a field for storing the acquired dialogue signal may be provided. For example, a plurality of combinations of coordinates and RGB values are stored in the field.

図5は、実施例1の模倣情報312のデータ構造の一例を示す図である。 FIG. 5 is a diagram showing an example of the data structure of the imitation information 312 of the first embodiment.

模倣情報312は、ID501、参照ID502、模倣特徴量種別503、模倣特徴量504、遅延時間505、対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509から構成されるエントリを含む。一つのエントリが一つの模倣アクションの模倣特徴量に対応する。 The imitation information 312 is an entry composed of ID 501, reference ID 502, imitation feature type 503, imitation feature 504, delay time 505, dialogue data name 506, dialogue data 507, dialogue feature type 508, and dialogue feature 509. including. One entry corresponds to the imitation feature of one imitation action.

ID501は、模倣情報312のエントリを一意に識別するための識別情報を格納するフィールドである。本実施例では、一つの対話信号に対して三種類の模倣特徴量が算出される。 ID 501 is a field for storing identification information for uniquely identifying the entry of imitation information 312. In this embodiment, three types of imitation features are calculated for one dialogue signal.

参照ID502は、模倣特徴量の算出時に用いた対話信号の識別情報を格納するフィールドである。参照ID502にはID401の値が格納される。 The reference ID 502 is a field for storing the identification information of the dialogue signal used when calculating the imitation feature amount. The value of ID 401 is stored in the reference ID 502.

模倣特徴量種別503は、模倣アクションの種別を示す情報を格納するフィールドである。本実施例の模倣特徴量種別503には、「視線」、「顔の動き」、及び「身体の動き」のいずれかが格納される。 The imitation feature quantity type 503 is a field for storing information indicating the type of the imitation action. In the imitation feature quantity type 503 of this embodiment, any one of "line of sight", "face movement", and "body movement" is stored.

模倣特徴量504は、算出された模倣特徴量を格納するフィールドである。模倣特徴量種別503が「視線」である場合、模倣特徴量504には人物画像の眼球の角度及び移動速度等が格納され、模倣特徴量種別503が「顔の動き」である場合、模倣特徴量504には人物画像の顔の角度及び移動速度等が格納され、模倣特徴量種別503が「身体の動き」である場合、模倣特徴量504には人物画像の身体の移動方向及び移動量等が格納される。 The imitation feature amount 504 is a field for storing the calculated imitation feature amount. When the imitation feature amount type 503 is "line of sight", the imitation feature amount 504 stores the angle of the eyeball of the person image, the moving speed, etc. The amount 504 stores the face angle, movement speed, etc. of the person image, and when the imitation feature amount type 503 is "body movement", the imitation feature amount 504 contains the movement direction, movement amount, etc. Is stored.

遅延時間505は、模倣アクションに対応する遅延時間を格納するフィールドである。 The delay time 505 is a field for storing the delay time corresponding to the imitation action.

対話データ名506は、対話特徴量を算出するために用いた対話データの識別情報を格納するフィールドである。 The dialogue data name 506 is a field for storing the identification information of the dialogue data used for calculating the dialogue feature amount.

対話データ507は、対話データを格納するフィールドである。本実施例では、対話データは画像であるため、対話データ507には、座標及びRGB値の組合せが複数含まれる。なお、対話データ507の代わりに、対話データが格納される記憶領域を示すポインタを格納するフィールドを設けてもよい。 The dialogue data 507 is a field for storing dialogue data. In this embodiment, since the dialogue data is an image, the dialogue data 507 includes a plurality of combinations of coordinates and RGB values. In addition, instead of the dialogue data 507, a field for storing a pointer indicating a storage area in which the dialogue data is stored may be provided.

対話特徴量種別508は、対話特徴量の識別情報を格納するフィールドである。本実施例の対話特徴量種別508には、「視線」、「顔の向き」、及び「身体の動き」のいずれかが格納される。 The dialogue feature type 508 is a field for storing the identification information of the dialogue feature. In the dialogue feature quantity type 508 of this embodiment, any one of "line of sight", "face orientation", and "body movement" is stored.

対話特徴量509は、算出された対話特徴量を格納するフィールドである。対話特徴量種別508が「視線」である場合、対話特徴量509にはユーザの視線の対象の座標等が格納され、対話特徴量種別508が「顔の向き」である場合、対話特徴量509にはユーザの顔の傾け角度等が格納され、対話特徴量種別508が「身体の動き」である場合、対話特徴量509にはユーザの身体の移動量等が格納される。 The dialogue feature amount 509 is a field for storing the calculated dialogue feature amount. When the dialogue feature type 508 is "line of sight", the coordinates of the target of the user's line of sight are stored in the dialogue feature 509, and when the dialogue feature type 508 is "face orientation", the dialogue feature 509 is stored. The tilt angle of the user's face and the like are stored in, and when the dialogue feature amount type 508 is "body movement", the dialogue feature amount 509 stores the movement amount of the user's body and the like.

なお、ユーザの視線の対象の座標は、対話出力装置140であるディスプレイの平面上の座標でもよいし、また、対話出力装置140を原点とする三次元空間の座標でもよい。顔の傾け角度は、鼻尖及び顔の輪郭から算出された特徴点間の距離の変化又は左右差等に基づいて算出される。単位時間当たりの身体の移動量は、身体の輪郭から算出された特徴点の移動距離の総和等に基づいて算出される。 The coordinates of the target of the user's line of sight may be the coordinates on the plane of the display which is the dialogue output device 140, or may be the coordinates of the three-dimensional space with the dialogue output device 140 as the origin. The tilt angle of the face is calculated based on the change in the distance between the feature points calculated from the tip of the nose and the contour of the face, the laterality, and the like. The amount of movement of the body per unit time is calculated based on the sum of the movement distances of the feature points calculated from the contour of the body.

本実施例では、一種類の対話特徴量を用いて一種類の模倣特徴量が算出される。ただし、複数種類の対話特徴量を用いて一種類の模倣特徴量が算出されてよい。この場合、一つのエントリには、対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509を一つの組とする行が複数含まれる。 In this embodiment, one type of mimicking feature is calculated using one type of dialogue feature. However, one type of imitation feature may be calculated using a plurality of types of dialogue features. In this case, one entry includes a plurality of lines having the dialogue data name 506, the dialogue data 507, the dialogue feature amount type 508, and the dialogue feature amount 509 as one set.

図6は、実施例1の遅延時間定義情報313のデータ構造の一例を示す図である。 FIG. 6 is a diagram showing an example of the data structure of the delay time definition information 313 of the first embodiment.

遅延時間定義情報313は、ID601、模倣特徴量種別602、及び遅延時間603から構成されるエントリを含む。一つのエントリが一種類の模倣アクションに対応する。本実施例では、模倣アクションの種類は三つであるため、遅延時間定義情報313には三つのエントリが含まれる。 The delay time definition information 313 includes an entry composed of the ID 601, the imitation feature amount type 602, and the delay time 603. One entry corresponds to one type of imitation action. In this embodiment, since there are three types of imitation actions, the delay time definition information 313 includes three entries.

ID601は、遅延時間定義情報313のエントリを一意に識別するための識別情報を格納するフィールドである。 ID601 is a field for storing identification information for uniquely identifying the entry of the delay time definition information 313.

模倣特徴量種別602は、模倣特徴量種別503と同一のものである。 The imitation feature amount type 602 is the same as the imitation feature amount type 503.

遅延時間603は、模倣アクションに対応する遅延時間を格納するフィールドである。初期の遅延時間は専門家等が予め設定するものとする。本実施例では、出力情報316が生成された時点を起点とする遅延時間が設定される。なお、本発明は遅延時間の設定基準に限定されない。 The delay time 603 is a field for storing the delay time corresponding to the imitation action. The initial delay time shall be set in advance by an expert or the like. In this embodiment, the delay time starting from the time when the output information 316 is generated is set. The present invention is not limited to the setting standard of the delay time.

なお、模倣特徴量の種別及び模倣特徴量の値の範囲の組合せに対して、遅延時間を設定してもよい。この場合、エントリには、模倣特徴量の範囲を指定するフィールドが含まれる。 The delay time may be set for the combination of the type of the imitation feature amount and the range of the value of the imitation feature amount. In this case, the entry contains a field that specifies the range of mimic features.

図7は、実施例1の言語信号情報314のデータ構造の一例を示す図である。 FIG. 7 is a diagram showing an example of the data structure of the language signal information 314 of the first embodiment.

言語信号情報314は、ID701、信号名702、取得時間703、及びポインタ704から構成されるエントリを含む。一つのエントリが一つの言語信号に対応する。 The language signal information 314 includes an entry composed of an ID 701, a signal name 702, an acquisition time 703, and a pointer 704. One entry corresponds to one language signal.

ID701は、言語信号情報314のエントリを一意に識別するための識別情報を格納するフィールドである。 The ID 701 is a field for storing identification information for uniquely identifying the entry of the language signal information 314.

信号名702は、言語信号の種別等を識別するための情報を格納するフィールドである。本実施例では、言語信号を計測した言語信号計測装置120の名称が信号名702に格納される。なお、信号名702には「音声」等の言語信号に含まれるデータの種別が格納されてもよい。 The signal name 702 is a field for storing information for identifying the type of the language signal and the like. In this embodiment, the name of the language signal measuring device 120 that measures the language signal is stored in the signal name 702. The signal name 702 may store the type of data included in the language signal such as "voice".

なお、対話信号及び言語信号のそれぞれの計測開始時刻の関係性を示す値を格納するフィールドと、対話信号の計測開始時刻を格納するフィールドを設けてもよい。 A field for storing a value indicating the relationship between the measurement start times of the dialogue signal and the language signal and a field for storing the measurement start time of the dialogue signal may be provided.

取得時間703は、言語信号の取得時間を格納するフィールドである。取得時間703には、例えば、言語信号の計測の開始時間を基準とした時間が格納される。 The acquisition time 703 is a field for storing the acquisition time of the language signal. In the acquisition time 703, for example, a time based on the start time of measurement of the language signal is stored.

ポインタ704は、取得された言語信号が格納される記憶領域のポインタを格納するフィールドである。言語信号はA/D変換された値として格納されている。なお、ポインタ704の代わりに、取得された言語信号を格納するフィールドを設けてもよい。 The pointer 704 is a field that stores a pointer of a storage area in which the acquired language signal is stored. The language signal is stored as an A / D converted value. In addition, instead of the pointer 704, a field for storing the acquired language signal may be provided.

図8は、実施例1の発話情報315のデータ構造の一例を示す図である。 FIG. 8 is a diagram showing an example of the data structure of the utterance information 315 of the first embodiment.

発話情報315は、入力発話内容801、参照ID802、及び出力発話内容803から構成されるエントリを含む。一つのエントリがユーザの発話内容に対応する。 The utterance information 315 includes an entry composed of an input utterance content 801, a reference ID 802, and an output utterance content 803. One entry corresponds to the user's utterance.

入力発話内容801は、言語信号を分析することによって特定されたユーザの発話内容を格納するフィールドである。 The input utterance content 801 is a field for storing the utterance content of the user identified by analyzing the language signal.

参照ID802は、発話内容を特定するために用いた言語信号の識別情報を格納するフィールドである。参照ID802にはID701の値が格納される。 The reference ID 802 is a field for storing the identification information of the language signal used for specifying the utterance content. The value of ID 701 is stored in the reference ID 802.

出力発話内容803は、ユーザの発話内容に基づいて選択された発話内容を格納するフィールドである。例えば、ユーザの発話を促す発話内容又はユーザの発話に応答する発話内容が選択される。なお、発話内容を選択する方法としては、言語データベース等を用いる方法及び過去の発話内容の履歴を用いる方法等が考えられる。 The output utterance content 803 is a field for storing the utterance content selected based on the utterance content of the user. For example, the utterance content that prompts the user's utterance or the utterance content that responds to the user's utterance is selected. As a method of selecting the utterance content, a method using a language database or the like, a method using a history of past utterance contents, or the like can be considered.

なお、発話内容の出力に対して遅延時間を設定する場合、発話情報315には遅延時間を格納するフィールドを設けてもよい。 When setting the delay time for the output of the utterance content, the utterance information 315 may be provided with a field for storing the delay time.

図9は、実施例1の出力情報316のデータ構造の一例を示す図である。 FIG. 9 is a diagram showing an example of the data structure of the output information 316 of the first embodiment.

出力情報316は、出力装置901、出力値902、及び遅延時間903から構成されるエントリを含む。一つのエントリが一つの出力アクションを示す。 The output information 316 includes an entry composed of an output device 901, an output value 902, and a delay time 903. One entry indicates one output action.

出力装置901は、出力アクションに対応する制御を行う装置の識別情報を格納するフィールドである。本実施例では、模倣アクションの模倣特徴量及び遅延時間に基づいてディスプレイに表示される人物画像が制御され、発話内容に基づいてスピーカが制御される。 The output device 901 is a field for storing identification information of a device that controls a device corresponding to an output action. In this embodiment, the person image displayed on the display is controlled based on the imitation feature amount and the delay time of the imitation action, and the speaker is controlled based on the utterance content.

出力値902は、出力アクションを行う対話インタフェースを制御するための値を格納する。出力アクションが模倣アクションである場合、出力値902には模倣特徴量の種別及び模倣特徴量が格納され、出力アクションが発話内容の出力である場合、出力値902には発話内容が格納される。 The output value 902 stores a value for controlling the interactive interface that performs the output action. When the output action is an imitation action, the type of the imitation feature amount and the imitation feature amount are stored in the output value 902, and when the output action is the output of the utterance content, the utterance content is stored in the output value 902.

図10は、実施例1の出力条件情報317のデータ構造の一例を示す図である。 FIG. 10 is a diagram showing an example of the data structure of the output condition information 317 of the first embodiment.

出力条件情報317は、ID1001、アクション種別1002、及び条件1003から構成されるエントリを含む。一つのエントリが一つの条件を示す。 The output condition information 317 includes an entry composed of ID 1001, action type 1002, and condition 1003. One entry indicates one condition.

ID1001は、出力条件情報317のエントリを一意に識別するための識別情報を格納するフィールドである。 ID1001 is a field for storing identification information for uniquely identifying the entry of the output condition information 317.

アクション種別1002は、出力アクションの種別を格納するフィールドである。アクション種別1002には、「発話」、「視線」、「顔の動き」、及び「身体の動き」が格納される。 The action type 1002 is a field for storing the type of output action. The action type 1002 stores "utterance", "line of sight", "face movement", and "body movement".

条件1003は、アクション種別1002に対応する出力アクションを実行するタイミングを規定する条件を格納するフィールドである。条件1003には、具体的な条件を指定する値、及び遅延時間及び条件の優先順位を示す値が含まれる。 The condition 1003 is a field for storing a condition that defines the timing for executing the output action corresponding to the action type 1002. The condition 1003 includes a value that specifies a specific condition, and a value that indicates the delay time and the priority of the condition.

例えば、ユーザの発話内容が「はい」又は「いいえ」、かつ、出力発話内容が「はい」又は「いいえ」である場合が条件として設定できる。また、ユーザの発話の開始を条件として設定できる。また、気温等、ユーザ及び計算機100との関係以外の外部情報を用いて条件を設定してもよい。 For example, the condition can be set when the user's utterance content is "yes" or "no" and the output utterance content is "yes" or "no". In addition, it can be set on condition that the user starts speaking. Further, the conditions may be set by using external information such as the temperature other than the relationship between the user and the computer 100.

なお、一つの種類の出力アクションに対して複数の条件を設定できる。この場合、出力条件情報317には、アクション種別1002が同一であるエントリが複数含まれる。 Note that multiple conditions can be set for one type of output action. In this case, the output condition information 317 includes a plurality of entries having the same action type 1002.

なお、優先順位は必ずしも設定しなくてもよい。この場合、遅延時間が経過し、かつ、条件を満たす場合に制御を行うようにすればよい。 The priority does not necessarily have to be set. In this case, the control may be performed when the delay time elapses and the condition is satisfied.

図11は、実施例1の出力履歴情報318のデータ構造の一例を示す図である。 FIG. 11 is a diagram showing an example of the data structure of the output history information 318 of the first embodiment.

出力履歴情報318は、ID1101、共感度1102、出力値1103、及び遅延時間1104から構成されるエントリを含む。一つのエントリが一つの出力情報316を示す。 The output history information 318 includes an entry composed of ID 1101, sympathy 1102, output value 1103, and delay time 1104. One entry indicates one output information 316.

ID1101は、出力履歴情報318のエントリを一意に識別するための識別情報を格納するフィールドである。 The ID 1101 is a field for storing identification information for uniquely identifying the entry of the output history information 318.

共感度1102は、対話インタフェースを使用するユーザの共感の程度を示す共感度を格納するフィールドである。本実施例では、対話インタフェースが行う出力アクションの有効性を示す指標として共感度を用いる。なお、共感度以外の指標でもよい。 The empathy 1102 is a field for storing the empathy indicating the degree of empathy of the user who uses the interactive interface. In this embodiment, empathy is used as an index indicating the effectiveness of the output action performed by the dialogue interface. An index other than empathy may be used.

共感度は、例えば、対話の持続時間を用いて算出できる。ここで、対話の持続時間は、ユーザ又は対話インタフェースの発話が開始されてから、ユーザ又は対話インタフェースの発話が終了するまでの時間を示す。スピーカから音声が再生された時又は言語信号が検出された時を発話の開始と判定し、発話が行われていない時間が一定時間経過した場合を発話の終了と判定すればよい。また、ユーザが対話の開始及び終了を知らせるボタンを押下することによって持続時間を計測してもよい。 Empathy can be calculated using, for example, the duration of the dialogue. Here, the duration of the dialogue indicates the time from the start of the utterance of the user or the dialogue interface to the end of the utterance of the user or the dialogue interface. It may be determined that the start of the utterance is when the voice is reproduced from the speaker or when the language signal is detected, and the end of the utterance is when a certain period of time has passed when the utterance is not performed. In addition, the duration may be measured by the user pressing a button notifying the start and end of the dialogue.

なお、共感度はユーザの発話量等のその他の情報に基づいて算出されてもよい。また、共感度はユーザが対話の終了後に記入したアンケートに基づいて算出されてもよい。 The sympathy may be calculated based on other information such as the amount of speech of the user. In addition, the empathy may be calculated based on a questionnaire filled out by the user after the end of the dialogue.

出力値1103及び遅延時間1104は、出力値902及び遅延時間903と同一のものである。 The output value 1103 and the delay time 1104 are the same as the output value 902 and the delay time 903.

図12は、実施例1の模倣情報算出モジュール101が実行する処理を説明するフローチャートである。 FIG. 12 is a flowchart illustrating a process executed by the imitation information calculation module 101 of the first embodiment.

模倣情報算出モジュール101は、イベントが発生したか否かを判定する(ステップS101)。例えば、ユーザの動きが検出された場合、又は、ユーザの発話が検出された場合にイベントが発生したと判定される。また、ユーザが入力装置150を用いて処理の開始を指示した操作が行われた場合、模倣情報算出モジュール101は、イベントが発生したと判定する。 The imitation information calculation module 101 determines whether or not an event has occurred (step S101). For example, it is determined that an event has occurred when a user's movement is detected or when a user's utterance is detected. Further, when the user instructs the start of the process by using the input device 150, the imitation information calculation module 101 determines that an event has occurred.

イベントが発生していないと判定された場合、模倣情報算出モジュール101は、イベントの発生まで待ち状態に移行する。 If it is determined that no event has occurred, the imitation information calculation module 101 shifts to the waiting state until the event occurs.

イベントが発生したと判定された場合、模倣情報算出モジュール101は、対話信号計測装置110から対話信号を取得する(ステップS102)。 When it is determined that the event has occurred, the imitation information calculation module 101 acquires the dialogue signal from the dialogue signal measuring device 110 (step S102).

このとき、模倣情報算出モジュール101は、取得した対話信号を記憶領域に格納する。模倣情報算出モジュール101は、対話信号情報311を初期化し、取得された対話信号の数だけ対話信号情報311にエントリを追加する。模倣情報算出モジュール101は、追加されたエントリの各フィールドに値を設定する。 At this time, the imitation information calculation module 101 stores the acquired dialogue signal in the storage area. The imitation information calculation module 101 initializes the dialogue signal information 311 and adds entries to the dialogue signal information 311 by the number of acquired dialogue signals. The imitation information calculation module 101 sets a value in each field of the added entry.

なお、模倣情報算出モジュール101は、必要な対話信号が全て取得されるまで、ステップS102の処理を繰り返し実行してもよい。また、タイマを設定している場合には、模倣情報算出モジュール101は、タイマが経過するまで対話信号の取得を継続してもよい。 The imitation information calculation module 101 may repeatedly execute the process of step S102 until all the necessary dialogue signals are acquired. Further, when the timer is set, the imitation information calculation module 101 may continue to acquire the dialogue signal until the timer elapses.

次に、模倣情報算出モジュール101は、変数iを初期化する(ステップS103)。 Next, the imitation information calculation module 101 initializes the variable i (step S103).

具体的には、模倣情報算出モジュール101は変数iに「1」を設定する。ここで、変数iは、取得した対話信号の数に対応し、また、対話信号情報311のID401に対応する。 Specifically, the imitation information calculation module 101 sets the variable i to "1". Here, the variable i corresponds to the number of acquired dialogue signals and also corresponds to the ID 401 of the dialogue signal information 311.

次に、模倣情報算出モジュール101は、ID401が変数iに一致するエントリに基づいて対話データを算出する(ステップS104)。 Next, the imitation information calculation module 101 calculates dialogue data based on the entry whose ID 401 matches the variable i (step S104).

例えば、模倣情報算出モジュール101は、一つの画像から、眼球の画像、顔全体の画像、及び全身の画像を、対話データとして算出する。このとき、模倣情報算出モジュール101は、対話データに変数iを対応付けて記憶領域に格納する。 For example, the imitation information calculation module 101 calculates an eyeball image, an entire face image, and a whole body image as dialogue data from one image. At this time, the imitation information calculation module 101 associates the variable i with the dialogue data and stores it in the storage area.

なお、眼球の画像及び顔の画像は、画像から眼球及び顔に関連する特徴量を算出することによって取得する方法、画像の特徴量を用いた統計解析又は機械学習に基づいて取得する方法等が考えられる。 The eyeball image and the face image can be obtained by calculating the feature amounts related to the eyeball and the face from the image, statistical analysis using the feature amount of the image, or a method of acquiring the face image based on machine learning. Conceivable.

次に、模倣情報算出モジュール101は、対話特徴量を算出する(ステップS105)。 Next, the imitation information calculation module 101 calculates the dialogue feature amount (step S105).

このとき、模倣情報算出モジュール101は、対話特徴量に対話特徴量の種別を対応付けて記憶領域に格納する。 At this time, the imitation information calculation module 101 associates the dialogue feature quantity with the type of the dialogue feature quantity and stores it in the storage area.

次に、模倣情報算出モジュール101は、変数jを初期化する(ステップS106)。 Next, the imitation information calculation module 101 initializes the variable j (step S106).

具体的には、模倣情報算出モジュール101は変数jに「1」を設定する。このとき、模倣情報算出モジュール101は、模倣情報312を初期化する。 Specifically, the imitation information calculation module 101 sets the variable j to "1". At this time, the imitation information calculation module 101 initializes the imitation information 312.

ここで、変数jは、模倣アクションの種別に対応する。本実施例では、変数jが「1」の場合、「眼球の動き」を表し、変数jが「2」の場合、「顔の動き」を表し、変数jが「3」の場合、「身体の動き」を表す。 Here, the variable j corresponds to the type of imitation action. In this embodiment, when the variable j is "1", it represents "eye movement", when the variable j is "2", it represents "face movement", and when the variable j is "3", it represents "body". Represents "movement of".

次に、模倣情報算出モジュール101は、算出された対話特徴量に基づいて、変数jに対応する模倣アクションの模倣特徴量を算出する(ステップS107)。なお、予め、対話特徴量から模倣特徴量を算出する数式が与えられているものとする。 Next, the imitation information calculation module 101 calculates the imitation feature amount of the imitation action corresponding to the variable j based on the calculated dialogue feature amount (step S107). It is assumed that a mathematical formula for calculating the imitation feature amount from the dialogue feature amount is given in advance.

このとき、模倣情報算出モジュール101は、模倣情報312にエントリを追加し、追加されたエントリのID501に識別情報を設定する。模倣情報算出モジュール101は、追加されたエントリの参照ID502に変数iの値を設定し、模倣特徴量種別503に変数jに対応する識別情報を設定し、模倣特徴量504に算出された模倣特徴量を設定する。また、模倣情報算出モジュール101は、追加されたエントリに模倣特徴量の算出時に用いた対話特徴量の数だけ行を追加し、各行の対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509に識別情報及び値を設定する。 At this time, the imitation information calculation module 101 adds an entry to the imitation information 312, and sets the identification information in the ID 501 of the added entry. The imitation information calculation module 101 sets the value of the variable i in the reference ID 502 of the added entry, sets the identification information corresponding to the variable j in the imitation feature amount type 503, and sets the imitation feature calculated in the imitation feature amount 504. Set the amount. Further, the imitation information calculation module 101 adds as many rows as the number of dialogue features used when calculating the counterfeit features to the added entries, and the dialogue data name 506, dialogue data 507, dialogue feature type 508 of each row, And the identification information and the value are set in the dialogue feature amount 509.

次に、模倣情報算出モジュール101は、遅延時間定義情報313を参照して、変数jに対応する模倣アクションの遅延時間を設定する(ステップS108)。 Next, the imitation information calculation module 101 refers to the delay time definition information 313 and sets the delay time of the imitation action corresponding to the variable j (step S108).

具体的には、模倣情報算出モジュール101は、遅延時間定義情報313を参照し、模倣特徴量種別602が変数jに対応する種別と一致するエントリを検索する。模倣情報算出モジュール101は、検索されたエントリの遅延時間603から値を取得し、ステップS107において追加された模倣情報312のエントリの遅延時間505に取得した値を設定する。 Specifically, the imitation information calculation module 101 refers to the delay time definition information 313 and searches for an entry in which the imitation feature amount type 602 matches the type corresponding to the variable j. The imitation information calculation module 101 acquires a value from the delay time 603 of the searched entry, and sets the acquired value in the delay time 505 of the entry of the imitation information 312 added in step S107.

次に、模倣情報算出モジュール101は、全ての模倣特徴量を算出したか否かを判定する(ステップS109)。 Next, the imitation information calculation module 101 determines whether or not all the imitation feature amounts have been calculated (step S109).

全ての模倣特徴量を算出していないと判定された場合、模倣情報算出モジュール101は、変数jに「1」を加算し(ステップS110)、その後、ステップS107に戻る。 When it is determined that all the imitation feature amounts have not been calculated, the imitation information calculation module 101 adds "1" to the variable j (step S110), and then returns to step S107.

全ての模倣特徴量を算出したと判定された場合、模倣情報算出モジュール101は、全ての対話信号の処理が完了したか否かを判定する(ステップS111)。 When it is determined that all the imitation feature quantities have been calculated, the imitation information calculation module 101 determines whether or not the processing of all the dialogue signals is completed (step S111).

全ての対話信号の処理が完了していないと判定された場合、模倣情報算出モジュール101は、変数iに「1」を加算し(ステップS112)、その後、ステップS104に戻る。 When it is determined that the processing of all the dialogue signals is not completed, the imitation information calculation module 101 adds "1" to the variable i (step S112), and then returns to step S104.

全ての対話信号の処理が完了していないと判定された場合、模倣情報算出モジュール101は、模倣情報312を出力情報生成モジュール103に出力し、処理を終了する。 When it is determined that the processing of all the dialogue signals is not completed, the imitation information calculation module 101 outputs the imitation information 312 to the output information generation module 103, and ends the processing.

本実施例では、遅延時間定義情報313に基づいて模倣アクションの遅延時間が設定されているが、以下のような設定方法でもよい。模倣情報算出モジュール101は、出力履歴情報318を参照し、最も新しい履歴(エントリ)を検索する。模倣情報算出モジュール101は、検索されたエントリから変数jに対応する模倣アクションの遅延時間1104の値を取得し、遅延時間505に取得した値を設定する。 In this embodiment, the delay time of the imitation action is set based on the delay time definition information 313, but the following setting method may also be used. The imitation information calculation module 101 refers to the output history information 318 and searches for the latest history (entry). The imitation information calculation module 101 acquires the value of the imitation action delay time 1104 corresponding to the variable j from the searched entry, and sets the acquired value in the delay time 505.

なお、複数の対話信号計測装置110又は複数の計測チャネルを用いて複数の対話信号が取得された場合、模倣情報算出モジュール101は、各対話信号から算出された対話特徴量の平均値等を用いて模倣特徴量を算出すればよい。 When a plurality of dialogue signals are acquired by using the plurality of dialogue signal measuring devices 110 or a plurality of measurement channels, the imitation information calculation module 101 uses the average value of the dialogue features calculated from each dialogue signal. The imitation feature amount may be calculated.

なお、対話信号計測装置110が計測した値以外に、ユーザが入力装置150を用いて対話信号又は対話データを入力してもよい。 In addition to the values measured by the dialogue signal measuring device 110, the user may input the dialogue signal or dialogue data using the input device 150.

図13は、実施例1の言語情報算出モジュール102が実行する処理を説明するフローチャートである。 FIG. 13 is a flowchart illustrating a process executed by the language information calculation module 102 of the first embodiment.

言語情報算出モジュール102は、イベントが発生したか否かを判定する(ステップS201)。なお、ステップS201の判定方法は、ステップS101の判定方法と同一でもよいし、また、異なってもよい。 The language information calculation module 102 determines whether or not an event has occurred (step S201). The determination method in step S201 may be the same as the determination method in step S101, or may be different.

イベントが発生していないと判定された場合、言語情報算出モジュール102は、イベントの発生まで待ち状態に移行する。 If it is determined that no event has occurred, the language information calculation module 102 shifts to the waiting state until the event occurs.

イベントが発生したと判定された場合、言語情報算出モジュール102は、言語信号計測装置120から言語信号を取得する(ステップS202)。 When it is determined that the event has occurred, the language information calculation module 102 acquires the language signal from the language signal measuring device 120 (step S202).

このとき、言語情報算出モジュール102は、取得した言語信号を記憶領域に格納する。言語信号情報314を初期化し、取得された言語信号の数だけ言語信号情報314にエントリを追加する。言語情報算出モジュール102は、追加されたエントリの各フィールドに値を設定する。また、言語情報算出モジュール102は、発話情報315を初期化する。 At this time, the language information calculation module 102 stores the acquired language signal in the storage area. The language signal information 314 is initialized, and entries are added to the language signal information 314 as many as the number of acquired language signals. The language information calculation module 102 sets a value in each field of the added entry. Further, the language information calculation module 102 initializes the utterance information 315.

次に、言語情報算出モジュール102は、変数iを初期化する(ステップS203)。 Next, the language information calculation module 102 initializes the variable i (step S203).

具体的には、言語情報算出モジュール102は変数iに「1」を設定する。ここで、変数iは、取得した言語信号の数に対応し、また、言語信号情報314のID701に対応する。 Specifically, the language information calculation module 102 sets the variable i to "1". Here, the variable i corresponds to the number of acquired language signals and also corresponds to the ID 701 of the language signal information 314.

このとき、言語情報算出モジュール102は、発話情報315の参照ID802に、取得された言語信号の数だけ行を生成する。 At this time, the language information calculation module 102 generates as many lines as the number of acquired language signals in the reference ID 802 of the utterance information 315.

言語情報算出モジュール102は、ID701が変数iに一致するエントリに対応する言語信号を分析する(ステップS204)。言語信号の分析方法は公知の方法を用いればよいため詳細な説明は省略する。 The language information calculation module 102 analyzes the language signal corresponding to the entry whose ID 701 matches the variable i (step S204). Since a known method may be used as the method for analyzing the language signal, detailed description thereof will be omitted.

次に、言語情報算出モジュール102は、分析結果に基づいて発話内容を更新する(ステップS205)。 Next, the language information calculation module 102 updates the utterance content based on the analysis result (step S205).

具体的には、言語情報算出モジュール102は、分析結果に基づいて発話情報315の入力発話内容801を更新し、参照ID802の空の行に変数iを設定する。 Specifically, the language information calculation module 102 updates the input utterance content 801 of the utterance information 315 based on the analysis result, and sets the variable i in the empty line of the reference ID 802.

次に、言語情報算出モジュール102は、全ての言語信号の処理を完了したか否かを判定する(ステップS206)。 Next, the language information calculation module 102 determines whether or not the processing of all the language signals has been completed (step S206).

全ての言語信号の処理が完了していないと判定された場合、言語情報算出モジュール102は、変数iに「1」を加算し(ステップS207)、その後、ステップS204に戻る。 When it is determined that the processing of all the language signals is not completed, the language information calculation module 102 adds "1" to the variable i (step S207), and then returns to step S204.

全ての言語信号の処理が完了したと判定された場合、言語情報算出モジュール102は、入力発話内容に基づいて出力発話内容を選択して、発話情報315の出力発話内容803に設定する(ステップS208)。その後、言語情報算出モジュール102は、発話情報315を出力情報生成モジュール103に出力し、処理を終了する。なお、出力発話内容の選択方法は公知の方法を用いればよいため詳細な説明は省略する。 When it is determined that the processing of all the language signals is completed, the language information calculation module 102 selects the output utterance content based on the input utterance content and sets it in the output utterance content 803 of the utterance information 315 (step S208). ). After that, the language information calculation module 102 outputs the utterance information 315 to the output information generation module 103, and ends the process. Since a known method may be used for selecting the output utterance content, detailed description thereof will be omitted.

本実施例では、ユーザの発話内容のみを特定していたが、発話の速度及びリズム等を言語特徴量として算出してもよい。当該特徴量を用いて対話インタフェースの発話内容の出力の速度及びリズムを制御できる。 In this embodiment, only the content of the user's utterance is specified, but the speed and rhythm of the utterance may be calculated as the language feature amount. The feature amount can be used to control the output speed and rhythm of the utterance content of the dialogue interface.

図14は、実施例1の出力情報生成モジュール103が実行する処理を説明するフローチャートである。 FIG. 14 is a flowchart illustrating a process executed by the output information generation module 103 of the first embodiment.

出力情報生成モジュール103は、情報を受け付けたか否かを判定する(ステップS301)。 The output information generation module 103 determines whether or not the information has been received (step S301).

具体的には、出力情報生成モジュール103は、模倣情報312及び発話情報315の少なくともいずれかを受け取ったか否かを判定する。なお、模倣情報312及び発話情報315の生成タイミングは必ずしも一致しないため、出力情報生成モジュール103は、いずれかの情報を受け付けてから一定期間の情報の入力を受け付けもよい。 Specifically, the output information generation module 103 determines whether or not at least one of the imitation information 312 and the utterance information 315 has been received. Since the generation timings of the imitation information 312 and the utterance information 315 do not always match, the output information generation module 103 may accept input of information for a certain period of time after receiving any of the information.

情報を受け付けていないと判定された場合、出力情報生成モジュール103は、情報を受け付けるまで待ち続ける。 If it is determined that the information is not accepted, the output information generation module 103 continues to wait until the information is accepted.

情報を受け付けたと判定された場合、出力情報生成モジュール103は、出力情報316を生成する(ステップS302)。具体的には、以下のような処理が実行される。 When it is determined that the information has been received, the output information generation module 103 generates the output information 316 (step S302). Specifically, the following processing is executed.

出力情報生成モジュール103は、模倣情報312を受け付けた場合、模倣情報312からエントリを一つ読み出す。出力情報生成モジュール103は、出力情報316にエントリを追加し、追加されたエントリの出力装置901に「ディスプレイ」を設定する。出力情報生成モジュール103は、選択されたエントリの模倣特徴量種別503及び模倣特徴量504の値を追加されたエントリの出力値902に設定する。さらに、出力情報生成モジュール103は、選択されたエントリの遅延時間505の値を追加されたエントリの遅延時間903に設定する。出力情報生成モジュール103は、模倣情報312の各エントリに対して同様の処理を実行する。 When the output information generation module 103 receives the imitation information 312, the output information generation module 103 reads one entry from the imitation information 312. The output information generation module 103 adds an entry to the output information 316 and sets a "display" in the output device 901 of the added entry. The output information generation module 103 sets the values of the imitation feature amount type 503 and the imitation feature amount 504 of the selected entry to the output value 902 of the added entry. Further, the output information generation module 103 sets the value of the delay time 505 of the selected entry to the delay time 903 of the added entry. The output information generation module 103 executes the same processing for each entry of the imitation information 312.

出力情報生成モジュール103は、発話情報315を受け付けた場合、発話情報315からエントリを一つ読み出す。出力情報生成モジュール103は、出力情報316にエントリを追加し、追加されたエントリの出力装置901に「スピーカ」を設定する。出力情報生成モジュール103は、選択されたエントリの出力発話内容803の値を追加されたエントリの出力値902に設定する。また、出力情報生成モジュール103は、追加されたエントリの遅延時間903に「0」を設定する。以上がステップS302の処理の説明である。 When the output information generation module 103 receives the utterance information 315, the output information generation module 103 reads one entry from the utterance information 315. The output information generation module 103 adds an entry to the output information 316 and sets a "speaker" in the output device 901 of the added entry. The output information generation module 103 sets the value of the output utterance content 803 of the selected entry to the output value 902 of the added entry. Further, the output information generation module 103 sets "0" to the delay time 903 of the added entry. The above is the description of the process of step S302.

次に、出力情報生成モジュール103はタイマを設定する(ステップS303)。 Next, the output information generation module 103 sets a timer (step S303).

次に、出力情報生成モジュール103は、条件を満たす出力アクションが存在するか否かを判定する(ステップS304)。 Next, the output information generation module 103 determines whether or not there is an output action that satisfies the condition (step S304).

具体的には、出力情報生成モジュール103は、出力情報316から遅延時間903がタイマの値以上のエントリを検索する。遅延時間903がタイマの値以上のエントリが存在する場合、出力情報生成モジュール103は、条件を満たす出力アクションが存在すると判定する。 Specifically, the output information generation module 103 searches the output information 316 for entries whose delay time 903 is equal to or greater than the value of the timer. When there is an entry whose delay time 903 is equal to or greater than the value of the timer, the output information generation module 103 determines that an output action satisfying the condition exists.

条件を満たす出力アクションが存在しないと判定された場合、出力情報生成モジュール103は、ステップS304に戻り、タイマの更新を継続する。 If it is determined that there is no output action that satisfies the condition, the output information generation module 103 returns to step S304 and continues updating the timer.

条件を満たす出力アクションが存在すると判定された場合、出力情報生成モジュール103は、ステップS304において検索されたエントリに対応する出力アクションを実行する(ステップS305)。 When it is determined that an output action satisfying the condition exists, the output information generation module 103 executes the output action corresponding to the entry searched in step S304 (step S305).

具体的には、出力情報生成モジュール103は、検索されたエントリの出力値902に基づいて対話インタフェースを制御する。当該制御によって、対話インタフェースが発話内容を出力し、また、対話インタフェースが応答アクションを実行する。 Specifically, the output information generation module 103 controls the interactive interface based on the output value 902 of the searched entry. By this control, the dialogue interface outputs the utterance content, and the dialogue interface executes the response action.

次に、出力情報生成モジュール103は、出力履歴情報318を更新する(ステップS306)。具体的には、以下のような処理が実行される。 Next, the output information generation module 103 updates the output history information 318 (step S306). Specifically, the following processing is executed.

出力情報生成モジュール103は、出力履歴情報318にエントリを追加し、追加されたエントリのID1101に識別情報を設定する。 The output information generation module 103 adds an entry to the output history information 318, and sets the identification information in the ID 1101 of the added entry.

出力情報生成モジュール103は、追加されたエントリに、ステップS304において検索されたエントリの数と同一数の行を生成する。出力情報生成モジュール103は、生成された行の出力値1103及び遅延時間1104に、ステップS304において検索されたエントリの出力値902及び遅延時間903の値を設定する。なお、実施例1では、出力情報316に基づく対話インタフェースの制御が終了した後に、対話の持続時間、ユーザの発話量、又はアンケート等に基づいて算出された共感度が共感度1102に設定される。 The output information generation module 103 generates the same number of rows as the number of entries searched in step S304 in the added entries. The output information generation module 103 sets the output value 902 and the delay time 903 of the entry searched in step S304 in the output value 1103 and the delay time 1104 of the generated line. In the first embodiment, after the control of the dialogue interface based on the output information 316 is completed, the sympathy calculated based on the duration of the dialogue, the amount of speech of the user, the questionnaire, or the like is set to the sympathy 1102. ..

また、出力情報生成モジュール103は、ステップS304において選択されたエントリを出力情報316から削除する。以上がステップS306の処理の説明である。 Further, the output information generation module 103 deletes the entry selected in step S304 from the output information 316. The above is the description of the process of step S306.

次に、出力情報生成モジュール103は、全ての出力アクションが実行されたか否かを判定する(ステップS307)。 Next, the output information generation module 103 determines whether or not all the output actions have been executed (step S307).

具体的には、出力情報生成モジュール103は、出力情報316が空であるか否かを判定する。出力情報316が空である場合、出力情報生成モジュール103は、全ての出力アクションが実行されたと判定する。 Specifically, the output information generation module 103 determines whether or not the output information 316 is empty. If the output information 316 is empty, the output information generation module 103 determines that all output actions have been executed.

全ての出力アクションが実行されていないと判定された場合、出力情報生成モジュール103は、ステップS304に戻り、同様の処理を実行する。 If it is determined that all the output actions have not been executed, the output information generation module 103 returns to step S304 and executes the same process.

全ての出力アクションが実行されたと判定された場合、出力情報生成モジュールは処理を終了する。 When it is determined that all the output actions have been executed, the output information generation module ends the process.

実施例1によれば、遅延時間に基づいて出力アクションを実行する対話インタフェースを制御することによって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。 According to the first embodiment, by controlling the dialogue interface that executes the output action based on the delay time, it is possible to induce the user's empathy and realize a continuous dialogue and a multi-information dialogue.

実施例2では、計算機100が出力履歴情報318の分析結果に基づいて遅延時間定義情報313を更新し、また、発話内容の更新又は発話内容の選択アルゴリズムを更新する。実施例1との差異を中心に実施例2について説明する。 In the second embodiment, the computer 100 updates the delay time definition information 313 based on the analysis result of the output history information 318, and also updates the utterance content update or the utterance content selection algorithm. The second embodiment will be described with a focus on the differences from the first embodiment.

実施例2のシステム構成は実施例1のシステム構成と同一である。実施例2の計算機100の構成は実施例1の計算機100の構成と同一である。実施例2の計算機100が保持する情報は、遅延時間定義情報313が実施例1の遅延時間定義情報313と異なる。その他の情報は、実施例1の計算機100が保持する情報と同一である。 The system configuration of the second embodiment is the same as the system configuration of the first embodiment. The configuration of the computer 100 of the second embodiment is the same as the configuration of the computer 100 of the first embodiment. As for the information held by the computer 100 of the second embodiment, the delay time definition information 313 is different from the delay time definition information 313 of the first embodiment. Other information is the same as the information held by the computer 100 of the first embodiment.

図15は、実施例2の遅延時間定義情報313のデータ構造の一例を示す図である。 FIG. 15 is a diagram showing an example of the data structure of the delay time definition information 313 of the second embodiment.

遅延時間定義情報313は、ID1501、模倣特徴量種別1502、及び遅延時間範囲1503から構成されるエントリを含む。一つのエントリが一種類の模倣アクションに対応する。 The delay time definition information 313 includes an entry composed of ID 1501, imitation feature quantity type 1502, and delay time range 1503. One entry corresponds to one type of imitation action.

ID1501及び模倣特徴量種別1502は、ID601及び模倣特徴量種別602と同一のフィールドである。 ID 1501 and imitation feature quantity type 1502 are the same fields as ID 601 and mimic feature quantity type 602.

遅延時間範囲1503は、模倣アクションに対応する遅延時間の範囲を格納するフィールドである。なお、遅延時間範囲1503は、最小値及び最大値から構成されるフィールドである。 The delay time range 1503 is a field that stores the delay time range corresponding to the imitation action. The delay time range 1503 is a field composed of a minimum value and a maximum value.

遅延時間が常に一定の場合、ユーザが模倣アクションの実行を察知し、共感度が低下する可能性がある。そこで、実施例2では、計算機100は、所定の遅延時間の範囲内でランダムに遅延時間を設定する。これによって、模倣アクションの実行が察知されることを防ぐことができる。 If the delay time is always constant, the user may detect the execution of the imitation action and the empathy may decrease. Therefore, in the second embodiment, the computer 100 randomly sets the delay time within a predetermined delay time range. This can prevent the execution of the imitation action from being detected.

共感度が高まる遅延時間の範囲は、時間の経過及び状況の変化によって変化する。そこで、実施例2の計算機100は、出力情報316の履歴を分析することによって遅延時間の範囲を更新する。 The range of delay times during which empathy increases varies with the passage of time and changes in circumstances. Therefore, the computer 100 of the second embodiment updates the range of the delay time by analyzing the history of the output information 316.

図16は、実施例2の学習モジュール104が実行する処理を説明するフローチャートである。図17は、実施例2の学習モジュール104が実行する遅延時間の学習処理の流れを示す図である。 FIG. 16 is a flowchart illustrating a process executed by the learning module 104 of the second embodiment. FIG. 17 is a diagram showing a flow of learning processing of the delay time executed by the learning module 104 of the second embodiment.

学習モジュール104は、出力情報316が出力された後、又はユーザから指示を受け付けた場合に以下で説明する処理を実行する。なお、学習モジュール104は、周期的に処理を実行してもよい。 The learning module 104 executes the process described below after the output information 316 is output or when an instruction is received from the user. The learning module 104 may periodically execute the process.

学習モジュール104は、変数iを初期化する(ステップS401)。 The learning module 104 initializes the variable i (step S401).

具体的には、学習モジュール104は変数iに「1」を設定する。ここで、変数iは、模倣アクションの種別に対応する。本実施例では、変数iが「1」の場合、「眼球の動き」を表し、変数iが「2」の場合、「顔の動き」を表し、変数iが「3」の場合、「身体の動き」を表す。 Specifically, the learning module 104 sets the variable i to "1". Here, the variable i corresponds to the type of imitation action. In this embodiment, when the variable i is "1", it represents "eye movement", when the variable i is "2", it represents "face movement", and when the variable i is "3", it represents "body". Represents "movement of".

次に、学習モジュール104は、変数iに対応する模倣アクションの遅延時間の学習処理を実行する(ステップS402)。具体的には、以下のような処理が実行される。 Next, the learning module 104 executes a learning process of the delay time of the imitation action corresponding to the variable i (step S402). Specifically, the following processing is executed.

(第1ステップ)学習モジュール104は、出力履歴情報318から所定の数のエントリを読み出す。ここでは、新しい順に、すなわち、ID1101が大きい順に、所定の数のエントリが読み出される。なお、読み出すエントリの数は予め設定されており、適宜変更できる。 (First step) The learning module 104 reads a predetermined number of entries from the output history information 318. Here, a predetermined number of entries are read in ascending order, that is, in descending order of ID1101. The number of entries to be read is set in advance and can be changed as appropriate.

(第2ステップ)学習モジュール104は、読み出されたエントリの中から一つのエントリを選択し、選択されたエントリに含まれる行の中から、出力値1103に変数iに対応する模倣アクションの識別情報が設定された行を検索する。学習モジュール104は、選択されたエントリの共感度1102及び検索された行の遅延時間1104を、共感度及び遅延時間を軸とする空間にプロットする。 (Second step) The learning module 104 selects one entry from the read entries, and identifies the imitation action corresponding to the variable i in the output value 1103 from the rows included in the selected entry. Search for the line where the information is set. The learning module 104 plots the sympathy 1102 of the selected entry and the delay time 1104 of the retrieved row in a space centered on the sympathy and delay time.

なお、変数iに対応する模倣アクションの識別情報が設定された行が複数存在する場合、学習モジュール104は、各行の遅延時間1104の統計値及び共感度1102を前述の空間にプロットする。統計値は、最大値、最小値、及び平均値等が考えられる。 When there are a plurality of rows in which the identification information of the imitation action corresponding to the variable i is set, the learning module 104 plots the statistical value of the delay time 1104 and the sympathy 1102 of each row in the above-mentioned space. The statistical value may be a maximum value, a minimum value, an average value, or the like.

学習モジュール104は、読み出された全てのエントリについて(第2ステップ)の処理を実行する。これによって、グラフ1701が生成される。 The learning module 104 executes the process (second step) for all the read entries. As a result, graph 1701 is generated.

(第3ステップ)学習モジュール104は、(第2ステップ)の処理結果に基づいて最適遅延時間を算出する。算出方法としては、以下のような方法が考えられる。 (Third step) The learning module 104 calculates the optimum delay time based on the processing result of (second step). The following methods can be considered as the calculation method.

(方法1)学習モジュール104は、グラフ1701から共感度が最大となる遅延時間を最適遅延時間として算出する。 (Method 1) The learning module 104 calculates from the graph 1701 the delay time at which the sympathy is maximized as the optimum delay time.

(方法2)学習モジュール104は、共感度をy、遅延時間をxとし、未定の係数を含む関係式を設定し、最小二乗法に基づいて係数を決定する。学習モジュール104は、当該関係式を用いてyの値が最大となるxを算出する。関係式は、例えば、y=ax+bx+cを設定する。なお、共感度が最大となる遅延時間が、全ての遅延時間の最大値又は最小値と等しい場合、関係式としてy=ax+bを設定し、一定の範囲内でyが最大となるxを算出すればよい。 (Method 2) The learning module 104 sets the sympathy as y, the delay time as x, sets a relational expression including an undecided coefficient, and determines the coefficient based on the least squares method. The learning module 104 calculates x having the maximum value of y using the relational expression. For the relational expression, for example, y = ax 2 + bx + c is set. If the delay time at which the sympathy is maximized is equal to the maximum or minimum value of all delay times, set y = ax + b as the relational expression and calculate x at which y is maximum within a certain range. Just do it.

(第4ステップ)学習モジュール104は、最適遅延時間を用いて遅れ時間範囲を算出する。例えば、学習モジュール104は、最適遅延時間に0.95を乗算した値を範囲の最小値として算出し、最適遅延時間に1.05を乗算した値を範囲の最大値として算出する。また、別の方法としては、学習モジュール104は、グラフ1701に基づいて共感度が閾値より大きい範囲を算出する。 (Fourth step) The learning module 104 calculates the delay time range using the optimum delay time. For example, the learning module 104 calculates the optimum delay time multiplied by 0.95 as the minimum value of the range, and the optimum delay time multiplied by 1.05 as the maximum value of the range. Alternatively, the learning module 104 calculates a range in which the empathy is greater than the threshold based on graph 1701.

なお、前述した処理は一例であってこれに限定されない。例えば、エントリに含まれる模倣特徴量を用いた主成分分析等の多変量解析を実行してもよい。 The above-mentioned process is an example and is not limited to this. For example, multivariate analysis such as principal component analysis using the imitation features included in the entry may be performed.

なお、実施例2の学習処理は、実施例1にも適用できる。この場合、(第1ステップ)、(第2ステップ)、及び(第3ステップ)が実行される。学習モジュール104は、最適遅延時間を遅延時間603に設定する。以上がステップS402の処理の説明である。 The learning process of Example 2 can also be applied to Example 1. In this case, (first step), (second step), and (third step) are executed. The learning module 104 sets the optimum delay time to the delay time 603. The above is the description of the process of step S402.

次に、学習モジュール104は、学習処理の結果に基づいて遅延時間定義情報313を更新する(ステップS403)。 Next, the learning module 104 updates the delay time definition information 313 based on the result of the learning process (step S403).

具体的には、学習モジュール104は、変数iに対応する模倣アクションのエントリの遅延時間範囲1503に算出された最大値及び最小値を設定する。 Specifically, the learning module 104 sets the calculated maximum and minimum values in the delay time range 1503 of the entry of the imitation action corresponding to the variable i.

次に、学習モジュール104は、全ての模倣アクションについて処理が完了したか否かを判定する(ステップS404)。 Next, the learning module 104 determines whether or not the processing is completed for all the imitation actions (step S404).

全ての模倣アクションについて処理が完了していないと判定された場合、学習モジュール104は、変数iに「1」を加算し(ステップS405)、その後、ステップS402に戻る。 When it is determined that the processing is not completed for all the imitation actions, the learning module 104 adds "1" to the variable i (step S405), and then returns to step S402.

全ての模倣アクションについて処理が完了したと判定された場合、学習モジュール104は、発話内容の学習処理を実行する(ステップS406)。 When it is determined that the processing is completed for all the imitation actions, the learning module 104 executes the learning process of the utterance content (step S406).

具体的には、以下のような処理が実行される。 Specifically, the following processing is executed.

(第1ステップ)学習モジュール104は、出力履歴情報318から所定の数のエントリを読み出す。ここでは、新しい順に、すなわち、ID1101が大きい順に、所定の数のエントリが読み出される。なお、読み出すエントリの数は予め設定されており、適宜変更できる。 (First step) The learning module 104 reads a predetermined number of entries from the output history information 318. Here, a predetermined number of entries are read in ascending order, that is, in descending order of ID1101. The number of entries to be read is set in advance and can be changed as appropriate.

(第2ステップ)学習モジュール104は、読み出されたエントリの各々に含まれる行の中から、出力値1103に発話内容が設定された行を検索する。学習モジュール104は、検索された行の共感度1102及び発話内容を取得する。 (Second step) The learning module 104 searches for a line in which the utterance content is set in the output value 1103 from the lines included in each of the read entries. The learning module 104 acquires the sympathy 1102 and the utterance content of the searched line.

このとき、学習モジュール104は、検索された行に設定された発話内容をそのまま取得してもよいし、所定の文字数分の発話内容を取得してもよいし、また、特定の用語を含む発話内容を取得してもよい。検索された行に設定された発話内容をそのまま取得する場合、学習モジュール104は、文節毎に区切り、文節と共感度を対応付けたデータとして扱ってもよい。 At this time, the learning module 104 may acquire the utterance content set in the searched line as it is, may acquire the utterance content for a predetermined number of characters, or may acquire the utterance content including a specific term. You may get the contents. When the utterance content set in the searched line is acquired as it is, the learning module 104 may divide each phrase and treat it as data in which the phrase and the sympathy are associated with each other.

(第3ステップ)学習モジュール104は、共感度及び発話内容の関係性を算出する。学習モジュール104は、共感度が高い発話内容を言語データベースに格納する。このとき、特定の用語又は表現を含む文節のみを言語データベースに格納するようにしてもよい。また、学習モジュール104は、前述の関係性に基づいてアルゴリズムを修正してもよい。以上がステップS406の処理の説明である。 (Third step) The learning module 104 calculates the relationship between the empathy and the utterance content. The learning module 104 stores utterance contents with high empathy in a language database. At this time, only the clauses including a specific term or expression may be stored in the language database. Further, the learning module 104 may modify the algorithm based on the above-mentioned relationship. The above is the description of the process of step S406.

実施例2では、模倣情報算出モジュール101が実行する処理が一部異なる。具体的には、ステップS108において、模倣情報算出モジュール101は、遅延時間範囲1503に示された範囲内でランダムに遅延時間を決定する。模倣情報算出モジュール101は、追加された模倣情報312のエントリの遅延時間505に、決定された遅延時間を設定する。その他の処理は実施例1の処理と同一である。 In the second embodiment, the processing executed by the imitation information calculation module 101 is partially different. Specifically, in step S108, the imitation information calculation module 101 randomly determines the delay time within the range shown in the delay time range 1503. The imitation information calculation module 101 sets the determined delay time in the delay time 505 of the entry of the added imitation information 312. Other processing is the same as the processing of Example 1.

実施例2では、言語情報算出モジュール102が実行する処理が一部異なる。具体的には、ステップS208において、言語情報算出モジュール102は、更新された言語データベースに格納される発話内容を選択する。該当する発話内容が複数存在する場合、発話内容の類似度等に基づいて選択すればよい。その他の処理は実施例1の処理と同一である。 In the second embodiment, the processing executed by the language information calculation module 102 is partially different. Specifically, in step S208, the language information calculation module 102 selects the utterance content stored in the updated language database. When there are a plurality of applicable utterance contents, the selection may be made based on the similarity of the utterance contents and the like. Other processing is the same as the processing of Example 1.

実施例2の出力情報生成モジュール103が実行する処理は、実施例1の処理と同一である。 The process executed by the output information generation module 103 of the second embodiment is the same as the process of the first embodiment.

なお、出力情報316の履歴は、ユーザ単位で管理してもよい。この場合、出力履歴情報318にユーザの識別情報を格納するフィールドを設ければよい。これによって、対象のユーザに関連する出力情報316のみを用いた学習処理、及び対象のユーザ以外のユーザに関連する出力情報316を用いた学習処理を実行することができる。当該学習処理によって、ユーザ単位に模倣アクションの遅延時間を設定できる。 The history of the output information 316 may be managed on a user-by-user basis. In this case, the output history information 318 may be provided with a field for storing the user's identification information. Thereby, the learning process using only the output information 316 related to the target user and the learning process using the output information 316 related to the user other than the target user can be executed. By the learning process, the delay time of the imitation action can be set for each user.

実施例2によれば、学習処理によって遅延時間範囲又は遅延時間を更新することによって、より高い共感を誘起する対話を実現できる。また、遅延時間幅の中からランダムに遅延時間を選択することによって、自然かつ多様な出力アクションの実行が可能となるため、より高い共感を誘起し、持続的な対話及び多情報の対話を実現できる。 According to the second embodiment, the dialogue that induces higher empathy can be realized by updating the delay time range or the delay time by the learning process. In addition, by randomly selecting the delay time from the delay time width, it is possible to execute various output actions naturally, which induces higher empathy and realizes continuous dialogue and multi-information dialogue. it can.

実施例3では、計算機100が共感度を算出するための生体信号を取得し、共感度をリアルタイムに算出する。また、実施例3では、計算機100が、共感度に基づいて遅延時間を算出する。実施例1との差異を中心に、実施例3について説明する。 In the third embodiment, the computer 100 acquires a biological signal for calculating the sympathy and calculates the sympathy in real time. Further, in the third embodiment, the computer 100 calculates the delay time based on the sympathy. The third embodiment will be described with a focus on the differences from the first embodiment.

図18は、実施例3のシステムの構成例を示す図である。 FIG. 18 is a diagram showing a configuration example of the system of the third embodiment.

実施例3のシステムは生体信号を取得する計測装置を備える。具体的には、実施例3のシステムは、脳波活動計測装置1801、心拍計測装置1802、及び発汗量計測装置1803を備える。 The system of the third embodiment includes a measuring device that acquires a biological signal. Specifically, the system of the third embodiment includes an electroencephalogram activity measuring device 1801, a heart rate measuring device 1802, and a sweating amount measuring device 1803.

脳波活動計測装置1801は、脳波及び脳波血流等を示す生体信号を計測する。心拍計測装置1802は、心拍等を示す生体信号を計測する。発汗量計測装置1803は、発汗量を示す生体信号を計測する。なお、心拍計測装置1802及び発汗量計測装置1803は、自律神経活動の評価に用いる指標を計測する装置の一例であって、これに限定されない。 The electroencephalogram activity measuring device 1801 measures biological signals indicating brain waves, electroencephalogram blood flow, and the like. The heart rate measuring device 1802 measures a biological signal indicating a heart rate or the like. The sweating amount measuring device 1803 measures a biological signal indicating the sweating amount. The heart rate measuring device 1802 and the sweating amount measuring device 1803 are examples of devices for measuring an index used for evaluating autonomic nerve activity, and are not limited thereto.

また、実施例3の情報群105には、生体信号情報1900が含まれる。図19は、実施例3の計算機100が保持する生体信号情報1900のデータ構造の一例を示す図である。生体信号情報1900は、ID1901、信号名1902、取得時間1903、及びポインタ1904から構成されるエントリを含む。一つのエントリが一つの生体信号に対応する。 In addition, the information group 105 of Example 3 includes biological signal information 1900. FIG. 19 is a diagram showing an example of the data structure of the biological signal information 1900 held by the computer 100 of the third embodiment. The biological signal information 1900 includes an entry composed of an ID 1901, a signal name 1902, an acquisition time 1903, and a pointer 1904. One entry corresponds to one biological signal.

ID1901は、生体信号情報1900のエントリを一意に識別するための識別情報を格納するフィールドである。 ID1901 is a field for storing identification information for uniquely identifying the entry of the biological signal information 1900.

信号名1902は、生体信号の種別等を識別するための情報を格納するフィールドである。本実施例では、生体信号を計測した計測装置の名称が信号名1902に格納される。なお、生体信号に含まれるデータの種別が格納されてもよい。 The signal name 1902 is a field for storing information for identifying the type of biological signal and the like. In this embodiment, the name of the measuring device that measured the biological signal is stored in the signal name 1902. The type of data included in the biological signal may be stored.

取得時間1903は、生体信号の取得時間を格納するフィールドである。取得時間1903には、例えば、生体信号の計測の開始時間を基準とした時間が格納される。 The acquisition time 1903 is a field for storing the acquisition time of the biological signal. In the acquisition time 1903, for example, a time based on the start time of measurement of the biological signal is stored.

ポインタ1904は、取得された生体信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ1904の代わりに、取得された生体信号を格納するフィールドを設けてもよい。 The pointer 1904 is a field for storing a pointer of a storage area in which the acquired biological signal is stored. In addition, instead of the pointer 1904, a field for storing the acquired biological signal may be provided.

実施例3では、情報群105に含まれる情報のうち出力情報316が一部異なる。図20は、実施例3の出力情報316のデータ構造の一例を示す図である。 In the third embodiment, the output information 316 is partially different from the information included in the information group 105. FIG. 20 is a diagram showing an example of the data structure of the output information 316 of the third embodiment.

実施例3の出力情報316に含まれるエントリは、共感度2001を含む。共感度2001は、生体信号を用いて算出された共感度を格納するフィールドである。 The entries included in the output information 316 of Example 3 include sympathy 2001. The sympathy 2001 is a field for storing the sympathy calculated using the biological signal.

実施例3では、模倣情報算出モジュール101が実行する処理が一部異なる。図21A及び図21Bは、実施例3の模倣情報算出モジュール101が実行する処理を説明するフローチャートである。 In the third embodiment, the processing executed by the imitation information calculation module 101 is partially different. 21A and 21B are flowcharts illustrating the processing executed by the imitation information calculation module 101 of the third embodiment.

模倣情報算出モジュール101は、イベントが発生したと判定された場合、対話信号とともに、生体信号を取得する(ステップS151)。 When it is determined that the event has occurred, the imitation information calculation module 101 acquires a biological signal together with the dialogue signal (step S151).

このとき、模倣情報算出モジュール101は、取得した生体信号を記憶領域に格納する。模倣情報算出モジュール101は、生体信号情報1900を初期化し、取得された生体信号の数だけ生体信号情報1900にエントリを追加する。模倣情報算出モジュール101は、追加されたエントリの各フィールドに値を設定する。 At this time, the imitation information calculation module 101 stores the acquired biological signal in the storage area. The imitation information calculation module 101 initializes the biological signal information 1900, and adds entries to the biological signal information 1900 by the number of acquired biological signals. The imitation information calculation module 101 sets a value in each field of the added entry.

次に、模倣情報算出モジュール101は、生体信号を用いて共感度を算出する(ステップS152)。 Next, the imitation information calculation module 101 calculates the sympathy using the biological signal (step S152).

例えば、模倣情報算出モジュール101は、発汗量計測装置1803から発汗量を示す生体信号を取得した場合、単位時間当たりの発汗量を算出する。発汗量が多い場合、自律神経活動のうち交感神経活動が亢進していることを示し、発汗量が少ない場合、交感神経活動が抑制されていることを示す。そこで、模倣情報算出モジュール101は、発汗量を変数とする数式に基づいて共感度を算出する。交感神経活動が抑制されている場合、ユーザはリラックスした状態であることを示すため共感度は大きい値となる。 For example, the imitation information calculation module 101 calculates the amount of sweating per unit time when a biological signal indicating the amount of sweating is acquired from the sweating amount measuring device 1803. When the amount of sweating is large, it indicates that the sympathetic nerve activity is enhanced among the autonomic nerve activities, and when the amount of sweating is small, it indicates that the sympathetic nerve activity is suppressed. Therefore, the imitation information calculation module 101 calculates the sympathy based on a mathematical formula in which the amount of sweating is a variable. When sympathetic nerve activity is suppressed, the empathy is high because it indicates that the user is in a relaxed state.

模倣情報算出モジュール101は、複数種類の生体信号を取得した場合、種類が異なる生体信号の各々から共感度を算出するための指標を算出し、当該指標を変数とする数式に基づいて共感度を算出する。なお、指標は安静時の生体信号を用いて規格化された値でもよい。例えば、心拍動間隔及び発汗量を示す生体信号を取得した場合、それぞれの指標を算出し、基準値からの変化率を算出し、さらに、変化率の平均値を共感度として算出する。なお、基準値は、安静時に取得された生体信号を用いて算出された単位時間当たりの生体信号の値の平均値を用いることが考えられる。 When a plurality of types of biological signals are acquired, the imitation information calculation module 101 calculates an index for calculating sympathy from each of the different types of biological signals, and calculates the sympathy based on a mathematical formula using the index as a variable. calculate. The index may be a value standardized using a biological signal at rest. For example, when a biological signal indicating a heartbeat interval and a sweating amount is acquired, each index is calculated, the rate of change from the reference value is calculated, and the average value of the rate of change is calculated as sympathy. As the reference value, it is conceivable to use the average value of the biological signal values per unit time calculated using the biological signal acquired at rest.

なお、同一種類の生体信号を取得する計測装置が複数存在する場合、各種類の生体信号から算出された指標の平均値を用いればよい。 When there are a plurality of measuring devices that acquire the same type of biological signal, the average value of the indexes calculated from each type of biological signal may be used.

ステップS107の処理が実行された後、模倣情報算出モジュール101は、遅延時間を設定する(ステップS153)。具体的には、以下のような処理が実行される。 After the process of step S107 is executed, the imitation information calculation module 101 sets the delay time (step S153). Specifically, the following processing is executed.

模倣情報算出モジュール101は、遅延時間定義情報313を参照し、模倣特徴量種別602が変数jに対応する種別と一致するエントリを検索する。模倣情報算出モジュール101は、検索されたエントリの遅延時間603から値を取得する。 The imitation information calculation module 101 refers to the delay time definition information 313 and searches for an entry in which the imitation feature amount type 602 matches the type corresponding to the variable j. The counterfeit information calculation module 101 acquires a value from the delay time 603 of the searched entry.

模倣情報算出モジュール101は、共感度及び遅延時間を変数とする数式を用いて、設定する遅延時間を算出する。 The imitation information calculation module 101 calculates the delay time to be set by using a mathematical formula in which the sympathy and the delay time are variables.

模倣情報算出モジュール101は、ステップS107において追加された模倣情報312のエントリの遅延時間505に算出された遅延時間を設定する。また、模倣情報算出モジュール101は、遅延時間定義情報313から検索されたエントリの遅延時間603に算出された遅延時間を設定する。 The imitation information calculation module 101 sets the calculated delay time in the delay time 505 of the entry of the imitation information 312 added in step S107. Further, the imitation information calculation module 101 sets the delay time calculated in the delay time 603 of the entry searched from the delay time definition information 313.

なお、模倣情報算出モジュール101は、出力履歴情報318を参照し、共感度1102の値が算出された共感度より大きいエントリの中から、最も共感度が大きいエントリを検索し、検索されたエントリの遅延時間1104の値を遅延時間505として設定してもよい。 The imitation information calculation module 101 refers to the output history information 318, searches for the entry having the highest sympathy from the entries in which the value of the sympathy 1102 is larger than the calculated sympathy, and finds the searched entry. The value of the delay time 1104 may be set as the delay time 505.

なお、共感度を算出する場合に、対話信号を用いてもよい。この場合、ステップS152の処理は、ステップS107の処理の後に実行される。以上がステップS153の処理の説明である。 An interactive signal may be used when calculating the sympathy. In this case, the process of step S152 is executed after the process of step S107. The above is the description of the process of step S153.

なお、模倣情報算出モジュール101は、一定期間分の生体信号及び対話信号を取得し、学習モジュール104に学習処理の実行を指示してもよい。この場合、時間間隔が短い学習処理が実行される。模倣情報算出モジュール101は、学習モジュール104が算出した最適遅延時間を設定する。 The imitation information calculation module 101 may acquire biological signals and dialogue signals for a certain period of time, and may instruct the learning module 104 to execute the learning process. In this case, the learning process with a short time interval is executed. The imitation information calculation module 101 sets the optimum delay time calculated by the learning module 104.

ステップS101からステップS107までの処理、及びステップS109からステップS112までの処理は、実施例1で説明した処理と同一である。 The processing from step S101 to step S107 and the processing from step S109 to step S112 are the same as the processing described in the first embodiment.

本実施例では、生体信号を用いて共感度を算出しているが、対話信号を用いて共感度を算出してもよい。例えば、模倣情報算出モジュール101は、顔画像を分析し、ユーザの眉、眼、口等の特徴量を算出し、当該特徴量からユーザの表情を評価することによって同様の指標を算出できる。 In this embodiment, the sympathy is calculated using the biological signal, but the sympathy may be calculated using the dialogue signal. For example, the imitation information calculation module 101 can calculate a similar index by analyzing a face image, calculating feature amounts of the user's eyebrows, eyes, mouth, etc., and evaluating the user's facial expression from the feature amounts.

言語情報算出モジュール102が実行する処理は、実施例1の処理と同一である。出力情報生成モジュール103が実行する処理は、ステップS302の処理及びステップS306の処理が一部異なる。その他のステップの処理は、実施例1の処理と同一である。 The process executed by the language information calculation module 102 is the same as the process of the first embodiment. The processing executed by the output information generation module 103 is partially different from the processing in step S302 and the processing in step S306. The processing of the other steps is the same as the processing of the first embodiment.

ステップS302では、出力情報生成モジュール103は、出力情報316にエントリを追加した後、追加されたエントリの共感度2001にステップS152において算出された共感度を設定する。その他の処理は実施例1と同一の処理である。 In step S302, the output information generation module 103 adds an entry to the output information 316, and then sets the sympathy 2001 of the added entry to the sympathy calculated in step S152. Other processes are the same as those in Example 1.

ステップS306では、出力情報生成モジュール103は、出力履歴情報318に追加されたエントリの共感度1102にステップS152において算出された共感度を設定する。その他の処理は実施例1と同一の処理である。 In step S306, the output information generation module 103 sets the sympathy 1102 of the entry added to the output history information 318 to the sympathy calculated in step S152. Other processes are the same as those in Example 1.

実施例3によれば、リアルタイムに算出された共感度に基づいて遅延時間を設定することによって、より高い共感を誘起する対話を実現できる。 According to the third embodiment, by setting the delay time based on the empathy calculated in real time, it is possible to realize a dialogue that induces higher empathy.

実施例4では、計算機100は、出力アクションを実行する対話インタフェースを制御する情報として遅延時間及び出力条件情報317を用いる。実施例1との差異を中心に、実施例4について説明する。 In the fourth embodiment, the computer 100 uses the delay time and the output condition information 317 as the information for controlling the interactive interface for executing the output action. The fourth embodiment will be described with a focus on the differences from the first embodiment.

実施例4のシステム構成は実施例1のシステム構成と同一である。実施例4の計算機100の構成は実施例1の計算機100の構成と同一である。実施例4の計算機100が保持する情報は、実施例1の計算機100が保持する情報と同一である。 The system configuration of the fourth embodiment is the same as the system configuration of the first embodiment. The configuration of the computer 100 of the fourth embodiment is the same as the configuration of the computer 100 of the first embodiment. The information held by the computer 100 of the fourth embodiment is the same as the information held by the computer 100 of the first embodiment.

実施例4の模倣情報算出モジュール101及び言語情報算出モジュール102が実行する処理は、実施例1の処理と同一である。 The processing executed by the imitation information calculation module 101 and the language information calculation module 102 of the fourth embodiment is the same as the processing of the first embodiment.

実施例4では、出力情報生成モジュール103が実行する処理が一部異なる。具体的にはステップS304及びステップS305の処理が異なる。 In the fourth embodiment, the processing executed by the output information generation module 103 is partially different. Specifically, the processes of step S304 and step S305 are different.

出力情報生成モジュール103は、出力情報316から遅延時間903がタイマの値以上のエントリを検索する。また、出力情報生成モジュール103は、出力条件情報317を参照し、模倣特徴量及び発話内容等に基づいて、条件1003に現在の状態に該当するエントリを検索する。 The output information generation module 103 searches the output information 316 for entries whose delay time 903 is equal to or greater than the value of the timer. Further, the output information generation module 103 refers to the output condition information 317 and searches for an entry corresponding to the current state under the condition 1003 based on the imitation feature amount, the utterance content, and the like.

二つの検索処理の少なくともいずれかに該当するエントリが存在する場合、出力情報生成モジュール103は、条件を満たす出力アクションが存在すると判定する。 When an entry corresponding to at least one of the two search processes exists, the output information generation module 103 determines that an output action satisfying the condition exists.

ステップS305では、出力情報生成モジュール103は、二つの検索処理によって取得した遅延時間903及び条件1003に基づいて、対話インタフェースの制御タイミングを調整する。二つの検索処理のそれぞれからエントリが検索された場合、優先順位に基づいて対話インタフェースが制御される。 In step S305, the output information generation module 103 adjusts the control timing of the interactive interface based on the delay time 903 and the condition 1003 acquired by the two search processes. When an entry is searched from each of the two search processes, the interactive interface is controlled based on the priority.

実施例4によれば、計算機100は、遅延時間及び出力条件に基づいて出力アクションの実行を制御することによって、多様な出力アクションの実行が可能となる。したがって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。 According to the fourth embodiment, the computer 100 can execute various output actions by controlling the execution of the output actions based on the delay time and the output conditions. Therefore, it is possible to induce user empathy and realize continuous dialogue and multi-information dialogue.

実施例5では、各実施例において、計算機100に対する設定を行うためのGUI(Graphical User Interface)について説明する。 In the fifth embodiment, a GUI (Graphical User Interface) for making settings for the computer 100 will be described in each embodiment.

図22及び図23は、実施例5の計算機100に対する設定を行うためのGUIの一例を示す図である。 22 and 23 are diagrams showing an example of a GUI for making settings for the computer 100 of the fifth embodiment.

図22に示すGUI2200は、情報の設定を行うためのGUIであり、対話特徴量設定欄2210、模倣特徴量設定欄2220、条件設定欄2230、学習処理設定欄2240、生体信号設定欄2250、共感度評価設定欄2260、遅延時間の設定ボタン2270、及び保存ボタン2275を含む。 The GUI 2200 shown in FIG. 22 is a GUI for setting information, and includes an interactive feature amount setting field 2210, a mimicking feature amount setting field 2220, a condition setting field 2230, a learning process setting field 2240, a biological signal setting field 2250, and empathy. It includes a degree evaluation setting field 2260, a delay time setting button 2270, and a save button 2275.

対話特徴量設定欄2210は、対話特徴量を設定するための欄であり、設定数表示欄2211、ラジオボタン2212、及び設定フィールド群2213を含む。対話特徴量設定欄2210に値を入力することによって、算出する対話データ及び対話特徴量を計算機100に設定できる。 The dialogue feature amount setting field 2210 is a field for setting the dialogue feature amount, and includes a set number display field 2211, a radio button 2212, and a setting field group 2213. By inputting a value in the dialogue feature amount setting field 2210, the dialogue data to be calculated and the dialogue feature amount can be set in the computer 100.

設定数表示欄2211は、設定された対話特徴量の種類の数を表示する欄である。 The set number display field 2211 is a field for displaying the number of types of set dialogue features.

ラジオボタン2212は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン2212を操作することによって、設定フィールド群2213への入力が可能となる。 The radio button 2212 is a button operated when setting the dialogue feature amount. By operating the radio button 2212, it is possible to input to the setting field group 2213.

設定フィールド群2213は、対話信号の種別、対話データの種別、及び対話特徴量の種別を設定するフィールドを含む。なお、設定フィールド群2213には他のフィールドが含まれてもよい。 The setting field group 2213 includes a field for setting the type of the dialogue signal, the type of the dialogue data, and the type of the dialogue feature amount. The setting field group 2213 may include other fields.

模倣特徴量設定欄2220は、模倣特徴量を設定するための欄であり、設定数表示欄2221、ラジオボタン2222、及び設定フィールド群2223を含む。模倣特徴量設定欄2220に値を入力することによって、算出する模倣特徴量、及び模倣アクションに対応する遅延時間を設定できる。 The imitation feature amount setting field 2220 is a column for setting the imitation feature amount, and includes a set number display field 2221, a radio button 2222, and a setting field group 2223. By inputting a value in the imitation feature amount setting field 2220, the imitation feature amount to be calculated and the delay time corresponding to the imitation action can be set.

設定数表示欄2221は、設定された模倣特徴量の種類の数を表示する欄である。 The set number display column 2221 is a column for displaying the number of types of set imitation feature quantities.

ラジオボタン2222は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン2222を操作することによって、設定フィールド群2223への入力が可能となる。 The radio button 2222 is a button operated when setting the dialogue feature amount. By operating the radio button 2222, it is possible to input to the setting field group 2223.

設定フィールド群2223は、模倣特徴量の種別、対話特徴量の種別、及び遅延時間を設定するフィールドを含む。なお、設定フィールド群2223には他のフィールドが含まれてもよい。設定フィールド群2223に含まれる遅延時間は、遅延時間定義情報313に設定される。 The setting field group 2223 includes fields for setting the type of imitation feature amount, the type of dialogue feature amount, and the delay time. The setting field group 2223 may include other fields. The delay time included in the setting field group 2223 is set in the delay time definition information 313.

設定フィールド群2223に含まれる遅延時間のフィールドには、後述するGUI2300を用いて算出された最適遅延時間又は遅延時間範囲が設定される。なお、遅延時間のフィールドには、専門家が手動で値を設定してもよい。 The optimum delay time or delay time range calculated by using GUI2300, which will be described later, is set in the delay time field included in the setting field group 2223. An expert may manually set a value in the delay time field.

条件設定欄2230は、模倣特徴量の条件を設定するための欄であり、設定数表示欄2231、ラジオボタン2232、及び設定フィールド群2233を含む。条件設定欄2230に値を入力することによって、出力条件情報317を設定できる。 The condition setting field 2230 is a field for setting the condition of the imitation feature amount, and includes the set number display field 2231, the radio button 2232, and the setting field group 2233. The output condition information 317 can be set by inputting a value in the condition setting field 2230.

設定数表示欄2231は、設定される条件の数を表示する欄である。 The set number display field 2231 is a field for displaying the number of set conditions.

ラジオボタン2232は、条件を設定する場合に操作されるボタンである。ラジオボタン2232を操作することによって、設定フィールド群2233への入力が可能となる。 The radio button 2232 is a button operated when setting a condition. By operating the radio button 2232, it is possible to input to the setting field group 2233.

設定フィールド群2233は、模倣特徴量種別及び条件を含む。なお、設定フィールド群2233には他のフィールドが含まれてもよい。 The setting field group 2233 includes the imitation feature amount type and the condition. The setting field group 2233 may include other fields.

学習処理設定欄2240は、遅延時間の学習方法を設定する欄であり、設定表示欄2241及び設定ラジオボタン群を含む。学習処理設定欄2240に値を入力することによって、学習方法を設定できる。 The learning process setting field 2240 is a field for setting a learning method for the delay time, and includes a setting display field 2241 and a set radio button group. The learning method can be set by inputting a value in the learning process setting field 2240.

本実施例では、学習データの有無を選択するラジオボタン、及び使用する学習データを選択するラジオボタンが含まれる。設定表示欄2241には、設定ラジオボタン群の操作結果が表示される。 In this embodiment, a radio button for selecting the presence or absence of learning data and a radio button for selecting the learning data to be used are included. The operation result of the setting radio button group is displayed in the setting display field 2241.

生体信号設定欄2250は、生体信号及び指標を設定するための欄であり、設定数表示欄2251、ラジオボタン2252、及び設定フィールド群2253を含む。生体信号設定欄2250に値を入力することによって、計測する生体信号及び算出する指標を設定できる。 The biological signal setting field 2250 is a field for setting a biological signal and an index, and includes a set number display field 2251, a radio button 2252, and a setting field group 2253. By inputting a value in the biological signal setting field 2250, the biological signal to be measured and the index to be calculated can be set.

設定数表示欄2251は、設定された生体信号の種類の数を表示する欄である。 The set number display field 2251 is a field for displaying the number of set types of biological signals.

ラジオボタン2252は、生体信号を設定する場合に操作されるボタンである。ラジオボタン2252を操作することによって、設定フィールド群2253への入力が可能となる。 The radio button 2252 is a button operated when setting a biological signal. By operating the radio button 2252, it is possible to input to the setting field group 2253.

設定フィールド群2253は、生体信号種別、活動、及び指標を設定するフィールドを含む。活動は、生体信号種別に対応する生体信号に基づいて評価する活動の識別情報を格納するフィールドである。指標は、活動と指標の関係性を設定するフィールドである。なお、設定フィールド群2253には他のフィールドが含まれてもよい。 The setting field group 2253 includes fields for setting the biological signal type, activity, and index. The activity is a field for storing identification information of the activity to be evaluated based on the biological signal corresponding to the biological signal type. An index is a field that sets the relationship between an activity and an index. The setting field group 2253 may include other fields.

共感度評価設定欄2260は、共感度を算出する時に使用する指標を設定するための欄であり、設定表示欄2261及び設定ラジオボタン群を含む。共感度評価設定欄2260に値を入力することによって、共感度をリアルタイムに算出するか否かを設定できる。 The sympathy evaluation setting field 2260 is a field for setting an index used when calculating the sympathy, and includes a setting display field 2261 and a set radio button group. By inputting a value in the sympathy evaluation setting field 2260, it is possible to set whether or not to calculate the sympathy in real time.

本実施例では、共感度をリアルタイムに評価するか否かを選択するラジオボタン、及び評価時に使用する生体信号を選択するラジオボタンが含まれる。設定表示欄2261には、設定ラジオボタン群の操作結果が表示される。 In this embodiment, a radio button for selecting whether or not to evaluate the sympathy in real time and a radio button for selecting a biological signal to be used at the time of evaluation are included. The operation result of the setting radio button group is displayed in the setting display field 2261.

遅延時間の設定ボタン2270は、学習処理の実行を指示するためのボタンである。当該ボタンが操作された場合、学習モジュール104が図16に示す処理を実行し、処理結果を図23に示すGUI2300として表示する。 The delay time setting button 2270 is a button for instructing the execution of the learning process. When the button is operated, the learning module 104 executes the process shown in FIG. 16 and displays the process result as the GUI 2300 shown in FIG.

保存ボタン2275は、各設定欄の入力を保存する場合に操作されるボタンである。 The save button 2275 is a button operated when saving the input of each setting field.

なお、GUI2200は、表示モード及び編集モードを切り替えるボタンを含んでもよい。 The GUI 2200 may include a button for switching between a display mode and an edit mode.

図23に示すGUI2300は、学習処理に基づいて遅延時間又は遅延時間幅を設定するためのGUIであり、模倣特徴量種別選択欄2301、最適遅延時間表示欄2302、遅延時間範囲表示欄2303、グラフ表示欄2304、設定表示欄2305、フィッティング方法設定欄2306、設定表示欄2307、学習データ選択欄2308、設定表示欄2309、算出方法設定欄2310、設定表示欄2311、遅延時間範囲算出方法設定欄2312、及び戻りボタン2313を含む。 The GUI 2300 shown in FIG. 23 is a GUI for setting a delay time or a delay time width based on a learning process, and is a mimicry feature amount type selection field 2301, an optimum delay time display field 2302, a delay time range display field 2303, and a graph. Display field 2304, setting display field 2305, fitting method setting field 2306, setting display field 2307, learning data selection field 2308, setting display field 2309, calculation method setting field 2310, setting display field 2311, delay time range calculation method setting field 2312 , And a return button 2313.

模倣特徴量種別選択欄2301は、学習する模倣アクションに対応する模倣特徴量を選択する欄である。 The imitation feature amount type selection column 2301 is a column for selecting the imitation feature amount corresponding to the imitation action to be learned.

最適遅延時間表示欄2302は、学習処理によって算出された最適遅延時間を表示する欄である。 The optimum delay time display column 2302 is a column for displaying the optimum delay time calculated by the learning process.

遅延時間範囲表示欄2303は、学習処理によって算出された遅延時間範囲を表示する欄である。 The delay time range display column 2303 is a column for displaying the delay time range calculated by the learning process.

グラフ表示欄2304は、遅延時間及び共感度の関係性を示すグラフを表示する欄である。 The graph display column 2304 is a column for displaying a graph showing the relationship between the delay time and the sympathy.

設定表示欄2305は、フィッティング方法設定欄2306の操作結果を表示する欄である。 The setting display field 2305 is a field for displaying the operation result of the fitting method setting field 2306.

フィッティング方法設定欄2306は、フィッティング方法を設定するための欄である。フィッティング方法設定欄2306には、フィッティング方法を選択するためのラジオボタン群が含まれる。 The fitting method setting field 2306 is a field for setting the fitting method. The fitting method setting field 2306 includes a group of radio buttons for selecting a fitting method.

設定表示欄2307は、学習データ選択欄2308の操作結果を表示する欄である。 The setting display field 2307 is a field for displaying the operation result of the learning data selection field 2308.

学習データ選択欄2308は、学習に使用するデータを選択するための欄である。学習データ選択欄2308には、個人データ又は集団データのいずれかを選択するラジオボタンが含まれる。 The learning data selection field 2308 is a field for selecting data to be used for learning. The training data selection field 2308 includes a radio button for selecting either personal data or group data.

設定表示欄2309は、算出方法設定欄2310の操作結果を表示する欄である。 The setting display field 2309 is a field for displaying the operation result of the calculation method setting field 2310.

算出方法設定欄2310は、最適遅延時間の算出方法を設定する欄である。算出方法設定欄2310は、最適遅延時間を算出するか否かを選択するラジオボタン、及び最適遅延時間の算出基準を選択するラジオボタンを含む。 The calculation method setting column 2310 is a column for setting the calculation method of the optimum delay time. The calculation method setting field 2310 includes a radio button for selecting whether or not to calculate the optimum delay time, and a radio button for selecting the calculation standard for the optimum delay time.

設定表示欄2311は、遅延時間範囲算出方法設定欄2312の操作結果を表示する欄である。算出基準には最大値及び最小値が表示される。 The setting display field 2311 is a field for displaying the operation result of the delay time range calculation method setting field 2312. The maximum value and the minimum value are displayed in the calculation standard.

遅延時間範囲算出方法設定欄2312は、遅延時間範囲の算出方法を設定する欄である。遅延時間範囲算出方法設定欄2312は、遅延時間範囲を算出するか否かを選択するラジオボタン、及び遅延時間の算出基準を選択するラジオボタンを含む。算出基準には割合及び閾値が表示される。なお、割合及び閾値に設定する値は変更することができる。 The delay time range calculation method setting column 2312 is a column for setting the delay time range calculation method. The delay time range calculation method setting field 2312 includes a radio button for selecting whether or not to calculate the delay time range, and a radio button for selecting a delay time calculation standard. Percentages and thresholds are displayed in the calculation criteria. The values set for the ratio and the threshold value can be changed.

戻りボタン2313は、GUI2200に切り替えるためのボタンである。 The return button 2313 is a button for switching to the GUI 2200.

GUI2200及びGUI2300を用いることによって、対話特徴量、模倣特徴量、及び生体信号等の遅延時間を設定するために必要な情報を容易に設定でき、また、設定した値の確認及び変更が容易にできる。 By using GUI2200 and GUI2300, it is possible to easily set the information necessary for setting the delay time such as the dialogue feature amount, the imitation feature amount, and the biological signal, and it is possible to easily confirm and change the set value. ..

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 The present invention is not limited to the above-mentioned examples, and includes various modifications. Further, for example, the above-described embodiment describes the configuration in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add, delete, or replace a part of the configuration of the embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるCPUが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. The present invention can also be realized by a program code of software that realizes the functions of the examples. In this case, a storage medium in which the program code is recorded is provided to the computer, and the CPU included in the computer reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code itself constitute the present invention. Examples of the storage medium for supplying such a program code include a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, and a magnetic tape. Non-volatile memory cards, ROMs, etc. are used.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 In addition, the program code that realizes the functions described in this embodiment can be implemented in a wide range of programs or script languages such as assembler, C / C ++, perl, Shell, PHP, and Java (registered trademark).

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるCPUが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Further, by distributing the program code of the software that realizes the functions of the examples via the network, it is stored in a storage means such as a hard disk or memory of a computer or a storage medium such as a CD-RW or a CD-R. The CPU provided in the computer may read and execute the program code stored in the storage means or the storage medium.

上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above-described embodiment, the control lines and information lines show what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. All configurations may be interconnected.

100 計算機
101 模倣情報算出モジュール
102 言語情報算出モジュール
103 出力情報生成モジュール
104 学習モジュール
110 対話信号計測装置
120 言語信号計測装置
130 表示装置
140 対話出力装置
150 入力装置
154 遅延時間
301 演算装置
302 記憶装置
303 入力インタフェース
304 出力インタフェース
311 対話信号情報
312 模倣情報
313 遅延時間定義情報
314 言語信号情報
315 発話情報
316 出力情報
317 出力条件情報
318 出力履歴情報
1801 脳波活動計測装置
1802 心拍計測装置
1803 発汗量計測装置
1900 生体信号情報
100 Computer 101 Counterfeit information calculation module 102 Language information calculation module 103 Output information generation module 104 Learning module 110 Dialogue signal measurement device 120 Language signal measurement device 130 Display device 140 Dialogue output device 150 Input device 154 Delay time 301 Calculation device 302 Storage device 303 Input interface 304 Output interface 311 Dialogue signal information 312 Imitation information 313 Delay time definition information 314 Language signal information 315 Speech information 316 Output information 317 Output condition information 318 Output history information 1801 Brain wave activity measuring device 1802 Heart rate measuring device 1803 Sweat amount measuring device 1900 Biosignal information

Claims (13)

ユーザとの対話を行う対話インタフェースを提供する対話システムであって、
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、
前記記憶装置は、前記対話インタフェースが前記ユーザに対して行う応答アクションの種別と、前記応答アクションの制御のタイミングを調整する制御時間の設定可能な範囲を示す設定範囲と、から構成されるエントリを含む制御時間定義情報を保持し、
前記演算装置は、
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、
前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、
前記制御時間定義情報を参照し、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出し、
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。
An interactive system that provides an interactive interface for interacting with users.
The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
The storage device contains an entry composed of a type of response action performed by the dialogue interface to the user and a setting range indicating a settable range of a control time for adjusting the control timing of the response action. Holds control time definition information including
The arithmetic unit
Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
Based on the first feature amount, it calculates a second characteristic quantity which is a control value of the response actions,
With reference to the control time definition information , a random control time is calculated based on the setting range corresponding to the type of the response action.
A dialogue system characterized in that the dialogue interface is controlled based on the second feature amount and the control time.
請求項1に記載の対話システムであって、 The dialogue system according to claim 1.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記演算装置は、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 The arithmetic unit is a dialogue system characterized in that the dialogue interface is controlled based on the second feature quantity, the control time, and the condition information.
ユーザとの対話を行う対話インタフェースを提供する対話システムであって、 An interactive system that provides an interactive interface for interacting with users.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記記憶装置は、 The storage device is
前記対話インタフェースが前記ユーザに対して行う応答アクションの種別毎に設定される、前記応答アクションの制御のタイミングを調整する制御時間を管理する制御時間定義情報と、 Control time definition information for managing the control time for adjusting the control timing of the response action, which is set for each type of the response action performed by the dialogue interface for the user, and
前記対話インタフェースが行った前記応答アクションの履歴を管理する履歴情報と、 History information that manages the history of the response actions performed by the dialogue interface, and
を保持し、 Hold,
前記履歴情報は、前記応答アクションの有効性を示す指標を含み、 The historical information includes an index indicating the effectiveness of the response action.
前記演算装置は、 The arithmetic unit
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action, is calculated.
前記制御時間定義情報に基づいて、前記応答アクションの種別に応じた前記制御時間を算出し、 Based on the control time definition information, the control time according to the type of the response action is calculated.
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御し、 The dialogue interface is controlled based on the second feature amount and the control time.
さらに、前記演算装置は、 Further, the arithmetic unit is
前記履歴情報を参照して、前記指標及び前記制御時間の関係性を分析し、 With reference to the history information, the relationship between the index and the control time is analyzed.
前記分析の結果に基づいて、前記制御時間定義情報を更新することを特徴とする対話システム。 An interactive system characterized in that the control time definition information is updated based on the result of the analysis.
請求項3に記載の対話システムであって、 The dialogue system according to claim 3.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記演算装置は、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 The arithmetic unit is a dialogue system characterized in that the dialogue interface is controlled based on the second feature quantity, the control time, and the condition information.
ユーザとの対話を行う対話インタフェースを提供する対話システムであって、 An interactive system that provides an interactive interface for interacting with users.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記演算装置は、 The arithmetic unit
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action performed by the dialogue interface to the user, is calculated.
前記計測装置が計測した信号に基づいて、前記応答アクションの有効性を示す指標を算出し、 Based on the signal measured by the measuring device, an index indicating the effectiveness of the response action is calculated.
前記第1特徴量及び前記指標に基づいて、前記応答アクションの制御のタイミングを調整する制御時間を算出し、 Based on the first feature amount and the index, the control time for adjusting the control timing of the response action is calculated.
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 A dialogue system characterized in that the dialogue interface is controlled based on the second feature amount and the control time.
ユーザとの対話を行う対話インタフェースを提供する対話システムであって、 An interactive system that provides an interactive interface for interacting with users.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記演算装置は、 The arithmetic unit
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action performed by the dialogue interface to the user, is calculated.
前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出し、 A control time for adjusting the control timing of the response action is calculated according to the type of the response action.
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御し、 The dialogue interface is controlled based on the second feature amount and the control time.
前記応答アクションは、前記ユーザのアクションを模倣するアクションであり、 The response action is an action that imitates the action of the user.
前記制御時間は、遅延時間であることを特徴とする対話システム。 The dialogue system, wherein the control time is a delay time.
ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、 A method of controlling a dialogue system that provides a dialogue interface for interacting with a user.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記記憶装置は、前記対話インタフェースが前記ユーザに対して行う応答アクションの種別と、前記応答アクションの制御のタイミングを調整する制御時間の設定可能な範囲を示す設定範囲と、から構成されるエントリを含む制御時間定義情報を保持し、 The storage device contains an entry composed of a type of response action performed by the dialogue interface to the user and a setting range indicating a settable range of a control time for adjusting the control timing of the response action. Holds control time definition information including
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of the response action, based on the first feature amount.
前記演算装置が、前記応答アクションの種別に応じて、前記制御時間を算出する第3のステップと、 A third step in which the arithmetic unit calculates the control time according to the type of the response action, and
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、を含み、 The arithmetic unit includes a fourth step of controlling the interactive interface based on the second feature amount and the control time.
前記第3のステップは、前記演算装置が、前記制御時間定義情報を参照し、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出するステップを含むことを特徴とする対話システムの制御方法。 The third step is characterized in that the arithmetic unit includes a step of calculating a random control time based on the setting range corresponding to the type of the response action by referring to the control time definition information. How to control the interactive system.
請求項7に記載の対話システムの制御方法であって、 The control method of the dialogue system according to claim 7.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記第4のステップは、前記演算装置が、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御するステップを含むことを特徴とする対話システムの制御方法。 The fourth step is a control method of a dialogue system, wherein the arithmetic unit includes a step of controlling the dialogue interface based on the second feature amount, the control time, and the condition information.
ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、 A method of controlling a dialogue system that provides a dialogue interface for interacting with a user.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記記憶装置は、 The storage device is
前記対話インタフェースが前記ユーザに対して行う応答アクションの種別毎に設定される、前記応答アクションの制御のタイミングを調整する制御時間を管理する制御時間定義情報と、 Control time definition information for managing the control time for adjusting the control timing of the response action, which is set for each type of the response action performed by the dialogue interface for the user, and
前記対話インタフェースが行った前記応答アクションの履歴を管理する履歴情報と、 History information that manages the history of the response actions performed by the dialogue interface, and
を保持し、 Hold,
前記履歴情報は、前記応答アクションの有効性を示す指標を含み、 The historical information includes an index indicating the effectiveness of the response action.
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of the response action, based on the first feature amount.
前記演算装置が、前記制御時間定義情報に基づいて、前記応答アクションの種別に応じた前記制御時間を算出する第3のステップと、 A third step in which the arithmetic unit calculates the control time according to the type of the response action based on the control time definition information.
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、 A fourth step in which the arithmetic unit controls the interactive interface based on the second feature amount and the control time.
前記演算装置が、前記履歴情報を参照して、前記指標及び前記制御時間の関係性を分析する第5のステップと、 A fifth step in which the arithmetic unit analyzes the relationship between the index and the control time with reference to the history information, and
前記演算装置が、前記分析の結果に基づいて、前記制御時間定義情報を更新する第6のステップと、 A sixth step in which the arithmetic unit updates the control time definition information based on the result of the analysis.
を含むことを特徴とする対話システムの制御方法。 A method of controlling an interactive system, characterized in that it includes.
請求項9に記載の対話システムの制御方法であって、 The control method of the dialogue system according to claim 9.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記第4のステップは、前記演算装置が、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御するステップを含むことを特徴とする対話システムの制御方法。 The fourth step is a control method of a dialogue system, wherein the arithmetic unit includes a step of controlling the dialogue interface based on the second feature amount, the control time, and the condition information.
ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、 A method of controlling a dialogue system that provides a dialogue interface for interacting with a user.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of a response action performed by the dialogue interface to the user, based on the first feature amount.
前記演算装置が、前記計測装置が計測した信号に基づいて、前記応答アクションの有効性を示す指標を算出する第3のステップと、 A third step in which the arithmetic unit calculates an index indicating the effectiveness of the response action based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量及び前記指標に基づいて、前記応答アクションの制御のタイミングを調整する制御時間を算出する第4のステップと、 A fourth step in which the arithmetic unit calculates a control time for adjusting the control timing of the response action based on the first feature amount and the index.
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第5のステップと、を含むことを特徴とする対話システムの制御方法。 A control method for a dialogue system, wherein the arithmetic unit includes a fifth step of controlling the dialogue interface based on the second feature amount and the control time.
ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、 A method of controlling a dialogue system that provides a dialogue interface for interacting with a user.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of a response action performed by the dialogue interface to the user, based on the first feature amount.
前記演算装置が、前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出する第3のステップと、 A third step in which the arithmetic unit calculates a control time for adjusting the control timing of the response action according to the type of the response action.
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、を含み、 The arithmetic unit includes a fourth step of controlling the interactive interface based on the second feature amount and the control time.
前記応答アクションは、前記ユーザのアクションの模倣するアクションであり、 The response action is an action that mimics the action of the user.
前記制御時間は、遅延時間であることを特徴とする対話システムの制御方法。 A control method for an interactive system, wherein the control time is a delay time.
ユーザとの対話を行う対話インタフェースを提供する装置であって、 A device that provides an interactive interface for interacting with a user.
前記装置は、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェース、及び前記ユーザの発話に関連する信号を計測する計測器を備え、 The device includes an arithmetic unit, a storage device connected to the arithmetic unit, an interface connected to the arithmetic unit, and a measuring instrument for measuring a signal related to the utterance of the user.
前記記憶装置は、前記対話インタフェースによって前記ユーザに対して行われる、前記ユーザのアクションを模倣する応答アクションの種別毎に、前記応答アクションの制御タイミングを調整する遅延時間を管理する遅延時間定義情報を保持し、 The storage device provides delay time definition information for managing a delay time for adjusting the control timing of the response action for each type of response action that imitates the user's action, which is performed on the user by the dialogue interface. Hold and
前記演算装置は、 The arithmetic unit
前記計測器によって計測された信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring instrument, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action, is calculated.
前記遅延時間定義情報に基づいて、前記応答アクションの種別に応じた前記遅延時間を算出し、 Based on the delay time definition information, the delay time according to the type of the response action is calculated.
前記第2特徴量及び前記遅延時間に基づいて、前記対話インタフェースを制御することを特徴とする装置。 An apparatus characterized in that the dialogue interface is controlled based on the second feature amount and the delay time.
JP2017113177A 2017-06-08 2017-06-08 Dialogue system, control method of dialogue system, and device Active JP6768597B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017113177A JP6768597B2 (en) 2017-06-08 2017-06-08 Dialogue system, control method of dialogue system, and device
US15/903,640 US10832119B2 (en) 2017-06-08 2018-02-23 Interactive agent for imitating and reacting to a user based on user inputs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113177A JP6768597B2 (en) 2017-06-08 2017-06-08 Dialogue system, control method of dialogue system, and device

Publications (2)

Publication Number Publication Date
JP2018205616A JP2018205616A (en) 2018-12-27
JP6768597B2 true JP6768597B2 (en) 2020-10-14

Family

ID=64564130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113177A Active JP6768597B2 (en) 2017-06-08 2017-06-08 Dialogue system, control method of dialogue system, and device

Country Status (2)

Country Link
US (1) US10832119B2 (en)
JP (1) JP6768597B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6993314B2 (en) * 2018-11-09 2022-01-13 株式会社日立製作所 Dialogue systems, devices, and programs
CN110347248B (en) * 2019-06-24 2023-01-24 歌尔科技有限公司 Interactive processing method, device, equipment and audio equipment
CN110716634A (en) * 2019-08-28 2020-01-21 北京市商汤科技开发有限公司 Interaction method, device, equipment and display equipment

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
JP2001325052A (en) * 2000-05-17 2001-11-22 Sharp Corp Agent display device, agent display method, and recording medium with agent display program recorded
US20020008716A1 (en) * 2000-07-21 2002-01-24 Colburn Robert A. System and method for controlling expression characteristics of a virtual agent
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US7136818B1 (en) * 2002-05-16 2006-11-14 At&T Corp. System and method of providing conversational visual prosody for talking heads
CN1991982A (en) * 2005-12-29 2007-07-04 摩托罗拉公司 Method of activating image by using voice data
US8165282B1 (en) * 2006-05-25 2012-04-24 Avaya Inc. Exploiting facial characteristics for improved agent selection
US7814041B2 (en) * 2007-03-20 2010-10-12 Caporale John L System and method for control and training of avatars in an interactive environment
BRPI0809759A2 (en) * 2007-04-26 2014-10-07 Ford Global Tech Llc "EMOTIVE INFORMATION SYSTEM, EMOTIVE INFORMATION SYSTEMS, EMOTIVE INFORMATION DRIVING METHODS, EMOTIVE INFORMATION SYSTEMS FOR A PASSENGER VEHICLE AND COMPUTER IMPLEMENTED METHOD"
KR101475459B1 (en) * 2008-01-09 2014-12-23 삼성디스플레이 주식회사 Timming controller , data processing method using the same and display appartus having the same
JP2011033837A (en) * 2009-07-31 2011-02-17 Nec Corp Interaction support device, interaction support device, and program
BRPI0904540B1 (en) * 2009-11-27 2021-01-26 Samsung Eletrônica Da Amazônia Ltda method for animating faces / heads / virtual characters via voice processing
JP2012181697A (en) 2011-03-01 2012-09-20 Nec Corp Dialog system, interaction control method, and program
JP5982840B2 (en) * 2012-01-31 2016-08-31 富士通株式会社 Dialogue device, dialogue program, and dialogue method
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
JP6270661B2 (en) 2014-08-08 2018-01-31 国立大学法人京都大学 Spoken dialogue method and spoken dialogue system
WO2017085992A1 (en) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus
US9792825B1 (en) * 2016-05-27 2017-10-17 The Affinity Project, Inc. Triggering a session with a virtual companion

Also Published As

Publication number Publication date
US20180357526A1 (en) 2018-12-13
JP2018205616A (en) 2018-12-27
US10832119B2 (en) 2020-11-10

Similar Documents

Publication Publication Date Title
US11568643B2 (en) Automatic control of wearable display device based on external conditions
US11303976B2 (en) Production and control of cinematic content responsive to user emotional state
EP3459071B1 (en) Contextual awareness of user interface menus
CN107427716B (en) Method and system for optimizing and training human performance
JP2023096152A (en) Facial expression from eye-tracking camera
US10368741B2 (en) Method of and system for processing signals sensed from a user
JP6768597B2 (en) Dialogue system, control method of dialogue system, and device
KR102432248B1 (en) System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar
JP6993291B2 (en) Computer and emotion estimation method
Guthier et al. Affective computing in games
Porcino et al. Identifying cybersickness causes in virtual reality games using symbolic machine learning algorithms
KR102445133B1 (en) System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof
KR102429630B1 (en) A system that creates communication NPC avatars for healthcare
KR102425479B1 (en) System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics)
JP2021135995A (en) Avatar facial expression generating system and avatar facial expression generating method
KR102425481B1 (en) Virtual reality communication system for rehabilitation treatment
JP6910919B2 (en) How to evaluate the system and actions to be taken to communicate
JP6993314B2 (en) Dialogue systems, devices, and programs
KR102429627B1 (en) The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
CN114402248A (en) Virtual reality interaction system for neural meditation and neural concentration training
US11417042B2 (en) Animating body language for avatars
Gezgez et al. Virtual character control by brain-computer interface and comparison of performance metrics
KR102617431B1 (en) A System And Method For Calculating The Optimum Temperature For A User-Customized Immersive Content Test Bed Performing Content By Creating An Avatar
KR102432251B1 (en) Virtual reality rehabilitation system performed on social servers
KR102432250B1 (en) The System that Provides Care Chatbot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R150 Certificate of patent or registration of utility model

Ref document number: 6768597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150