JP6768597B2 - Dialogue system, control method of dialogue system, and device - Google Patents
Dialogue system, control method of dialogue system, and device Download PDFInfo
- Publication number
- JP6768597B2 JP6768597B2 JP2017113177A JP2017113177A JP6768597B2 JP 6768597 B2 JP6768597 B2 JP 6768597B2 JP 2017113177 A JP2017113177 A JP 2017113177A JP 2017113177 A JP2017113177 A JP 2017113177A JP 6768597 B2 JP6768597 B2 JP 6768597B2
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- arithmetic unit
- user
- feature amount
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 103
- 230000009471 action Effects 0.000 claims description 154
- 230000004044 response Effects 0.000 claims description 60
- 230000002452 interceptive effect Effects 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 description 120
- 230000008569 process Effects 0.000 description 59
- 238000012545 processing Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 17
- 230000035900 sweating Effects 0.000 description 11
- 210000005252 bulbus oculi Anatomy 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000008035 nerve activity Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000002889 sympathetic effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 210000000467 autonomic pathway Anatomy 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Dermatology (AREA)
- Signal Processing (AREA)
- Robotics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Description
対話インタフェースを介したユーザとの対話を実現する対話システムに関する。 It relates to a dialogue system that realizes dialogue with a user through a dialogue interface.
近年、ロボット及びCG等を用いてヒトと持続的な対話を行う対話インタフェースの開発が進展している。 In recent years, the development of a dialogue interface for continuous dialogue with humans using robots and CG has been progressing.
対話インタフェースの開発では、ヒトの表情、音声、及び身体の動き等の対話に関するアクションを示す対話データから対話特徴量を算出し、対話特徴量を用いて対話インタフェースを制御する技術が提案されている。対話特徴量に基づく対話インタフェースの制御によって、ロボット又はCGの表情が変化し、また、音声が再生される。このような制御によってヒトの共感を誘起できる。前述の技術として、特許文献1及び特許文献2に記載の技術が知られている。
In the development of a dialogue interface, a technique has been proposed in which a dialogue feature is calculated from dialogue data indicating actions related to dialogue such as human facial expression, voice, and body movement, and the dialogue interface is controlled using the dialogue feature. .. By controlling the dialogue interface based on the dialogue features, the facial expression of the robot or CG is changed, and the voice is reproduced. Such control can induce human empathy. As the above-mentioned techniques, the techniques described in
特許文献1には、「インタラクション状態量算出部は、ユーザPの発話における話者交替潜時、発話区間のピッチ、パワーまたはモーラを含むインタラクション状態量を検出する。コミュニケーション同調制御部は、ユーザPとロボットシステムとのコミュニケーション同調ずれ量を算出し、同調モデルを表す状態方程式による連続的な引き込み制御によりコミュニケーション同調ずれ量を最小化すると同時に、インタラクションルールによる離散的な引き込み制御により、ユーザPのインタラクション状態量をロボットシステム10のそれに近づけていく、または、ロボットシステム10のインタラクション状態量をユーザPのインタラクション状態量に近づけつつユーザPのインタラクション状態量をロボットシステム10のそれに近づけていく。」ことが記載されている。
According to
特許文献2には、「ユーザ発話を入力する工程と、入力された前記ユーザ発話の韻律的特徴を抽出する工程と、抽出された前記韻律的特徴に基づき前記ユーザ発話に応答する相槌を生成する工程と、を備え、前記相槌を生成する際、前記相槌の韻律的特徴が前記ユーザ発話の韻律的特徴と合うように前記相槌の韻律を調整する」音声対話方法が記載されている。
In
特許文献1及び特許文献2に記載の技術を組み合わせることによって、ヒトのアクションを模倣する対話インタフェースの制御が可能となる。このとき、人のアクションを模倣した対話インタフェースの制御タイミングを任意に設定できる。例えば、ヒトの相槌に対して、ロボット又はCGが相槌を行う制御タイミングを任意に設定できる。
By combining the techniques described in
ヒトの共感を誘起するためには、模倣するアクションに応じて制御タイミングを設定する必要がある。しかし、特許文献1及び特許文献2のいずれも前述の課題を想定されていない。そのため、特許文献1及び特許文献2を組み合わせた発明は、相槌の制御タイミングを任意に設定できるだけであり、対話インタフェースのアクションに多様性がない。したがって、ヒトの共感を誘起する効果が低い。
In order to induce human empathy, it is necessary to set the control timing according to the action to be imitated. However, neither
本発明では、ヒトの共感を強く誘起することができる対話インタフェースを実現する技術を提供することを目的とする。 An object of the present invention is to provide a technique for realizing a dialogue interface capable of strongly inducing human empathy.
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、ユーザとの対話を行う対話インタフェースを提供する対話システムであって、前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、前記記憶装置は、前記対話インタフェースが前記ユーザに対して行う応答アクションの種別と、前記応答アクションの制御のタイミングを調整する制御時間の設定可能な範囲を示す設定範囲と、から構成されるエントリを含む制御時間定義情報を保持し、前記演算装置は、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、前記制御時間定義情報を参照し、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出し、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする。 A typical example of the invention disclosed in the present application is as follows. That is, a dialogue system that provides a dialogue interface for interacting with a user, wherein the dialogue system includes a computing device, a storage device connected to the computing device, and a computer having an interface connected to the computing device. The storage device includes a measuring device for measuring a signal related to the user's speech, and the storage device adjusts the type of response action performed by the dialogue interface to the user and the control timing of the response action. A setting range indicating a settable range of the control time and a control time definition information including an entry composed of the control time are held, and the calculation device is a user in the speech of the user based on a signal measured by the measurement device. calculating a first feature quantity indicating the feature of the action, the first based on the feature amount, calculates a second characteristic quantity which is a control value of the response actions, by referring to the control time definition information, said response action It is characterized in that a random control time is calculated based on the set range corresponding to the type of the above, and the dialogue interface is controlled based on the second feature amount and the control time.
本発明によれば、遅延時間に基づいて応答アクションを実行する対話インタフェースを制御することによって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, by controlling the dialogue interface that executes the response action based on the delay time, it is possible to induce the user's empathy and realize a continuous dialogue and a multi-information dialogue. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.
以下、実施例を図面を用いて説明する。なお、以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。 Hereinafter, examples will be described with reference to the drawings. In the configurations of the inventions described below, the same or similar configurations or functions are designated by the same reference numerals, and duplicate description will be omitted.
本実施例では、ユーザとの対話を実現する対話インタフェースを提供する計算機が、対話信号を用いて、実行する応答アクションの制御特徴量を算出し、さらに、応答アクションの種別に応じて、応答アクションに対応する対話インタフェースの制御のタイミングを調整する制御時間(遅延時間)を設定する。また、計算機は、計測した言語信号に基づいてユーザの発話内容を特定し、当該発話内容に対して出力する発話内容を選択する。計算機は、制御特徴量、制御時間、及び発話内容に基づいて、出力情報を生成する。ここで、本明細書における用語について説明する。 In this embodiment, a computer that provides a dialogue interface that realizes a dialogue with a user calculates a control feature amount of a response action to be executed by using a dialogue signal, and further, a response action is performed according to the type of the response action. Set the control time (delay time) to adjust the control timing of the interactive interface corresponding to. In addition, the computer identifies the utterance content of the user based on the measured language signal, and selects the utterance content to be output for the utterance content. The computer generates output information based on the control feature amount, the control time, and the utterance content. Here, the terms in the present specification will be described.
対話信号は、対話においてユーザから取得される信号、特に、視線、顔の向き、身体の動き等のユーザのアクションに関する情報を含む信号である。対話信号は、対話データを算出するために用いられる。例えば、ユーザの画像及びユーザの身体の一部の加速度等が対話信号として取得される。 The dialogue signal is a signal acquired from the user in the dialogue, particularly a signal including information on the user's action such as a line of sight, a face orientation, and a body movement. The dialogue signal is used to calculate the dialogue data. For example, an image of the user, acceleration of a part of the user's body, and the like are acquired as dialogue signals.
対話データは、対話信号を用いて生成され、また、対話特徴量を算出するためのデータである。 The dialogue data is generated by using the dialogue signal, and is data for calculating the dialogue feature amount.
対話特徴量は、ユーザのアクションを特徴づける値である。例えば、ユーザの視線の向き、顔の向き、身体の移動方向、及び身体の移動距離等が対話特徴量として算出される。 The dialogue feature quantity is a value that characterizes the user's action. For example, the direction of the user's line of sight, the direction of the face, the moving direction of the body, the moving distance of the body, and the like are calculated as the dialogue features.
言語信号は、ユーザから発せられた言語、すなわち、ユーザの発話を評価するための信号である。例えば、ユーザの音声等が言語信号として取得される。 The language signal is a language emitted from the user, that is, a signal for evaluating the user's utterance. For example, the user's voice or the like is acquired as a language signal.
応答アクションは、対話インタフェースを構成する表示装置に表示される人物画像の動き、及び対話インタフェースを構成するロボットの動き等を表す。 The response action represents the movement of a person image displayed on the display device constituting the dialogue interface, the movement of the robot constituting the dialogue interface, and the like.
制御特徴量は、応答アクションを実現するための対話インタフェースの制御値を表す。 The control feature represents the control value of the dialogue interface for realizing the response action.
本実施例では、ユーザの共感を誘起する模倣を行う対話インタフェースを一例として説明する。当該インタフェースを実現するシステムでは以下のような処理が実行される。 In this embodiment, a dialogue interface that imitates to induce empathy of the user will be described as an example. The following processing is executed in the system that realizes the interface.
計算機は、ユーザの画像を含む対話信号からユーザの眼球画像、顔画像、及び身体画像の三種類の対話データを算出し、ユーザの視線、顔の向き、及び身体の動きに関する対話特徴量を算出する。計算機は、対話特徴量に基づいてユーザの視線、顔の向き、及び身体の動きを模倣する応答アクションの制御特徴量を算出する。計算機は、三つの種類の応答アクションのそれぞれに制御時間を設定する。また、計算機は、取得した言語信号に基づいて、ユーザに対して出力する発話内容を選択する。 The computer calculates three types of dialogue data, the user's eyeball image, face image, and body image, from the dialogue signal including the user's image, and calculates the dialogue features related to the user's line of sight, face orientation, and body movement. To do. The computer calculates the control features of the response action that mimics the user's line of sight, face orientation, and body movements based on the dialogue features. The computer sets a control time for each of the three types of response actions. In addition, the computer selects the utterance content to be output to the user based on the acquired language signal.
計算機は、制御特徴量、制御時間、及び発話内容に基づいて出力情報を生成し、出力情報に基づいて対話インタフェースを制御することによって、応答アクションの実行及び発話内容の出力を行う。 The computer generates output information based on the control feature amount, the control time, and the utterance content, and controls the dialogue interface based on the output information to execute the response action and output the utterance content.
なお、対話データは、眼球画像、顔画像、及び身体画像に限定されない。対話データは、手等の身体の一部又は周囲の環境等の画像、ヒトの音声、及び近赤外光で計測した瞳孔径等、対話時の様々な信号を含んでもよい。なお、対話特徴量は、ユーザの視線、顔の向き、及び身体の動きに限定されない。対話特徴量は、顔画像から抽出する表情変化及び音声から抽出する声のピッチ等、対話信号及び言語信号から抽出可能な様々な特徴量を含んでもよい。なお、出力情報は、制御特徴量のみから生成されてもよいし、また、発話内容のみから生成されてもよい。 The dialogue data is not limited to the eyeball image, the face image, and the body image. The dialogue data may include various signals during dialogue such as an image of a part of the body such as a hand or the surrounding environment, human voice, and a pupil diameter measured by near-infrared light. The dialogue features are not limited to the user's line of sight, face orientation, and body movement. The dialogue feature amount may include various feature amounts that can be extracted from the dialogue signal and the language signal, such as the facial expression change extracted from the face image and the voice pitch extracted from the voice. The output information may be generated only from the control feature amount, or may be generated only from the utterance content.
本実施例では、ユーザの動き及びユーザの発話をユーザアクションと記載する。また、応答アクション及び発話内容の出力(音声の再生)を出力アクションと記載する。また、ユーザの動きを模倣する応答アクションを模倣アクションと記載し、模倣アクションの制御特徴量を模倣特徴量と記載する。 In this embodiment, the user's movement and the user's utterance are described as user actions. Further, the response action and the output of the utterance content (reproduction of voice) are described as the output action. Further, the response action that imitates the movement of the user is described as the imitation action, and the control feature amount of the imitation action is described as the imitation feature amount.
図1は、実施例1のシステムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of the system of the first embodiment.
システムは、計算機100、対話信号計測装置110、言語信号計測装置120、表示装置130、及び対話出力装置140から構成される。また、計算機100には、マウス、キーボード、及びタッチパネル等の入力装置150が接続される。
The system includes a
計算機100は、対話信号及び言語信号を用いて出力情報316(図3参照)を生成し、出力情報316に基づいて、表示装置130及び対話出力装置140からユーザに対して情報等を出力する。本実施例では、表示装置130及び対話出力装置140が対話インタフェースとして機能する。本実施例の表示装置130には、ユーザの動きを模倣する模倣アクションを行う人物画像が表示される。
The
対話信号計測装置110は、ユーザから対話信号を取得する。本実施例の対話信号計測装置110は、画像を対話信号として取得する。なお、ユーザの頭部に装着する角度センサ及び加速度センサを対話信号計測装置110として用いてもよい。当該センサが計測した値は、顔の向き及び身体の動きを算出するために用いることができる。
The dialogue
言語信号計測装置120は、ユーザから言語信号を取得する。本実施例の言語信号計測装置120は、音声を言語信号として取得する。
The language
入力装置150は、外部信号を入力するための装置である。ここで、外部信号は、計算機100の動作を制御するため信号を表す。本明細書では、特に、対話信号及び言語信号を除いた信号を外部信号として扱う。
The
ここで、計算機100のソフトウェア構成の概要について説明する。計算機100は、模倣情報算出モジュール101、言語情報算出モジュール102、出力情報生成モジュール103、及び学習モジュール104を含み、また、情報群105を保持する。
Here, an outline of the software configuration of the
模倣情報算出モジュール101は、対話信号から対話データを算出し、対話データに基づいて対話特徴量を算出する。模倣情報算出モジュール101は、対話特徴量に基づいて模倣特徴量を算出する。対話特徴量に基づいて模倣特徴量を算出するアルゴリズムは予め設定されているものとする。
The imitation
なお、本発明は模倣特徴量を算出するアルゴリズムに限定されない。一種類の対話特徴量に基づいて一種類の模倣特徴量を算出するアルゴリズムでもよいし、複数種類の対話特徴量に基づいて一種類の模倣特徴量を算出するアルゴリズムでもよいし、また、一種類の対話特徴量に基づいて複数種類の模倣特徴量を算出するアルゴリズムでもよい。 The present invention is not limited to an algorithm for calculating imitation features. An algorithm that calculates one type of imitation feature based on one type of dialogue feature, an algorithm that calculates one type of imitation feature based on a plurality of types of dialogue feature, or one type An algorithm may be used to calculate a plurality of types of imitation features based on the dialogue features of.
前述のアルゴリズムでは、入力された対話特徴量がベクトル量である場合、ベクトルの向きを逆方向に変換する演算、人物画像のサイズ、形状、位置等に基づいて成分値を補正する演算等が実行される。ユーザの視線が任意の座標に存在する物に向いている場合、人物画像の眼球の向きを当該座標に合わせるような眼球の移動及び動向の変化を再現するための模倣特徴量が算出される。 In the above algorithm, when the input dialogue feature amount is a vector amount, an operation of converting the direction of the vector in the opposite direction, an operation of correcting the component value based on the size, shape, position, etc. of the person image are executed. Will be done. When the user's line of sight is directed to an object existing at an arbitrary coordinate, the imitation feature amount for reproducing the movement of the eyeball and the change in the movement such that the direction of the eyeball of the person image is adjusted to the coordinate is calculated.
言語情報算出モジュール102は、言語信号を分析することによってユーザの発話内容を評価する。言語情報算出モジュール102は、ユーザの発話内容に基づいて対話インタフェースから出力する発話内容を選択する。対話インタフェースから出力する発話内容を選択するアルゴリズムは予め設定されているものとする。
The language
なお、本発明は対話インタフェースから出力する発話内容を選択するアルゴリズムに限定されない。 The present invention is not limited to the algorithm for selecting the utterance content output from the dialogue interface.
出力情報生成モジュール103は、模倣特徴量及び発話内容に基づいて出力情報316を生成し、出力情報316に基づいて対話インタフェースを制御する。
The output
学習モジュール104は、出力情報316(図3参照)の履歴を学習する。学習モジュール104が実行する処理については実施例2で説明する。
The
なお、図1では、一つの計算機100が各モジュールを有しているが、複数の計算機に各モジュールを配置してもよい。また、図1では、対話信号計測装置110等の計測装置と計算機100とを別々の装置として記載しているが、計算機100が計測装置を含んでもよい。
In addition, although one
なお、計算機100が有する各モジュールは、二つ以上のモジュールを一つのモジュールにまとめてもよいし、一つのモジュールを機能毎に複数のモジュールに分けてもよい。
For each module included in the
図2は、実施例1のシステムを用いて対話を行う場合の動作の流れの一例を説明する図である。 FIG. 2 is a diagram illustrating an example of an operation flow when a dialogue is performed using the system of the first embodiment.
計算機100は、対話信号又は言語信号を計測することによってユーザアクションを検出した場合、模倣アクションの模倣特徴量を算出し、各模倣アクションの制御時間として遅延時間を設定する。遅延時間を伴った模倣アクションを対話インタフェースが実行することによって、ユーザの共感を共起し、また、ユーザの発話内容に対応した対話が可能となる。
When a user action is detected by measuring an interactive signal or a language signal, the
入力201では、計算機100が対話信号計測装置110及び言語信号計測装置120から対話信号及び言語信号を取得する。計算機100は、対話信号に基づいて対話データを算出し、対話データに基づいて対話特徴量を算出する。計算機100は、言語信号に基づいて発話内容を評価する。計算機100は、対話特徴量及びユーザの発話内容に基づいて、演算202から演算205を並列で実行する。
At
演算202では、計算機100は、ユーザの視線に関する対話特徴量に基づいて、ユーザの視線の動きを模倣した人物画像の眼球の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の眼球の動きに対応する遅延時間を設定する。
In the
演算203では、計算機100は、ユーザの顔の動きに関する対話特徴量に基づいて、ユーザの顔の動きを模倣した人物画像の顔の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の顔の動きに対応する遅延時間を設定する。
In the
演算204では、計算機100は、ユーザの身体の動きに関する対話特徴量に基づいて、ユーザの身体の動きを模倣した人物画像の身体の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の身体の動きに対応する遅延時間を設定する。
In the
演算205では、計算機100は、ユーザの発話内容に合わせた発話内容を選択する。本実施例では、発話内容の出力には特に遅延時間を設定していないが、発話内容の出力についても遅延時間を設定することができる。
In the
出力206では、計算機は、遅延時間を伴って模倣アクションを対話インタフェースに実行させ、また、発話内容を対話インタフェースに出力される。
At
図3は、実施例1の計算機100の構成例を説明する図である。
FIG. 3 is a diagram illustrating a configuration example of the
図3に示したように、計算機100は、演算装置301、記憶装置302、入力インタフェース303、及び出力インタフェース304を有する。
As shown in FIG. 3, the
演算装置301は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のハードウェアであり、記憶装置302に格納されるプログラムを実行する。演算装置301は、プログラムにしたがって動作することによって、所定のモジュールとして機能する。本実施例では、演算装置301は、模倣情報算出モジュール101、言語情報算出モジュール102、及び出力情報生成モジュール103として機能する。
The
記憶装置302は、メモリ等のハードウェアであり、演算装置301が実行するプログラム及び当該プログラムが使用する情報を格納する。また、記憶装置302はワークエリアを含む。記憶装置302に格納されるプログラム及び情報については後述する。なお、計算機100は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。
The
入力インタフェース303は、対話信号、言語信号、及び外部信号の入力を受け付けるハードウェアである。USB(Universal Serial Bus)規格の接続線を介して信号を入力する装置と接続される場合、USB端子を有するインタフェースが入力インタフェース303になり、ネットワークを介して信号を入力する装置と接続される場合、ポートを有するインタフェースが入力インタフェース303となる。
The
出力インタフェース304は、各種情報を出力するハードウェアである。情報を出力する装置がディスプレイの場合、VGA端子又はHDMI端子(HDMIは登録商標)等の端子を有するインタフェースが出力インタフェース304となり、情報を出力する装置がスピーカの場合、USB端子を有するインタフェースが出力インタフェース304となる。
The
ここで、記憶装置302に格納されるプログラム及び情報について説明する。
Here, the program and information stored in the
記憶装置302は、模倣情報算出モジュール101、言語情報算出モジュール102、出力情報生成モジュール103、及び学習モジュール104を実現するプログラムを格納する。また、記憶装置302は、対話信号情報311、模倣情報312、遅延時間定義情報313、言語信号情報314、発話情報315、出力情報316、出力条件情報317、及び出力履歴情報318を格納する。
The
対話信号情報311は、対話信号を管理する情報である。対話信号情報311のデータ構造の一例は図4を用いて説明する。模倣情報312は、模倣アクションの模倣特徴量を管理する情報である。模倣情報312のデータ構造の一例は図5を用いて説明する。遅延時間定義情報313は、模倣アクションに対応する遅延時間を定義する情報である。遅延時間定義情報313のデータ構造の一例は図6を用いて説明する。
The
言語信号情報314は、言語信号を管理する情報である。言語信号情報314のデータ構造の一例は図7を用いて説明する。発話情報315は、ユーザの発話内容及び選択された発話内容を管理する情報である。発話情報315のデータ構造の一例は図8を用いて説明する。
The
出力情報316は、模倣アクションを行い、また、発話内容を出力する対話インタフェースを制御するための情報である。出力情報316のデータ構造の一例は図9を用いて説明する。
The
出力条件情報317は、応答アクションを実行する条件を管理する情報である。出力条件情報317のデータ構造の一例は図10を用いて説明する。なお、出力条件情報317を用いた処理については、実施例4で説明する。
The
出力履歴情報318は、出力情報316の履歴を管理する情報である。出力履歴情報318のデータ構造の一例は図11を用いて説明する。
The
模倣情報算出モジュール101は、対話信号から各模倣アクションの模倣特徴量を算出し、各模倣アクションに対応する遅延時間を設定することによって、模倣情報312を生成する。
The imitation
言語情報算出モジュール102は、言語信号からユーザの発話内容を特定し、ユーザの発話内容に対する発話内容を選択することによって、発話情報315を生成する。
The language
出力情報生成モジュール103は、模倣情報312及び発話情報315を用いて出力情報316を生成する。
The output
図4は、実施例1の対話信号情報311のデータ構造の一例を示す図である。
FIG. 4 is a diagram showing an example of the data structure of the
対話信号情報311は、ID401、信号名402、取得時間403、及びポインタ404から構成されるエントリを含む。一つのエントリが一つの対話信号に対応する。
The
ID401は、対話信号情報311のエントリを一意に識別するための識別情報を格納するフィールドである。
The
信号名402は、対話信号の種別等を識別するための情報を格納するフィールドである。本実施例では、対話信号を計測した対話信号計測装置110の名称が信号名402に格納される。なお、信号名402には「画像」等の信号に含まれるデータの種別が格納されてもよい。
The
取得時間403は、対話信号の取得時間を格納するフィールドである。取得時間403には、例えば、対話信号の計測の開始時間を基準とした時間が格納される。なお、対話信号及び言語信号のそれぞれの計測開始時刻の関係性を示す値を格納するフィールドを設けてもよい。
The
ポインタ404は、取得された対話信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ404の代わりに、取得された対話信号を格納するフィールドを設けてもよい。当該フィールドには、例えば、座標及びRGB値の組合せが複数格納される。
The
図5は、実施例1の模倣情報312のデータ構造の一例を示す図である。
FIG. 5 is a diagram showing an example of the data structure of the
模倣情報312は、ID501、参照ID502、模倣特徴量種別503、模倣特徴量504、遅延時間505、対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509から構成されるエントリを含む。一つのエントリが一つの模倣アクションの模倣特徴量に対応する。
The
ID501は、模倣情報312のエントリを一意に識別するための識別情報を格納するフィールドである。本実施例では、一つの対話信号に対して三種類の模倣特徴量が算出される。
参照ID502は、模倣特徴量の算出時に用いた対話信号の識別情報を格納するフィールドである。参照ID502にはID401の値が格納される。
The
模倣特徴量種別503は、模倣アクションの種別を示す情報を格納するフィールドである。本実施例の模倣特徴量種別503には、「視線」、「顔の動き」、及び「身体の動き」のいずれかが格納される。
The imitation
模倣特徴量504は、算出された模倣特徴量を格納するフィールドである。模倣特徴量種別503が「視線」である場合、模倣特徴量504には人物画像の眼球の角度及び移動速度等が格納され、模倣特徴量種別503が「顔の動き」である場合、模倣特徴量504には人物画像の顔の角度及び移動速度等が格納され、模倣特徴量種別503が「身体の動き」である場合、模倣特徴量504には人物画像の身体の移動方向及び移動量等が格納される。
The
遅延時間505は、模倣アクションに対応する遅延時間を格納するフィールドである。
The
対話データ名506は、対話特徴量を算出するために用いた対話データの識別情報を格納するフィールドである。
The
対話データ507は、対話データを格納するフィールドである。本実施例では、対話データは画像であるため、対話データ507には、座標及びRGB値の組合せが複数含まれる。なお、対話データ507の代わりに、対話データが格納される記憶領域を示すポインタを格納するフィールドを設けてもよい。
The
対話特徴量種別508は、対話特徴量の識別情報を格納するフィールドである。本実施例の対話特徴量種別508には、「視線」、「顔の向き」、及び「身体の動き」のいずれかが格納される。
The
対話特徴量509は、算出された対話特徴量を格納するフィールドである。対話特徴量種別508が「視線」である場合、対話特徴量509にはユーザの視線の対象の座標等が格納され、対話特徴量種別508が「顔の向き」である場合、対話特徴量509にはユーザの顔の傾け角度等が格納され、対話特徴量種別508が「身体の動き」である場合、対話特徴量509にはユーザの身体の移動量等が格納される。
The
なお、ユーザの視線の対象の座標は、対話出力装置140であるディスプレイの平面上の座標でもよいし、また、対話出力装置140を原点とする三次元空間の座標でもよい。顔の傾け角度は、鼻尖及び顔の輪郭から算出された特徴点間の距離の変化又は左右差等に基づいて算出される。単位時間当たりの身体の移動量は、身体の輪郭から算出された特徴点の移動距離の総和等に基づいて算出される。
The coordinates of the target of the user's line of sight may be the coordinates on the plane of the display which is the
本実施例では、一種類の対話特徴量を用いて一種類の模倣特徴量が算出される。ただし、複数種類の対話特徴量を用いて一種類の模倣特徴量が算出されてよい。この場合、一つのエントリには、対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509を一つの組とする行が複数含まれる。
In this embodiment, one type of mimicking feature is calculated using one type of dialogue feature. However, one type of imitation feature may be calculated using a plurality of types of dialogue features. In this case, one entry includes a plurality of lines having the
図6は、実施例1の遅延時間定義情報313のデータ構造の一例を示す図である。
FIG. 6 is a diagram showing an example of the data structure of the delay
遅延時間定義情報313は、ID601、模倣特徴量種別602、及び遅延時間603から構成されるエントリを含む。一つのエントリが一種類の模倣アクションに対応する。本実施例では、模倣アクションの種類は三つであるため、遅延時間定義情報313には三つのエントリが含まれる。
The delay
ID601は、遅延時間定義情報313のエントリを一意に識別するための識別情報を格納するフィールドである。
ID601 is a field for storing identification information for uniquely identifying the entry of the delay
模倣特徴量種別602は、模倣特徴量種別503と同一のものである。
The imitation
遅延時間603は、模倣アクションに対応する遅延時間を格納するフィールドである。初期の遅延時間は専門家等が予め設定するものとする。本実施例では、出力情報316が生成された時点を起点とする遅延時間が設定される。なお、本発明は遅延時間の設定基準に限定されない。
The
なお、模倣特徴量の種別及び模倣特徴量の値の範囲の組合せに対して、遅延時間を設定してもよい。この場合、エントリには、模倣特徴量の範囲を指定するフィールドが含まれる。 The delay time may be set for the combination of the type of the imitation feature amount and the range of the value of the imitation feature amount. In this case, the entry contains a field that specifies the range of mimic features.
図7は、実施例1の言語信号情報314のデータ構造の一例を示す図である。
FIG. 7 is a diagram showing an example of the data structure of the
言語信号情報314は、ID701、信号名702、取得時間703、及びポインタ704から構成されるエントリを含む。一つのエントリが一つの言語信号に対応する。
The
ID701は、言語信号情報314のエントリを一意に識別するための識別情報を格納するフィールドである。
The
信号名702は、言語信号の種別等を識別するための情報を格納するフィールドである。本実施例では、言語信号を計測した言語信号計測装置120の名称が信号名702に格納される。なお、信号名702には「音声」等の言語信号に含まれるデータの種別が格納されてもよい。
The
なお、対話信号及び言語信号のそれぞれの計測開始時刻の関係性を示す値を格納するフィールドと、対話信号の計測開始時刻を格納するフィールドを設けてもよい。 A field for storing a value indicating the relationship between the measurement start times of the dialogue signal and the language signal and a field for storing the measurement start time of the dialogue signal may be provided.
取得時間703は、言語信号の取得時間を格納するフィールドである。取得時間703には、例えば、言語信号の計測の開始時間を基準とした時間が格納される。
The
ポインタ704は、取得された言語信号が格納される記憶領域のポインタを格納するフィールドである。言語信号はA/D変換された値として格納されている。なお、ポインタ704の代わりに、取得された言語信号を格納するフィールドを設けてもよい。
The
図8は、実施例1の発話情報315のデータ構造の一例を示す図である。
FIG. 8 is a diagram showing an example of the data structure of the
発話情報315は、入力発話内容801、参照ID802、及び出力発話内容803から構成されるエントリを含む。一つのエントリがユーザの発話内容に対応する。
The
入力発話内容801は、言語信号を分析することによって特定されたユーザの発話内容を格納するフィールドである。
The
参照ID802は、発話内容を特定するために用いた言語信号の識別情報を格納するフィールドである。参照ID802にはID701の値が格納される。
The
出力発話内容803は、ユーザの発話内容に基づいて選択された発話内容を格納するフィールドである。例えば、ユーザの発話を促す発話内容又はユーザの発話に応答する発話内容が選択される。なお、発話内容を選択する方法としては、言語データベース等を用いる方法及び過去の発話内容の履歴を用いる方法等が考えられる。
The
なお、発話内容の出力に対して遅延時間を設定する場合、発話情報315には遅延時間を格納するフィールドを設けてもよい。
When setting the delay time for the output of the utterance content, the
図9は、実施例1の出力情報316のデータ構造の一例を示す図である。
FIG. 9 is a diagram showing an example of the data structure of the
出力情報316は、出力装置901、出力値902、及び遅延時間903から構成されるエントリを含む。一つのエントリが一つの出力アクションを示す。
The
出力装置901は、出力アクションに対応する制御を行う装置の識別情報を格納するフィールドである。本実施例では、模倣アクションの模倣特徴量及び遅延時間に基づいてディスプレイに表示される人物画像が制御され、発話内容に基づいてスピーカが制御される。
The
出力値902は、出力アクションを行う対話インタフェースを制御するための値を格納する。出力アクションが模倣アクションである場合、出力値902には模倣特徴量の種別及び模倣特徴量が格納され、出力アクションが発話内容の出力である場合、出力値902には発話内容が格納される。
The
図10は、実施例1の出力条件情報317のデータ構造の一例を示す図である。
FIG. 10 is a diagram showing an example of the data structure of the
出力条件情報317は、ID1001、アクション種別1002、及び条件1003から構成されるエントリを含む。一つのエントリが一つの条件を示す。
The
ID1001は、出力条件情報317のエントリを一意に識別するための識別情報を格納するフィールドである。
ID1001 is a field for storing identification information for uniquely identifying the entry of the
アクション種別1002は、出力アクションの種別を格納するフィールドである。アクション種別1002には、「発話」、「視線」、「顔の動き」、及び「身体の動き」が格納される。
The
条件1003は、アクション種別1002に対応する出力アクションを実行するタイミングを規定する条件を格納するフィールドである。条件1003には、具体的な条件を指定する値、及び遅延時間及び条件の優先順位を示す値が含まれる。
The
例えば、ユーザの発話内容が「はい」又は「いいえ」、かつ、出力発話内容が「はい」又は「いいえ」である場合が条件として設定できる。また、ユーザの発話の開始を条件として設定できる。また、気温等、ユーザ及び計算機100との関係以外の外部情報を用いて条件を設定してもよい。
For example, the condition can be set when the user's utterance content is "yes" or "no" and the output utterance content is "yes" or "no". In addition, it can be set on condition that the user starts speaking. Further, the conditions may be set by using external information such as the temperature other than the relationship between the user and the
なお、一つの種類の出力アクションに対して複数の条件を設定できる。この場合、出力条件情報317には、アクション種別1002が同一であるエントリが複数含まれる。
Note that multiple conditions can be set for one type of output action. In this case, the
なお、優先順位は必ずしも設定しなくてもよい。この場合、遅延時間が経過し、かつ、条件を満たす場合に制御を行うようにすればよい。 The priority does not necessarily have to be set. In this case, the control may be performed when the delay time elapses and the condition is satisfied.
図11は、実施例1の出力履歴情報318のデータ構造の一例を示す図である。
FIG. 11 is a diagram showing an example of the data structure of the
出力履歴情報318は、ID1101、共感度1102、出力値1103、及び遅延時間1104から構成されるエントリを含む。一つのエントリが一つの出力情報316を示す。
The
ID1101は、出力履歴情報318のエントリを一意に識別するための識別情報を格納するフィールドである。
The
共感度1102は、対話インタフェースを使用するユーザの共感の程度を示す共感度を格納するフィールドである。本実施例では、対話インタフェースが行う出力アクションの有効性を示す指標として共感度を用いる。なお、共感度以外の指標でもよい。
The
共感度は、例えば、対話の持続時間を用いて算出できる。ここで、対話の持続時間は、ユーザ又は対話インタフェースの発話が開始されてから、ユーザ又は対話インタフェースの発話が終了するまでの時間を示す。スピーカから音声が再生された時又は言語信号が検出された時を発話の開始と判定し、発話が行われていない時間が一定時間経過した場合を発話の終了と判定すればよい。また、ユーザが対話の開始及び終了を知らせるボタンを押下することによって持続時間を計測してもよい。 Empathy can be calculated using, for example, the duration of the dialogue. Here, the duration of the dialogue indicates the time from the start of the utterance of the user or the dialogue interface to the end of the utterance of the user or the dialogue interface. It may be determined that the start of the utterance is when the voice is reproduced from the speaker or when the language signal is detected, and the end of the utterance is when a certain period of time has passed when the utterance is not performed. In addition, the duration may be measured by the user pressing a button notifying the start and end of the dialogue.
なお、共感度はユーザの発話量等のその他の情報に基づいて算出されてもよい。また、共感度はユーザが対話の終了後に記入したアンケートに基づいて算出されてもよい。 The sympathy may be calculated based on other information such as the amount of speech of the user. In addition, the empathy may be calculated based on a questionnaire filled out by the user after the end of the dialogue.
出力値1103及び遅延時間1104は、出力値902及び遅延時間903と同一のものである。
The
図12は、実施例1の模倣情報算出モジュール101が実行する処理を説明するフローチャートである。
FIG. 12 is a flowchart illustrating a process executed by the imitation
模倣情報算出モジュール101は、イベントが発生したか否かを判定する(ステップS101)。例えば、ユーザの動きが検出された場合、又は、ユーザの発話が検出された場合にイベントが発生したと判定される。また、ユーザが入力装置150を用いて処理の開始を指示した操作が行われた場合、模倣情報算出モジュール101は、イベントが発生したと判定する。
The imitation
イベントが発生していないと判定された場合、模倣情報算出モジュール101は、イベントの発生まで待ち状態に移行する。
If it is determined that no event has occurred, the imitation
イベントが発生したと判定された場合、模倣情報算出モジュール101は、対話信号計測装置110から対話信号を取得する(ステップS102)。
When it is determined that the event has occurred, the imitation
このとき、模倣情報算出モジュール101は、取得した対話信号を記憶領域に格納する。模倣情報算出モジュール101は、対話信号情報311を初期化し、取得された対話信号の数だけ対話信号情報311にエントリを追加する。模倣情報算出モジュール101は、追加されたエントリの各フィールドに値を設定する。
At this time, the imitation
なお、模倣情報算出モジュール101は、必要な対話信号が全て取得されるまで、ステップS102の処理を繰り返し実行してもよい。また、タイマを設定している場合には、模倣情報算出モジュール101は、タイマが経過するまで対話信号の取得を継続してもよい。
The imitation
次に、模倣情報算出モジュール101は、変数iを初期化する(ステップS103)。
Next, the imitation
具体的には、模倣情報算出モジュール101は変数iに「1」を設定する。ここで、変数iは、取得した対話信号の数に対応し、また、対話信号情報311のID401に対応する。
Specifically, the imitation
次に、模倣情報算出モジュール101は、ID401が変数iに一致するエントリに基づいて対話データを算出する(ステップS104)。
Next, the imitation
例えば、模倣情報算出モジュール101は、一つの画像から、眼球の画像、顔全体の画像、及び全身の画像を、対話データとして算出する。このとき、模倣情報算出モジュール101は、対話データに変数iを対応付けて記憶領域に格納する。
For example, the imitation
なお、眼球の画像及び顔の画像は、画像から眼球及び顔に関連する特徴量を算出することによって取得する方法、画像の特徴量を用いた統計解析又は機械学習に基づいて取得する方法等が考えられる。 The eyeball image and the face image can be obtained by calculating the feature amounts related to the eyeball and the face from the image, statistical analysis using the feature amount of the image, or a method of acquiring the face image based on machine learning. Conceivable.
次に、模倣情報算出モジュール101は、対話特徴量を算出する(ステップS105)。
Next, the imitation
このとき、模倣情報算出モジュール101は、対話特徴量に対話特徴量の種別を対応付けて記憶領域に格納する。
At this time, the imitation
次に、模倣情報算出モジュール101は、変数jを初期化する(ステップS106)。
Next, the imitation
具体的には、模倣情報算出モジュール101は変数jに「1」を設定する。このとき、模倣情報算出モジュール101は、模倣情報312を初期化する。
Specifically, the imitation
ここで、変数jは、模倣アクションの種別に対応する。本実施例では、変数jが「1」の場合、「眼球の動き」を表し、変数jが「2」の場合、「顔の動き」を表し、変数jが「3」の場合、「身体の動き」を表す。 Here, the variable j corresponds to the type of imitation action. In this embodiment, when the variable j is "1", it represents "eye movement", when the variable j is "2", it represents "face movement", and when the variable j is "3", it represents "body". Represents "movement of".
次に、模倣情報算出モジュール101は、算出された対話特徴量に基づいて、変数jに対応する模倣アクションの模倣特徴量を算出する(ステップS107)。なお、予め、対話特徴量から模倣特徴量を算出する数式が与えられているものとする。
Next, the imitation
このとき、模倣情報算出モジュール101は、模倣情報312にエントリを追加し、追加されたエントリのID501に識別情報を設定する。模倣情報算出モジュール101は、追加されたエントリの参照ID502に変数iの値を設定し、模倣特徴量種別503に変数jに対応する識別情報を設定し、模倣特徴量504に算出された模倣特徴量を設定する。また、模倣情報算出モジュール101は、追加されたエントリに模倣特徴量の算出時に用いた対話特徴量の数だけ行を追加し、各行の対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509に識別情報及び値を設定する。
At this time, the imitation
次に、模倣情報算出モジュール101は、遅延時間定義情報313を参照して、変数jに対応する模倣アクションの遅延時間を設定する(ステップS108)。
Next, the imitation
具体的には、模倣情報算出モジュール101は、遅延時間定義情報313を参照し、模倣特徴量種別602が変数jに対応する種別と一致するエントリを検索する。模倣情報算出モジュール101は、検索されたエントリの遅延時間603から値を取得し、ステップS107において追加された模倣情報312のエントリの遅延時間505に取得した値を設定する。
Specifically, the imitation
次に、模倣情報算出モジュール101は、全ての模倣特徴量を算出したか否かを判定する(ステップS109)。
Next, the imitation
全ての模倣特徴量を算出していないと判定された場合、模倣情報算出モジュール101は、変数jに「1」を加算し(ステップS110)、その後、ステップS107に戻る。
When it is determined that all the imitation feature amounts have not been calculated, the imitation
全ての模倣特徴量を算出したと判定された場合、模倣情報算出モジュール101は、全ての対話信号の処理が完了したか否かを判定する(ステップS111)。
When it is determined that all the imitation feature quantities have been calculated, the imitation
全ての対話信号の処理が完了していないと判定された場合、模倣情報算出モジュール101は、変数iに「1」を加算し(ステップS112)、その後、ステップS104に戻る。
When it is determined that the processing of all the dialogue signals is not completed, the imitation
全ての対話信号の処理が完了していないと判定された場合、模倣情報算出モジュール101は、模倣情報312を出力情報生成モジュール103に出力し、処理を終了する。
When it is determined that the processing of all the dialogue signals is not completed, the imitation
本実施例では、遅延時間定義情報313に基づいて模倣アクションの遅延時間が設定されているが、以下のような設定方法でもよい。模倣情報算出モジュール101は、出力履歴情報318を参照し、最も新しい履歴(エントリ)を検索する。模倣情報算出モジュール101は、検索されたエントリから変数jに対応する模倣アクションの遅延時間1104の値を取得し、遅延時間505に取得した値を設定する。
In this embodiment, the delay time of the imitation action is set based on the delay
なお、複数の対話信号計測装置110又は複数の計測チャネルを用いて複数の対話信号が取得された場合、模倣情報算出モジュール101は、各対話信号から算出された対話特徴量の平均値等を用いて模倣特徴量を算出すればよい。
When a plurality of dialogue signals are acquired by using the plurality of dialogue
なお、対話信号計測装置110が計測した値以外に、ユーザが入力装置150を用いて対話信号又は対話データを入力してもよい。
In addition to the values measured by the dialogue
図13は、実施例1の言語情報算出モジュール102が実行する処理を説明するフローチャートである。
FIG. 13 is a flowchart illustrating a process executed by the language
言語情報算出モジュール102は、イベントが発生したか否かを判定する(ステップS201)。なお、ステップS201の判定方法は、ステップS101の判定方法と同一でもよいし、また、異なってもよい。
The language
イベントが発生していないと判定された場合、言語情報算出モジュール102は、イベントの発生まで待ち状態に移行する。
If it is determined that no event has occurred, the language
イベントが発生したと判定された場合、言語情報算出モジュール102は、言語信号計測装置120から言語信号を取得する(ステップS202)。
When it is determined that the event has occurred, the language
このとき、言語情報算出モジュール102は、取得した言語信号を記憶領域に格納する。言語信号情報314を初期化し、取得された言語信号の数だけ言語信号情報314にエントリを追加する。言語情報算出モジュール102は、追加されたエントリの各フィールドに値を設定する。また、言語情報算出モジュール102は、発話情報315を初期化する。
At this time, the language
次に、言語情報算出モジュール102は、変数iを初期化する(ステップS203)。
Next, the language
具体的には、言語情報算出モジュール102は変数iに「1」を設定する。ここで、変数iは、取得した言語信号の数に対応し、また、言語信号情報314のID701に対応する。
Specifically, the language
このとき、言語情報算出モジュール102は、発話情報315の参照ID802に、取得された言語信号の数だけ行を生成する。
At this time, the language
言語情報算出モジュール102は、ID701が変数iに一致するエントリに対応する言語信号を分析する(ステップS204)。言語信号の分析方法は公知の方法を用いればよいため詳細な説明は省略する。
The language
次に、言語情報算出モジュール102は、分析結果に基づいて発話内容を更新する(ステップS205)。
Next, the language
具体的には、言語情報算出モジュール102は、分析結果に基づいて発話情報315の入力発話内容801を更新し、参照ID802の空の行に変数iを設定する。
Specifically, the language
次に、言語情報算出モジュール102は、全ての言語信号の処理を完了したか否かを判定する(ステップS206)。
Next, the language
全ての言語信号の処理が完了していないと判定された場合、言語情報算出モジュール102は、変数iに「1」を加算し(ステップS207)、その後、ステップS204に戻る。
When it is determined that the processing of all the language signals is not completed, the language
全ての言語信号の処理が完了したと判定された場合、言語情報算出モジュール102は、入力発話内容に基づいて出力発話内容を選択して、発話情報315の出力発話内容803に設定する(ステップS208)。その後、言語情報算出モジュール102は、発話情報315を出力情報生成モジュール103に出力し、処理を終了する。なお、出力発話内容の選択方法は公知の方法を用いればよいため詳細な説明は省略する。
When it is determined that the processing of all the language signals is completed, the language
本実施例では、ユーザの発話内容のみを特定していたが、発話の速度及びリズム等を言語特徴量として算出してもよい。当該特徴量を用いて対話インタフェースの発話内容の出力の速度及びリズムを制御できる。 In this embodiment, only the content of the user's utterance is specified, but the speed and rhythm of the utterance may be calculated as the language feature amount. The feature amount can be used to control the output speed and rhythm of the utterance content of the dialogue interface.
図14は、実施例1の出力情報生成モジュール103が実行する処理を説明するフローチャートである。
FIG. 14 is a flowchart illustrating a process executed by the output
出力情報生成モジュール103は、情報を受け付けたか否かを判定する(ステップS301)。
The output
具体的には、出力情報生成モジュール103は、模倣情報312及び発話情報315の少なくともいずれかを受け取ったか否かを判定する。なお、模倣情報312及び発話情報315の生成タイミングは必ずしも一致しないため、出力情報生成モジュール103は、いずれかの情報を受け付けてから一定期間の情報の入力を受け付けもよい。
Specifically, the output
情報を受け付けていないと判定された場合、出力情報生成モジュール103は、情報を受け付けるまで待ち続ける。
If it is determined that the information is not accepted, the output
情報を受け付けたと判定された場合、出力情報生成モジュール103は、出力情報316を生成する(ステップS302)。具体的には、以下のような処理が実行される。
When it is determined that the information has been received, the output
出力情報生成モジュール103は、模倣情報312を受け付けた場合、模倣情報312からエントリを一つ読み出す。出力情報生成モジュール103は、出力情報316にエントリを追加し、追加されたエントリの出力装置901に「ディスプレイ」を設定する。出力情報生成モジュール103は、選択されたエントリの模倣特徴量種別503及び模倣特徴量504の値を追加されたエントリの出力値902に設定する。さらに、出力情報生成モジュール103は、選択されたエントリの遅延時間505の値を追加されたエントリの遅延時間903に設定する。出力情報生成モジュール103は、模倣情報312の各エントリに対して同様の処理を実行する。
When the output
出力情報生成モジュール103は、発話情報315を受け付けた場合、発話情報315からエントリを一つ読み出す。出力情報生成モジュール103は、出力情報316にエントリを追加し、追加されたエントリの出力装置901に「スピーカ」を設定する。出力情報生成モジュール103は、選択されたエントリの出力発話内容803の値を追加されたエントリの出力値902に設定する。また、出力情報生成モジュール103は、追加されたエントリの遅延時間903に「0」を設定する。以上がステップS302の処理の説明である。
When the output
次に、出力情報生成モジュール103はタイマを設定する(ステップS303)。
Next, the output
次に、出力情報生成モジュール103は、条件を満たす出力アクションが存在するか否かを判定する(ステップS304)。
Next, the output
具体的には、出力情報生成モジュール103は、出力情報316から遅延時間903がタイマの値以上のエントリを検索する。遅延時間903がタイマの値以上のエントリが存在する場合、出力情報生成モジュール103は、条件を満たす出力アクションが存在すると判定する。
Specifically, the output
条件を満たす出力アクションが存在しないと判定された場合、出力情報生成モジュール103は、ステップS304に戻り、タイマの更新を継続する。
If it is determined that there is no output action that satisfies the condition, the output
条件を満たす出力アクションが存在すると判定された場合、出力情報生成モジュール103は、ステップS304において検索されたエントリに対応する出力アクションを実行する(ステップS305)。
When it is determined that an output action satisfying the condition exists, the output
具体的には、出力情報生成モジュール103は、検索されたエントリの出力値902に基づいて対話インタフェースを制御する。当該制御によって、対話インタフェースが発話内容を出力し、また、対話インタフェースが応答アクションを実行する。
Specifically, the output
次に、出力情報生成モジュール103は、出力履歴情報318を更新する(ステップS306)。具体的には、以下のような処理が実行される。
Next, the output
出力情報生成モジュール103は、出力履歴情報318にエントリを追加し、追加されたエントリのID1101に識別情報を設定する。
The output
出力情報生成モジュール103は、追加されたエントリに、ステップS304において検索されたエントリの数と同一数の行を生成する。出力情報生成モジュール103は、生成された行の出力値1103及び遅延時間1104に、ステップS304において検索されたエントリの出力値902及び遅延時間903の値を設定する。なお、実施例1では、出力情報316に基づく対話インタフェースの制御が終了した後に、対話の持続時間、ユーザの発話量、又はアンケート等に基づいて算出された共感度が共感度1102に設定される。
The output
また、出力情報生成モジュール103は、ステップS304において選択されたエントリを出力情報316から削除する。以上がステップS306の処理の説明である。
Further, the output
次に、出力情報生成モジュール103は、全ての出力アクションが実行されたか否かを判定する(ステップS307)。
Next, the output
具体的には、出力情報生成モジュール103は、出力情報316が空であるか否かを判定する。出力情報316が空である場合、出力情報生成モジュール103は、全ての出力アクションが実行されたと判定する。
Specifically, the output
全ての出力アクションが実行されていないと判定された場合、出力情報生成モジュール103は、ステップS304に戻り、同様の処理を実行する。
If it is determined that all the output actions have not been executed, the output
全ての出力アクションが実行されたと判定された場合、出力情報生成モジュールは処理を終了する。 When it is determined that all the output actions have been executed, the output information generation module ends the process.
実施例1によれば、遅延時間に基づいて出力アクションを実行する対話インタフェースを制御することによって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。 According to the first embodiment, by controlling the dialogue interface that executes the output action based on the delay time, it is possible to induce the user's empathy and realize a continuous dialogue and a multi-information dialogue.
実施例2では、計算機100が出力履歴情報318の分析結果に基づいて遅延時間定義情報313を更新し、また、発話内容の更新又は発話内容の選択アルゴリズムを更新する。実施例1との差異を中心に実施例2について説明する。
In the second embodiment, the
実施例2のシステム構成は実施例1のシステム構成と同一である。実施例2の計算機100の構成は実施例1の計算機100の構成と同一である。実施例2の計算機100が保持する情報は、遅延時間定義情報313が実施例1の遅延時間定義情報313と異なる。その他の情報は、実施例1の計算機100が保持する情報と同一である。
The system configuration of the second embodiment is the same as the system configuration of the first embodiment. The configuration of the
図15は、実施例2の遅延時間定義情報313のデータ構造の一例を示す図である。
FIG. 15 is a diagram showing an example of the data structure of the delay
遅延時間定義情報313は、ID1501、模倣特徴量種別1502、及び遅延時間範囲1503から構成されるエントリを含む。一つのエントリが一種類の模倣アクションに対応する。
The delay
ID1501及び模倣特徴量種別1502は、ID601及び模倣特徴量種別602と同一のフィールドである。
遅延時間範囲1503は、模倣アクションに対応する遅延時間の範囲を格納するフィールドである。なお、遅延時間範囲1503は、最小値及び最大値から構成されるフィールドである。
The
遅延時間が常に一定の場合、ユーザが模倣アクションの実行を察知し、共感度が低下する可能性がある。そこで、実施例2では、計算機100は、所定の遅延時間の範囲内でランダムに遅延時間を設定する。これによって、模倣アクションの実行が察知されることを防ぐことができる。
If the delay time is always constant, the user may detect the execution of the imitation action and the empathy may decrease. Therefore, in the second embodiment, the
共感度が高まる遅延時間の範囲は、時間の経過及び状況の変化によって変化する。そこで、実施例2の計算機100は、出力情報316の履歴を分析することによって遅延時間の範囲を更新する。
The range of delay times during which empathy increases varies with the passage of time and changes in circumstances. Therefore, the
図16は、実施例2の学習モジュール104が実行する処理を説明するフローチャートである。図17は、実施例2の学習モジュール104が実行する遅延時間の学習処理の流れを示す図である。
FIG. 16 is a flowchart illustrating a process executed by the
学習モジュール104は、出力情報316が出力された後、又はユーザから指示を受け付けた場合に以下で説明する処理を実行する。なお、学習モジュール104は、周期的に処理を実行してもよい。
The
学習モジュール104は、変数iを初期化する(ステップS401)。
The
具体的には、学習モジュール104は変数iに「1」を設定する。ここで、変数iは、模倣アクションの種別に対応する。本実施例では、変数iが「1」の場合、「眼球の動き」を表し、変数iが「2」の場合、「顔の動き」を表し、変数iが「3」の場合、「身体の動き」を表す。
Specifically, the
次に、学習モジュール104は、変数iに対応する模倣アクションの遅延時間の学習処理を実行する(ステップS402)。具体的には、以下のような処理が実行される。
Next, the
(第1ステップ)学習モジュール104は、出力履歴情報318から所定の数のエントリを読み出す。ここでは、新しい順に、すなわち、ID1101が大きい順に、所定の数のエントリが読み出される。なお、読み出すエントリの数は予め設定されており、適宜変更できる。
(First step) The
(第2ステップ)学習モジュール104は、読み出されたエントリの中から一つのエントリを選択し、選択されたエントリに含まれる行の中から、出力値1103に変数iに対応する模倣アクションの識別情報が設定された行を検索する。学習モジュール104は、選択されたエントリの共感度1102及び検索された行の遅延時間1104を、共感度及び遅延時間を軸とする空間にプロットする。
(Second step) The
なお、変数iに対応する模倣アクションの識別情報が設定された行が複数存在する場合、学習モジュール104は、各行の遅延時間1104の統計値及び共感度1102を前述の空間にプロットする。統計値は、最大値、最小値、及び平均値等が考えられる。
When there are a plurality of rows in which the identification information of the imitation action corresponding to the variable i is set, the
学習モジュール104は、読み出された全てのエントリについて(第2ステップ)の処理を実行する。これによって、グラフ1701が生成される。
The
(第3ステップ)学習モジュール104は、(第2ステップ)の処理結果に基づいて最適遅延時間を算出する。算出方法としては、以下のような方法が考えられる。
(Third step) The
(方法1)学習モジュール104は、グラフ1701から共感度が最大となる遅延時間を最適遅延時間として算出する。
(Method 1) The
(方法2)学習モジュール104は、共感度をy、遅延時間をxとし、未定の係数を含む関係式を設定し、最小二乗法に基づいて係数を決定する。学習モジュール104は、当該関係式を用いてyの値が最大となるxを算出する。関係式は、例えば、y=ax2+bx+cを設定する。なお、共感度が最大となる遅延時間が、全ての遅延時間の最大値又は最小値と等しい場合、関係式としてy=ax+bを設定し、一定の範囲内でyが最大となるxを算出すればよい。
(Method 2) The
(第4ステップ)学習モジュール104は、最適遅延時間を用いて遅れ時間範囲を算出する。例えば、学習モジュール104は、最適遅延時間に0.95を乗算した値を範囲の最小値として算出し、最適遅延時間に1.05を乗算した値を範囲の最大値として算出する。また、別の方法としては、学習モジュール104は、グラフ1701に基づいて共感度が閾値より大きい範囲を算出する。
(Fourth step) The
なお、前述した処理は一例であってこれに限定されない。例えば、エントリに含まれる模倣特徴量を用いた主成分分析等の多変量解析を実行してもよい。 The above-mentioned process is an example and is not limited to this. For example, multivariate analysis such as principal component analysis using the imitation features included in the entry may be performed.
なお、実施例2の学習処理は、実施例1にも適用できる。この場合、(第1ステップ)、(第2ステップ)、及び(第3ステップ)が実行される。学習モジュール104は、最適遅延時間を遅延時間603に設定する。以上がステップS402の処理の説明である。
The learning process of Example 2 can also be applied to Example 1. In this case, (first step), (second step), and (third step) are executed. The
次に、学習モジュール104は、学習処理の結果に基づいて遅延時間定義情報313を更新する(ステップS403)。
Next, the
具体的には、学習モジュール104は、変数iに対応する模倣アクションのエントリの遅延時間範囲1503に算出された最大値及び最小値を設定する。
Specifically, the
次に、学習モジュール104は、全ての模倣アクションについて処理が完了したか否かを判定する(ステップS404)。
Next, the
全ての模倣アクションについて処理が完了していないと判定された場合、学習モジュール104は、変数iに「1」を加算し(ステップS405)、その後、ステップS402に戻る。
When it is determined that the processing is not completed for all the imitation actions, the
全ての模倣アクションについて処理が完了したと判定された場合、学習モジュール104は、発話内容の学習処理を実行する(ステップS406)。
When it is determined that the processing is completed for all the imitation actions, the
具体的には、以下のような処理が実行される。 Specifically, the following processing is executed.
(第1ステップ)学習モジュール104は、出力履歴情報318から所定の数のエントリを読み出す。ここでは、新しい順に、すなわち、ID1101が大きい順に、所定の数のエントリが読み出される。なお、読み出すエントリの数は予め設定されており、適宜変更できる。
(First step) The
(第2ステップ)学習モジュール104は、読み出されたエントリの各々に含まれる行の中から、出力値1103に発話内容が設定された行を検索する。学習モジュール104は、検索された行の共感度1102及び発話内容を取得する。
(Second step) The
このとき、学習モジュール104は、検索された行に設定された発話内容をそのまま取得してもよいし、所定の文字数分の発話内容を取得してもよいし、また、特定の用語を含む発話内容を取得してもよい。検索された行に設定された発話内容をそのまま取得する場合、学習モジュール104は、文節毎に区切り、文節と共感度を対応付けたデータとして扱ってもよい。
At this time, the
(第3ステップ)学習モジュール104は、共感度及び発話内容の関係性を算出する。学習モジュール104は、共感度が高い発話内容を言語データベースに格納する。このとき、特定の用語又は表現を含む文節のみを言語データベースに格納するようにしてもよい。また、学習モジュール104は、前述の関係性に基づいてアルゴリズムを修正してもよい。以上がステップS406の処理の説明である。
(Third step) The
実施例2では、模倣情報算出モジュール101が実行する処理が一部異なる。具体的には、ステップS108において、模倣情報算出モジュール101は、遅延時間範囲1503に示された範囲内でランダムに遅延時間を決定する。模倣情報算出モジュール101は、追加された模倣情報312のエントリの遅延時間505に、決定された遅延時間を設定する。その他の処理は実施例1の処理と同一である。
In the second embodiment, the processing executed by the imitation
実施例2では、言語情報算出モジュール102が実行する処理が一部異なる。具体的には、ステップS208において、言語情報算出モジュール102は、更新された言語データベースに格納される発話内容を選択する。該当する発話内容が複数存在する場合、発話内容の類似度等に基づいて選択すればよい。その他の処理は実施例1の処理と同一である。
In the second embodiment, the processing executed by the language
実施例2の出力情報生成モジュール103が実行する処理は、実施例1の処理と同一である。
The process executed by the output
なお、出力情報316の履歴は、ユーザ単位で管理してもよい。この場合、出力履歴情報318にユーザの識別情報を格納するフィールドを設ければよい。これによって、対象のユーザに関連する出力情報316のみを用いた学習処理、及び対象のユーザ以外のユーザに関連する出力情報316を用いた学習処理を実行することができる。当該学習処理によって、ユーザ単位に模倣アクションの遅延時間を設定できる。
The history of the
実施例2によれば、学習処理によって遅延時間範囲又は遅延時間を更新することによって、より高い共感を誘起する対話を実現できる。また、遅延時間幅の中からランダムに遅延時間を選択することによって、自然かつ多様な出力アクションの実行が可能となるため、より高い共感を誘起し、持続的な対話及び多情報の対話を実現できる。 According to the second embodiment, the dialogue that induces higher empathy can be realized by updating the delay time range or the delay time by the learning process. In addition, by randomly selecting the delay time from the delay time width, it is possible to execute various output actions naturally, which induces higher empathy and realizes continuous dialogue and multi-information dialogue. it can.
実施例3では、計算機100が共感度を算出するための生体信号を取得し、共感度をリアルタイムに算出する。また、実施例3では、計算機100が、共感度に基づいて遅延時間を算出する。実施例1との差異を中心に、実施例3について説明する。
In the third embodiment, the
図18は、実施例3のシステムの構成例を示す図である。 FIG. 18 is a diagram showing a configuration example of the system of the third embodiment.
実施例3のシステムは生体信号を取得する計測装置を備える。具体的には、実施例3のシステムは、脳波活動計測装置1801、心拍計測装置1802、及び発汗量計測装置1803を備える。
The system of the third embodiment includes a measuring device that acquires a biological signal. Specifically, the system of the third embodiment includes an electroencephalogram
脳波活動計測装置1801は、脳波及び脳波血流等を示す生体信号を計測する。心拍計測装置1802は、心拍等を示す生体信号を計測する。発汗量計測装置1803は、発汗量を示す生体信号を計測する。なお、心拍計測装置1802及び発汗量計測装置1803は、自律神経活動の評価に用いる指標を計測する装置の一例であって、これに限定されない。
The electroencephalogram
また、実施例3の情報群105には、生体信号情報1900が含まれる。図19は、実施例3の計算機100が保持する生体信号情報1900のデータ構造の一例を示す図である。生体信号情報1900は、ID1901、信号名1902、取得時間1903、及びポインタ1904から構成されるエントリを含む。一つのエントリが一つの生体信号に対応する。
In addition, the
ID1901は、生体信号情報1900のエントリを一意に識別するための識別情報を格納するフィールドである。 ID1901 is a field for storing identification information for uniquely identifying the entry of the biological signal information 1900.
信号名1902は、生体信号の種別等を識別するための情報を格納するフィールドである。本実施例では、生体信号を計測した計測装置の名称が信号名1902に格納される。なお、生体信号に含まれるデータの種別が格納されてもよい。
The
取得時間1903は、生体信号の取得時間を格納するフィールドである。取得時間1903には、例えば、生体信号の計測の開始時間を基準とした時間が格納される。
The
ポインタ1904は、取得された生体信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ1904の代わりに、取得された生体信号を格納するフィールドを設けてもよい。
The
実施例3では、情報群105に含まれる情報のうち出力情報316が一部異なる。図20は、実施例3の出力情報316のデータ構造の一例を示す図である。
In the third embodiment, the
実施例3の出力情報316に含まれるエントリは、共感度2001を含む。共感度2001は、生体信号を用いて算出された共感度を格納するフィールドである。
The entries included in the
実施例3では、模倣情報算出モジュール101が実行する処理が一部異なる。図21A及び図21Bは、実施例3の模倣情報算出モジュール101が実行する処理を説明するフローチャートである。
In the third embodiment, the processing executed by the imitation
模倣情報算出モジュール101は、イベントが発生したと判定された場合、対話信号とともに、生体信号を取得する(ステップS151)。
When it is determined that the event has occurred, the imitation
このとき、模倣情報算出モジュール101は、取得した生体信号を記憶領域に格納する。模倣情報算出モジュール101は、生体信号情報1900を初期化し、取得された生体信号の数だけ生体信号情報1900にエントリを追加する。模倣情報算出モジュール101は、追加されたエントリの各フィールドに値を設定する。
At this time, the imitation
次に、模倣情報算出モジュール101は、生体信号を用いて共感度を算出する(ステップS152)。
Next, the imitation
例えば、模倣情報算出モジュール101は、発汗量計測装置1803から発汗量を示す生体信号を取得した場合、単位時間当たりの発汗量を算出する。発汗量が多い場合、自律神経活動のうち交感神経活動が亢進していることを示し、発汗量が少ない場合、交感神経活動が抑制されていることを示す。そこで、模倣情報算出モジュール101は、発汗量を変数とする数式に基づいて共感度を算出する。交感神経活動が抑制されている場合、ユーザはリラックスした状態であることを示すため共感度は大きい値となる。
For example, the imitation
模倣情報算出モジュール101は、複数種類の生体信号を取得した場合、種類が異なる生体信号の各々から共感度を算出するための指標を算出し、当該指標を変数とする数式に基づいて共感度を算出する。なお、指標は安静時の生体信号を用いて規格化された値でもよい。例えば、心拍動間隔及び発汗量を示す生体信号を取得した場合、それぞれの指標を算出し、基準値からの変化率を算出し、さらに、変化率の平均値を共感度として算出する。なお、基準値は、安静時に取得された生体信号を用いて算出された単位時間当たりの生体信号の値の平均値を用いることが考えられる。
When a plurality of types of biological signals are acquired, the imitation
なお、同一種類の生体信号を取得する計測装置が複数存在する場合、各種類の生体信号から算出された指標の平均値を用いればよい。 When there are a plurality of measuring devices that acquire the same type of biological signal, the average value of the indexes calculated from each type of biological signal may be used.
ステップS107の処理が実行された後、模倣情報算出モジュール101は、遅延時間を設定する(ステップS153)。具体的には、以下のような処理が実行される。
After the process of step S107 is executed, the imitation
模倣情報算出モジュール101は、遅延時間定義情報313を参照し、模倣特徴量種別602が変数jに対応する種別と一致するエントリを検索する。模倣情報算出モジュール101は、検索されたエントリの遅延時間603から値を取得する。
The imitation
模倣情報算出モジュール101は、共感度及び遅延時間を変数とする数式を用いて、設定する遅延時間を算出する。
The imitation
模倣情報算出モジュール101は、ステップS107において追加された模倣情報312のエントリの遅延時間505に算出された遅延時間を設定する。また、模倣情報算出モジュール101は、遅延時間定義情報313から検索されたエントリの遅延時間603に算出された遅延時間を設定する。
The imitation
なお、模倣情報算出モジュール101は、出力履歴情報318を参照し、共感度1102の値が算出された共感度より大きいエントリの中から、最も共感度が大きいエントリを検索し、検索されたエントリの遅延時間1104の値を遅延時間505として設定してもよい。
The imitation
なお、共感度を算出する場合に、対話信号を用いてもよい。この場合、ステップS152の処理は、ステップS107の処理の後に実行される。以上がステップS153の処理の説明である。 An interactive signal may be used when calculating the sympathy. In this case, the process of step S152 is executed after the process of step S107. The above is the description of the process of step S153.
なお、模倣情報算出モジュール101は、一定期間分の生体信号及び対話信号を取得し、学習モジュール104に学習処理の実行を指示してもよい。この場合、時間間隔が短い学習処理が実行される。模倣情報算出モジュール101は、学習モジュール104が算出した最適遅延時間を設定する。
The imitation
ステップS101からステップS107までの処理、及びステップS109からステップS112までの処理は、実施例1で説明した処理と同一である。 The processing from step S101 to step S107 and the processing from step S109 to step S112 are the same as the processing described in the first embodiment.
本実施例では、生体信号を用いて共感度を算出しているが、対話信号を用いて共感度を算出してもよい。例えば、模倣情報算出モジュール101は、顔画像を分析し、ユーザの眉、眼、口等の特徴量を算出し、当該特徴量からユーザの表情を評価することによって同様の指標を算出できる。
In this embodiment, the sympathy is calculated using the biological signal, but the sympathy may be calculated using the dialogue signal. For example, the imitation
言語情報算出モジュール102が実行する処理は、実施例1の処理と同一である。出力情報生成モジュール103が実行する処理は、ステップS302の処理及びステップS306の処理が一部異なる。その他のステップの処理は、実施例1の処理と同一である。
The process executed by the language
ステップS302では、出力情報生成モジュール103は、出力情報316にエントリを追加した後、追加されたエントリの共感度2001にステップS152において算出された共感度を設定する。その他の処理は実施例1と同一の処理である。
In step S302, the output
ステップS306では、出力情報生成モジュール103は、出力履歴情報318に追加されたエントリの共感度1102にステップS152において算出された共感度を設定する。その他の処理は実施例1と同一の処理である。
In step S306, the output
実施例3によれば、リアルタイムに算出された共感度に基づいて遅延時間を設定することによって、より高い共感を誘起する対話を実現できる。 According to the third embodiment, by setting the delay time based on the empathy calculated in real time, it is possible to realize a dialogue that induces higher empathy.
実施例4では、計算機100は、出力アクションを実行する対話インタフェースを制御する情報として遅延時間及び出力条件情報317を用いる。実施例1との差異を中心に、実施例4について説明する。
In the fourth embodiment, the
実施例4のシステム構成は実施例1のシステム構成と同一である。実施例4の計算機100の構成は実施例1の計算機100の構成と同一である。実施例4の計算機100が保持する情報は、実施例1の計算機100が保持する情報と同一である。
The system configuration of the fourth embodiment is the same as the system configuration of the first embodiment. The configuration of the
実施例4の模倣情報算出モジュール101及び言語情報算出モジュール102が実行する処理は、実施例1の処理と同一である。
The processing executed by the imitation
実施例4では、出力情報生成モジュール103が実行する処理が一部異なる。具体的にはステップS304及びステップS305の処理が異なる。
In the fourth embodiment, the processing executed by the output
出力情報生成モジュール103は、出力情報316から遅延時間903がタイマの値以上のエントリを検索する。また、出力情報生成モジュール103は、出力条件情報317を参照し、模倣特徴量及び発話内容等に基づいて、条件1003に現在の状態に該当するエントリを検索する。
The output
二つの検索処理の少なくともいずれかに該当するエントリが存在する場合、出力情報生成モジュール103は、条件を満たす出力アクションが存在すると判定する。
When an entry corresponding to at least one of the two search processes exists, the output
ステップS305では、出力情報生成モジュール103は、二つの検索処理によって取得した遅延時間903及び条件1003に基づいて、対話インタフェースの制御タイミングを調整する。二つの検索処理のそれぞれからエントリが検索された場合、優先順位に基づいて対話インタフェースが制御される。
In step S305, the output
実施例4によれば、計算機100は、遅延時間及び出力条件に基づいて出力アクションの実行を制御することによって、多様な出力アクションの実行が可能となる。したがって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。
According to the fourth embodiment, the
実施例5では、各実施例において、計算機100に対する設定を行うためのGUI(Graphical User Interface)について説明する。
In the fifth embodiment, a GUI (Graphical User Interface) for making settings for the
図22及び図23は、実施例5の計算機100に対する設定を行うためのGUIの一例を示す図である。
22 and 23 are diagrams showing an example of a GUI for making settings for the
図22に示すGUI2200は、情報の設定を行うためのGUIであり、対話特徴量設定欄2210、模倣特徴量設定欄2220、条件設定欄2230、学習処理設定欄2240、生体信号設定欄2250、共感度評価設定欄2260、遅延時間の設定ボタン2270、及び保存ボタン2275を含む。
The
対話特徴量設定欄2210は、対話特徴量を設定するための欄であり、設定数表示欄2211、ラジオボタン2212、及び設定フィールド群2213を含む。対話特徴量設定欄2210に値を入力することによって、算出する対話データ及び対話特徴量を計算機100に設定できる。
The dialogue feature
設定数表示欄2211は、設定された対話特徴量の種類の数を表示する欄である。 The set number display field 2211 is a field for displaying the number of types of set dialogue features.
ラジオボタン2212は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン2212を操作することによって、設定フィールド群2213への入力が可能となる。
The
設定フィールド群2213は、対話信号の種別、対話データの種別、及び対話特徴量の種別を設定するフィールドを含む。なお、設定フィールド群2213には他のフィールドが含まれてもよい。
The setting
模倣特徴量設定欄2220は、模倣特徴量を設定するための欄であり、設定数表示欄2221、ラジオボタン2222、及び設定フィールド群2223を含む。模倣特徴量設定欄2220に値を入力することによって、算出する模倣特徴量、及び模倣アクションに対応する遅延時間を設定できる。
The imitation feature
設定数表示欄2221は、設定された模倣特徴量の種類の数を表示する欄である。 The set number display column 2221 is a column for displaying the number of types of set imitation feature quantities.
ラジオボタン2222は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン2222を操作することによって、設定フィールド群2223への入力が可能となる。
The
設定フィールド群2223は、模倣特徴量の種別、対話特徴量の種別、及び遅延時間を設定するフィールドを含む。なお、設定フィールド群2223には他のフィールドが含まれてもよい。設定フィールド群2223に含まれる遅延時間は、遅延時間定義情報313に設定される。
The setting
設定フィールド群2223に含まれる遅延時間のフィールドには、後述するGUI2300を用いて算出された最適遅延時間又は遅延時間範囲が設定される。なお、遅延時間のフィールドには、専門家が手動で値を設定してもよい。
The optimum delay time or delay time range calculated by using GUI2300, which will be described later, is set in the delay time field included in the setting
条件設定欄2230は、模倣特徴量の条件を設定するための欄であり、設定数表示欄2231、ラジオボタン2232、及び設定フィールド群2233を含む。条件設定欄2230に値を入力することによって、出力条件情報317を設定できる。
The
設定数表示欄2231は、設定される条件の数を表示する欄である。 The set number display field 2231 is a field for displaying the number of set conditions.
ラジオボタン2232は、条件を設定する場合に操作されるボタンである。ラジオボタン2232を操作することによって、設定フィールド群2233への入力が可能となる。
The
設定フィールド群2233は、模倣特徴量種別及び条件を含む。なお、設定フィールド群2233には他のフィールドが含まれてもよい。
The setting
学習処理設定欄2240は、遅延時間の学習方法を設定する欄であり、設定表示欄2241及び設定ラジオボタン群を含む。学習処理設定欄2240に値を入力することによって、学習方法を設定できる。
The learning
本実施例では、学習データの有無を選択するラジオボタン、及び使用する学習データを選択するラジオボタンが含まれる。設定表示欄2241には、設定ラジオボタン群の操作結果が表示される。 In this embodiment, a radio button for selecting the presence or absence of learning data and a radio button for selecting the learning data to be used are included. The operation result of the setting radio button group is displayed in the setting display field 2241.
生体信号設定欄2250は、生体信号及び指標を設定するための欄であり、設定数表示欄2251、ラジオボタン2252、及び設定フィールド群2253を含む。生体信号設定欄2250に値を入力することによって、計測する生体信号及び算出する指標を設定できる。
The biological
設定数表示欄2251は、設定された生体信号の種類の数を表示する欄である。 The set number display field 2251 is a field for displaying the number of set types of biological signals.
ラジオボタン2252は、生体信号を設定する場合に操作されるボタンである。ラジオボタン2252を操作することによって、設定フィールド群2253への入力が可能となる。
The
設定フィールド群2253は、生体信号種別、活動、及び指標を設定するフィールドを含む。活動は、生体信号種別に対応する生体信号に基づいて評価する活動の識別情報を格納するフィールドである。指標は、活動と指標の関係性を設定するフィールドである。なお、設定フィールド群2253には他のフィールドが含まれてもよい。
The setting
共感度評価設定欄2260は、共感度を算出する時に使用する指標を設定するための欄であり、設定表示欄2261及び設定ラジオボタン群を含む。共感度評価設定欄2260に値を入力することによって、共感度をリアルタイムに算出するか否かを設定できる。
The sympathy
本実施例では、共感度をリアルタイムに評価するか否かを選択するラジオボタン、及び評価時に使用する生体信号を選択するラジオボタンが含まれる。設定表示欄2261には、設定ラジオボタン群の操作結果が表示される。 In this embodiment, a radio button for selecting whether or not to evaluate the sympathy in real time and a radio button for selecting a biological signal to be used at the time of evaluation are included. The operation result of the setting radio button group is displayed in the setting display field 2261.
遅延時間の設定ボタン2270は、学習処理の実行を指示するためのボタンである。当該ボタンが操作された場合、学習モジュール104が図16に示す処理を実行し、処理結果を図23に示すGUI2300として表示する。
The delay
保存ボタン2275は、各設定欄の入力を保存する場合に操作されるボタンである。
The
なお、GUI2200は、表示モード及び編集モードを切り替えるボタンを含んでもよい。
The
図23に示すGUI2300は、学習処理に基づいて遅延時間又は遅延時間幅を設定するためのGUIであり、模倣特徴量種別選択欄2301、最適遅延時間表示欄2302、遅延時間範囲表示欄2303、グラフ表示欄2304、設定表示欄2305、フィッティング方法設定欄2306、設定表示欄2307、学習データ選択欄2308、設定表示欄2309、算出方法設定欄2310、設定表示欄2311、遅延時間範囲算出方法設定欄2312、及び戻りボタン2313を含む。
The
模倣特徴量種別選択欄2301は、学習する模倣アクションに対応する模倣特徴量を選択する欄である。 The imitation feature amount type selection column 2301 is a column for selecting the imitation feature amount corresponding to the imitation action to be learned.
最適遅延時間表示欄2302は、学習処理によって算出された最適遅延時間を表示する欄である。 The optimum delay time display column 2302 is a column for displaying the optimum delay time calculated by the learning process.
遅延時間範囲表示欄2303は、学習処理によって算出された遅延時間範囲を表示する欄である。 The delay time range display column 2303 is a column for displaying the delay time range calculated by the learning process.
グラフ表示欄2304は、遅延時間及び共感度の関係性を示すグラフを表示する欄である。
The
設定表示欄2305は、フィッティング方法設定欄2306の操作結果を表示する欄である。
The setting
フィッティング方法設定欄2306は、フィッティング方法を設定するための欄である。フィッティング方法設定欄2306には、フィッティング方法を選択するためのラジオボタン群が含まれる。
The fitting
設定表示欄2307は、学習データ選択欄2308の操作結果を表示する欄である。
The setting
学習データ選択欄2308は、学習に使用するデータを選択するための欄である。学習データ選択欄2308には、個人データ又は集団データのいずれかを選択するラジオボタンが含まれる。
The learning
設定表示欄2309は、算出方法設定欄2310の操作結果を表示する欄である。
The setting
算出方法設定欄2310は、最適遅延時間の算出方法を設定する欄である。算出方法設定欄2310は、最適遅延時間を算出するか否かを選択するラジオボタン、及び最適遅延時間の算出基準を選択するラジオボタンを含む。
The calculation
設定表示欄2311は、遅延時間範囲算出方法設定欄2312の操作結果を表示する欄である。算出基準には最大値及び最小値が表示される。
The setting
遅延時間範囲算出方法設定欄2312は、遅延時間範囲の算出方法を設定する欄である。遅延時間範囲算出方法設定欄2312は、遅延時間範囲を算出するか否かを選択するラジオボタン、及び遅延時間の算出基準を選択するラジオボタンを含む。算出基準には割合及び閾値が表示される。なお、割合及び閾値に設定する値は変更することができる。
The delay time range calculation
戻りボタン2313は、GUI2200に切り替えるためのボタンである。
The
GUI2200及びGUI2300を用いることによって、対話特徴量、模倣特徴量、及び生体信号等の遅延時間を設定するために必要な情報を容易に設定でき、また、設定した値の確認及び変更が容易にできる。 By using GUI2200 and GUI2300, it is possible to easily set the information necessary for setting the delay time such as the dialogue feature amount, the imitation feature amount, and the biological signal, and it is possible to easily confirm and change the set value. ..
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 The present invention is not limited to the above-mentioned examples, and includes various modifications. Further, for example, the above-described embodiment describes the configuration in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add, delete, or replace a part of the configuration of the embodiment with another configuration.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるCPUが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. The present invention can also be realized by a program code of software that realizes the functions of the examples. In this case, a storage medium in which the program code is recorded is provided to the computer, and the CPU included in the computer reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code itself constitute the present invention. Examples of the storage medium for supplying such a program code include a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, and a magnetic tape. Non-volatile memory cards, ROMs, etc. are used.
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 In addition, the program code that realizes the functions described in this embodiment can be implemented in a wide range of programs or script languages such as assembler, C / C ++, perl, Shell, PHP, and Java (registered trademark).
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるCPUが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Further, by distributing the program code of the software that realizes the functions of the examples via the network, it is stored in a storage means such as a hard disk or memory of a computer or a storage medium such as a CD-RW or a CD-R. The CPU provided in the computer may read and execute the program code stored in the storage means or the storage medium.
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above-described embodiment, the control lines and information lines show what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. All configurations may be interconnected.
100 計算機
101 模倣情報算出モジュール
102 言語情報算出モジュール
103 出力情報生成モジュール
104 学習モジュール
110 対話信号計測装置
120 言語信号計測装置
130 表示装置
140 対話出力装置
150 入力装置
154 遅延時間
301 演算装置
302 記憶装置
303 入力インタフェース
304 出力インタフェース
311 対話信号情報
312 模倣情報
313 遅延時間定義情報
314 言語信号情報
315 発話情報
316 出力情報
317 出力条件情報
318 出力履歴情報
1801 脳波活動計測装置
1802 心拍計測装置
1803 発汗量計測装置
1900 生体信号情報
100
Claims (13)
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、
前記記憶装置は、前記対話インタフェースが前記ユーザに対して行う応答アクションの種別と、前記応答アクションの制御のタイミングを調整する制御時間の設定可能な範囲を示す設定範囲と、から構成されるエントリを含む制御時間定義情報を保持し、
前記演算装置は、
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、
前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、
前記制御時間定義情報を参照し、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出し、
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 An interactive system that provides an interactive interface for interacting with users.
The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
The storage device contains an entry composed of a type of response action performed by the dialogue interface to the user and a setting range indicating a settable range of a control time for adjusting the control timing of the response action. Holds control time definition information including
The arithmetic unit
Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
Based on the first feature amount, it calculates a second characteristic quantity which is a control value of the response actions,
With reference to the control time definition information , a random control time is calculated based on the setting range corresponding to the type of the response action.
A dialogue system characterized in that the dialogue interface is controlled based on the second feature amount and the control time.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記演算装置は、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 The arithmetic unit is a dialogue system characterized in that the dialogue interface is controlled based on the second feature quantity, the control time, and the condition information.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記記憶装置は、 The storage device is
前記対話インタフェースが前記ユーザに対して行う応答アクションの種別毎に設定される、前記応答アクションの制御のタイミングを調整する制御時間を管理する制御時間定義情報と、 Control time definition information for managing the control time for adjusting the control timing of the response action, which is set for each type of the response action performed by the dialogue interface for the user, and
前記対話インタフェースが行った前記応答アクションの履歴を管理する履歴情報と、 History information that manages the history of the response actions performed by the dialogue interface, and
を保持し、 Hold,
前記履歴情報は、前記応答アクションの有効性を示す指標を含み、 The historical information includes an index indicating the effectiveness of the response action.
前記演算装置は、 The arithmetic unit
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action, is calculated.
前記制御時間定義情報に基づいて、前記応答アクションの種別に応じた前記制御時間を算出し、 Based on the control time definition information, the control time according to the type of the response action is calculated.
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御し、 The dialogue interface is controlled based on the second feature amount and the control time.
さらに、前記演算装置は、 Further, the arithmetic unit is
前記履歴情報を参照して、前記指標及び前記制御時間の関係性を分析し、 With reference to the history information, the relationship between the index and the control time is analyzed.
前記分析の結果に基づいて、前記制御時間定義情報を更新することを特徴とする対話システム。 An interactive system characterized in that the control time definition information is updated based on the result of the analysis.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記演算装置は、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 The arithmetic unit is a dialogue system characterized in that the dialogue interface is controlled based on the second feature quantity, the control time, and the condition information.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記演算装置は、 The arithmetic unit
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action performed by the dialogue interface to the user, is calculated.
前記計測装置が計測した信号に基づいて、前記応答アクションの有効性を示す指標を算出し、 Based on the signal measured by the measuring device, an index indicating the effectiveness of the response action is calculated.
前記第1特徴量及び前記指標に基づいて、前記応答アクションの制御のタイミングを調整する制御時間を算出し、 Based on the first feature amount and the index, the control time for adjusting the control timing of the response action is calculated.
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 A dialogue system characterized in that the dialogue interface is controlled based on the second feature amount and the control time.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記演算装置は、 The arithmetic unit
前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring device, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action performed by the dialogue interface to the user, is calculated.
前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出し、 A control time for adjusting the control timing of the response action is calculated according to the type of the response action.
前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御し、 The dialogue interface is controlled based on the second feature amount and the control time.
前記応答アクションは、前記ユーザのアクションを模倣するアクションであり、 The response action is an action that imitates the action of the user.
前記制御時間は、遅延時間であることを特徴とする対話システム。 The dialogue system, wherein the control time is a delay time.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記記憶装置は、前記対話インタフェースが前記ユーザに対して行う応答アクションの種別と、前記応答アクションの制御のタイミングを調整する制御時間の設定可能な範囲を示す設定範囲と、から構成されるエントリを含む制御時間定義情報を保持し、 The storage device contains an entry composed of a type of response action performed by the dialogue interface to the user and a setting range indicating a settable range of a control time for adjusting the control timing of the response action. Holds control time definition information including
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of the response action, based on the first feature amount.
前記演算装置が、前記応答アクションの種別に応じて、前記制御時間を算出する第3のステップと、 A third step in which the arithmetic unit calculates the control time according to the type of the response action, and
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、を含み、 The arithmetic unit includes a fourth step of controlling the interactive interface based on the second feature amount and the control time.
前記第3のステップは、前記演算装置が、前記制御時間定義情報を参照し、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出するステップを含むことを特徴とする対話システムの制御方法。 The third step is characterized in that the arithmetic unit includes a step of calculating a random control time based on the setting range corresponding to the type of the response action by referring to the control time definition information. How to control the interactive system.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記第4のステップは、前記演算装置が、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御するステップを含むことを特徴とする対話システムの制御方法。 The fourth step is a control method of a dialogue system, wherein the arithmetic unit includes a step of controlling the dialogue interface based on the second feature amount, the control time, and the condition information.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記記憶装置は、 The storage device is
前記対話インタフェースが前記ユーザに対して行う応答アクションの種別毎に設定される、前記応答アクションの制御のタイミングを調整する制御時間を管理する制御時間定義情報と、 Control time definition information for managing the control time for adjusting the control timing of the response action, which is set for each type of the response action performed by the dialogue interface for the user, and
前記対話インタフェースが行った前記応答アクションの履歴を管理する履歴情報と、 History information that manages the history of the response actions performed by the dialogue interface, and
を保持し、 Hold,
前記履歴情報は、前記応答アクションの有効性を示す指標を含み、 The historical information includes an index indicating the effectiveness of the response action.
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of the response action, based on the first feature amount.
前記演算装置が、前記制御時間定義情報に基づいて、前記応答アクションの種別に応じた前記制御時間を算出する第3のステップと、 A third step in which the arithmetic unit calculates the control time according to the type of the response action based on the control time definition information.
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、 A fourth step in which the arithmetic unit controls the interactive interface based on the second feature amount and the control time.
前記演算装置が、前記履歴情報を参照して、前記指標及び前記制御時間の関係性を分析する第5のステップと、 A fifth step in which the arithmetic unit analyzes the relationship between the index and the control time with reference to the history information, and
前記演算装置が、前記分析の結果に基づいて、前記制御時間定義情報を更新する第6のステップと、 A sixth step in which the arithmetic unit updates the control time definition information based on the result of the analysis.
を含むことを特徴とする対話システムの制御方法。 A method of controlling an interactive system, characterized in that it includes.
前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、 The storage device holds condition information that manages execution conditions of the response action.
前記第4のステップは、前記演算装置が、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御するステップを含むことを特徴とする対話システムの制御方法。 The fourth step is a control method of a dialogue system, wherein the arithmetic unit includes a step of controlling the dialogue interface based on the second feature amount, the control time, and the condition information.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of a response action performed by the dialogue interface to the user, based on the first feature amount.
前記演算装置が、前記計測装置が計測した信号に基づいて、前記応答アクションの有効性を示す指標を算出する第3のステップと、 A third step in which the arithmetic unit calculates an index indicating the effectiveness of the response action based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量及び前記指標に基づいて、前記応答アクションの制御のタイミングを調整する制御時間を算出する第4のステップと、 A fourth step in which the arithmetic unit calculates a control time for adjusting the control timing of the response action based on the first feature amount and the index.
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第5のステップと、を含むことを特徴とする対話システムの制御方法。 A control method for a dialogue system, wherein the arithmetic unit includes a fifth step of controlling the dialogue interface based on the second feature amount and the control time.
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、 The dialogue system includes an arithmetic unit, a storage device connected to the arithmetic unit, a computer having an interface connected to the arithmetic unit, and a measuring device for measuring a signal related to the utterance of the user.
前記対話システムの制御方法は、 The control method of the dialogue system is
前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、 The first step in which the arithmetic unit calculates a first feature amount indicating the characteristics of the user action in the utterance of the user based on the signal measured by the measuring device.
前記演算装置が、前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出する第2のステップと、 A second step in which the arithmetic unit calculates a second feature amount, which is a control value of a response action performed by the dialogue interface to the user, based on the first feature amount.
前記演算装置が、前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出する第3のステップと、 A third step in which the arithmetic unit calculates a control time for adjusting the control timing of the response action according to the type of the response action.
前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、を含み、 The arithmetic unit includes a fourth step of controlling the interactive interface based on the second feature amount and the control time.
前記応答アクションは、前記ユーザのアクションの模倣するアクションであり、 The response action is an action that mimics the action of the user.
前記制御時間は、遅延時間であることを特徴とする対話システムの制御方法。 A control method for an interactive system, wherein the control time is a delay time.
前記装置は、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェース、及び前記ユーザの発話に関連する信号を計測する計測器を備え、 The device includes an arithmetic unit, a storage device connected to the arithmetic unit, an interface connected to the arithmetic unit, and a measuring instrument for measuring a signal related to the utterance of the user.
前記記憶装置は、前記対話インタフェースによって前記ユーザに対して行われる、前記ユーザのアクションを模倣する応答アクションの種別毎に、前記応答アクションの制御タイミングを調整する遅延時間を管理する遅延時間定義情報を保持し、 The storage device provides delay time definition information for managing a delay time for adjusting the control timing of the response action for each type of response action that imitates the user's action, which is performed on the user by the dialogue interface. Hold and
前記演算装置は、 The arithmetic unit
前記計測器によって計測された信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、 Based on the signal measured by the measuring instrument, the first feature amount indicating the feature of the user action in the utterance of the user is calculated.
前記第1特徴量に基づいて、前記応答アクションの制御値である第2特徴量を算出し、 Based on the first feature amount, the second feature amount, which is a control value of the response action, is calculated.
前記遅延時間定義情報に基づいて、前記応答アクションの種別に応じた前記遅延時間を算出し、 Based on the delay time definition information, the delay time according to the type of the response action is calculated.
前記第2特徴量及び前記遅延時間に基づいて、前記対話インタフェースを制御することを特徴とする装置。 An apparatus characterized in that the dialogue interface is controlled based on the second feature amount and the delay time.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017113177A JP6768597B2 (en) | 2017-06-08 | 2017-06-08 | Dialogue system, control method of dialogue system, and device |
US15/903,640 US10832119B2 (en) | 2017-06-08 | 2018-02-23 | Interactive agent for imitating and reacting to a user based on user inputs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017113177A JP6768597B2 (en) | 2017-06-08 | 2017-06-08 | Dialogue system, control method of dialogue system, and device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018205616A JP2018205616A (en) | 2018-12-27 |
JP6768597B2 true JP6768597B2 (en) | 2020-10-14 |
Family
ID=64564130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017113177A Active JP6768597B2 (en) | 2017-06-08 | 2017-06-08 | Dialogue system, control method of dialogue system, and device |
Country Status (2)
Country | Link |
---|---|
US (1) | US10832119B2 (en) |
JP (1) | JP6768597B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6993314B2 (en) * | 2018-11-09 | 2022-01-13 | 株式会社日立製作所 | Dialogue systems, devices, and programs |
CN110347248B (en) * | 2019-06-24 | 2023-01-24 | 歌尔科技有限公司 | Interactive processing method, device, equipment and audio equipment |
CN110716634A (en) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | Interaction method, device, equipment and display equipment |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5029214A (en) * | 1986-08-11 | 1991-07-02 | Hollander James F | Electronic speech control apparatus and methods |
JP2001325052A (en) * | 2000-05-17 | 2001-11-22 | Sharp Corp | Agent display device, agent display method, and recording medium with agent display program recorded |
US20020008716A1 (en) * | 2000-07-21 | 2002-01-24 | Colburn Robert A. | System and method for controlling expression characteristics of a virtual agent |
US6728679B1 (en) * | 2000-10-30 | 2004-04-27 | Koninklijke Philips Electronics N.V. | Self-updating user interface/entertainment device that simulates personal interaction |
US6731307B1 (en) * | 2000-10-30 | 2004-05-04 | Koninklije Philips Electronics N.V. | User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality |
US7136818B1 (en) * | 2002-05-16 | 2006-11-14 | At&T Corp. | System and method of providing conversational visual prosody for talking heads |
CN1991982A (en) * | 2005-12-29 | 2007-07-04 | 摩托罗拉公司 | Method of activating image by using voice data |
US8165282B1 (en) * | 2006-05-25 | 2012-04-24 | Avaya Inc. | Exploiting facial characteristics for improved agent selection |
US7814041B2 (en) * | 2007-03-20 | 2010-10-12 | Caporale John L | System and method for control and training of avatars in an interactive environment |
BRPI0809759A2 (en) * | 2007-04-26 | 2014-10-07 | Ford Global Tech Llc | "EMOTIVE INFORMATION SYSTEM, EMOTIVE INFORMATION SYSTEMS, EMOTIVE INFORMATION DRIVING METHODS, EMOTIVE INFORMATION SYSTEMS FOR A PASSENGER VEHICLE AND COMPUTER IMPLEMENTED METHOD" |
KR101475459B1 (en) * | 2008-01-09 | 2014-12-23 | 삼성디스플레이 주식회사 | Timming controller , data processing method using the same and display appartus having the same |
JP2011033837A (en) * | 2009-07-31 | 2011-02-17 | Nec Corp | Interaction support device, interaction support device, and program |
BRPI0904540B1 (en) * | 2009-11-27 | 2021-01-26 | Samsung Eletrônica Da Amazônia Ltda | method for animating faces / heads / virtual characters via voice processing |
JP2012181697A (en) | 2011-03-01 | 2012-09-20 | Nec Corp | Dialog system, interaction control method, and program |
JP5982840B2 (en) * | 2012-01-31 | 2016-08-31 | 富士通株式会社 | Dialogue device, dialogue program, and dialogue method |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
JP6270661B2 (en) | 2014-08-08 | 2018-01-31 | 国立大学法人京都大学 | Spoken dialogue method and spoken dialogue system |
WO2017085992A1 (en) * | 2015-11-17 | 2017-05-26 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus |
US9792825B1 (en) * | 2016-05-27 | 2017-10-17 | The Affinity Project, Inc. | Triggering a session with a virtual companion |
-
2017
- 2017-06-08 JP JP2017113177A patent/JP6768597B2/en active Active
-
2018
- 2018-02-23 US US15/903,640 patent/US10832119B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180357526A1 (en) | 2018-12-13 |
JP2018205616A (en) | 2018-12-27 |
US10832119B2 (en) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11568643B2 (en) | Automatic control of wearable display device based on external conditions | |
US11303976B2 (en) | Production and control of cinematic content responsive to user emotional state | |
EP3459071B1 (en) | Contextual awareness of user interface menus | |
CN107427716B (en) | Method and system for optimizing and training human performance | |
JP2023096152A (en) | Facial expression from eye-tracking camera | |
US10368741B2 (en) | Method of and system for processing signals sensed from a user | |
JP6768597B2 (en) | Dialogue system, control method of dialogue system, and device | |
KR102432248B1 (en) | System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar | |
JP6993291B2 (en) | Computer and emotion estimation method | |
Guthier et al. | Affective computing in games | |
Porcino et al. | Identifying cybersickness causes in virtual reality games using symbolic machine learning algorithms | |
KR102445133B1 (en) | System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof | |
KR102429630B1 (en) | A system that creates communication NPC avatars for healthcare | |
KR102425479B1 (en) | System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics) | |
JP2021135995A (en) | Avatar facial expression generating system and avatar facial expression generating method | |
KR102425481B1 (en) | Virtual reality communication system for rehabilitation treatment | |
JP6910919B2 (en) | How to evaluate the system and actions to be taken to communicate | |
JP6993314B2 (en) | Dialogue systems, devices, and programs | |
KR102429627B1 (en) | The System that Generates Avatars in Virtual Reality and Provides Multiple Contents | |
CN114402248A (en) | Virtual reality interaction system for neural meditation and neural concentration training | |
US11417042B2 (en) | Animating body language for avatars | |
Gezgez et al. | Virtual character control by brain-computer interface and comparison of performance metrics | |
KR102617431B1 (en) | A System And Method For Calculating The Optimum Temperature For A User-Customized Immersive Content Test Bed Performing Content By Creating An Avatar | |
KR102432251B1 (en) | Virtual reality rehabilitation system performed on social servers | |
KR102432250B1 (en) | The System that Provides Care Chatbot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200923 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6768597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |