JP2018205616A - 対話システム、対話システムの制御方法、及び装置 - Google Patents

対話システム、対話システムの制御方法、及び装置 Download PDF

Info

Publication number
JP2018205616A
JP2018205616A JP2017113177A JP2017113177A JP2018205616A JP 2018205616 A JP2018205616 A JP 2018205616A JP 2017113177 A JP2017113177 A JP 2017113177A JP 2017113177 A JP2017113177 A JP 2017113177A JP 2018205616 A JP2018205616 A JP 2018205616A
Authority
JP
Japan
Prior art keywords
information
user
dialogue
action
imitation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017113177A
Other languages
English (en)
Other versions
JP6768597B2 (ja
Inventor
崇志 沼田
Takashi Numata
崇志 沼田
朝 康博
Yasuhiro Asa
康博 朝
利昇 三好
Toshinori Miyoshi
利昇 三好
佐藤 大樹
Daiki Sato
大樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017113177A priority Critical patent/JP6768597B2/ja
Priority to US15/903,640 priority patent/US10832119B2/en
Publication of JP2018205616A publication Critical patent/JP2018205616A/ja
Application granted granted Critical
Publication of JP6768597B2 publication Critical patent/JP6768597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Signal Processing (AREA)
  • Neurology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現する対話インタフェースを提供する。
【解決手段】ユーザとの対話を行う対話インタフェースを提供する対話システムであって、対話システムは、計算機及びユーザの発話に関連する信号を計測する計測装置を備え、計算機は、計測装置が計測した信号に基づいて、ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、第1特徴量に基づいて、対話インタフェースがユーザに対して行う応答アクションの制御値である第2特徴量を算出し、応答アクションの種別に応じて、応答アクションの制御のタイミングを調整する制御時間を算出し、第2特徴量及び制御時間に基づいて対話インタフェースを制御する。
【選択図】 図2

Description

対話インタフェースを介したユーザとの対話を実現する対話システムに関する。
近年、ロボット及びCG等を用いてヒトと持続的な対話を行う対話インタフェースの開発が進展している。
対話インタフェースの開発では、ヒトの表情、音声、及び身体の動き等の対話に関するアクションを示す対話データから対話特徴量を算出し、対話特徴量を用いて対話インタフェースを制御する技術が提案されている。対話特徴量に基づく対話インタフェースの制御によって、ロボット又はCGの表情が変化し、また、音声が再生される。このような制御によってヒトの共感を誘起できる。前述の技術として、特許文献1及び特許文献2に記載の技術が知られている。
特許文献1には、「インタラクション状態量算出部は、ユーザPの発話における話者交替潜時、発話区間のピッチ、パワーまたはモーラを含むインタラクション状態量を検出する。コミュニケーション同調制御部は、ユーザPとロボットシステムとのコミュニケーション同調ずれ量を算出し、同調モデルを表す状態方程式による連続的な引き込み制御によりコミュニケーション同調ずれ量を最小化すると同時に、インタラクションルールによる離散的な引き込み制御により、ユーザPのインタラクション状態量をロボットシステム10のそれに近づけていく、または、ロボットシステム10のインタラクション状態量をユーザPのインタラクション状態量に近づけつつユーザPのインタラクション状態量をロボットシステム10のそれに近づけていく。」ことが記載されている。
特許文献2には、「ユーザ発話を入力する工程と、入力された前記ユーザ発話の韻律的特徴を抽出する工程と、抽出された前記韻律的特徴に基づき前記ユーザ発話に応答する相槌を生成する工程と、を備え、前記相槌を生成する際、前記相槌の韻律的特徴が前記ユーザ発話の韻律的特徴と合うように前記相槌の韻律を調整する」音声対話方法が記載されている。
特開2012−181697号公報 特開2016−38501号公報
特許文献1及び特許文献2に記載の技術を組み合わせることによって、ヒトのアクションを模倣する対話インタフェースの制御が可能となる。このとき、人のアクションを模倣した対話インタフェースの制御タイミングを任意に設定できる。例えば、ヒトの相槌に対して、ロボット又はCGが相槌を行う制御タイミングを任意に設定できる。
ヒトの共感を誘起するためには、模倣するアクションに応じて制御タイミングを設定する必要がある。しかし、特許文献1及び特許文献2のいずれも前述の課題を想定されていない。そのため、特許文献1及び特許文献2を組み合わせた発明は、相槌の制御タイミングを任意に設定できるだけであり、対話インタフェースのアクションに多様性がない。したがって、ヒトの共感を誘起する効果が低い。
本発明では、ヒトの共感を強く誘起することができる対話インタフェースを実現する技術を提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、ユーザとの対話を行う対話インタフェースを提供する対話システムであって、前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、前記演算装置は、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出し、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする。
本発明によれば、遅延時間に基づいて応答アクションを実行する対話インタフェースを制御することによって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
実施例1のシステムの構成例を示す図である。 実施例1のシステムを用いて対話を行う場合の動作の流れの一例を説明する図である。 実施例1の計算機の構成例を説明する図である。 実施例1の対話信号情報のデータ構造の一例を示す図である。 実施例1の模倣情報のデータ構造の一例を示す図である。 実施例1の遅延時間定義情報のデータ構造の一例を示す図である。 実施例1の言語信号情報のデータ構造の一例を示す図である。 実施例1の発話情報のデータ構造の一例を示す図である。 実施例1の出力情報のデータ構造の一例を示す図である。 実施例1の出力条件情報のデータ構造の一例を示す図である。 実施例1の出力履歴情報のデータ構造の一例を示す図である。 実施例1の模倣情報算出モジュールが実行する処理を説明するフローチャートである。 実施例1の言語情報算出モジュールが実行する処理を説明するフローチャートである。 実施例1の出力情報生成モジュールが実行する処理を説明するフローチャートである。 実施例2の遅延時間定義情報のデータ構造の一例を示す図である。 実施例2の学習モジュールが実行する処理を説明するフローチャートである。 実施例2の学習モジュールが実行する遅延時間の学習処理の流れを示す図である。 実施例3のシステムの構成例を示す図である。 実施例3の計算機が保持する生体信号情報の構造の一例を示す図である。 実施例3の出力情報のデータ構造の一例を示す図である。 実施例3の模倣情報算出モジュールが実行する処理を説明するフローチャートである。 実施例3の模倣情報算出モジュールが実行する処理を説明するフローチャートである。 実施例5の計算機に対する設定を行うためのGUIの一例を示す図である。 実施例5の計算機に対する設定を行うためのGUIの一例を示す図である。
以下、実施例を図面を用いて説明する。なお、以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。
本実施例では、ユーザとの対話を実現する対話インタフェースを提供する計算機が、対話信号を用いて、実行する応答アクションの制御特徴量を算出し、さらに、応答アクションの種別に応じて、応答アクションに対応する対話インタフェースの制御のタイミングを調整する制御時間(遅延時間)を設定する。また、計算機は、計測した言語信号に基づいてユーザの発話内容を特定し、当該発話内容に対して出力する発話内容を選択する。計算機は、制御特徴量、制御時間、及び発話内容に基づいて、出力情報を生成する。ここで、本明細書における用語について説明する。
対話信号は、対話においてユーザから取得される信号、特に、視線、顔の向き、身体の動き等のユーザのアクションに関する情報を含む信号である。対話信号は、対話データを算出するために用いられる。例えば、ユーザの画像及びユーザの身体の一部の加速度等が対話信号として取得される。
対話データは、対話信号を用いて生成され、また、対話特徴量を算出するためのデータである。
対話特徴量は、ユーザのアクションを特徴づける値である。例えば、ユーザの視線の向き、顔の向き、身体の移動方向、及び身体の移動距離等が対話特徴量として算出される。
言語信号は、ユーザから発せられた言語、すなわち、ユーザの発話を評価するための信号である。例えば、ユーザの音声等が言語信号として取得される。
応答アクションは、対話インタフェースを構成する表示装置に表示される人物画像の動き、及び対話インタフェースを構成するロボットの動き等を表す。
制御特徴量は、応答アクションを実現するための対話インタフェースの制御値を表す。
本実施例では、ユーザの共感を誘起する模倣を行う対話インタフェースを一例として説明する。当該インタフェースを実現するシステムでは以下のような処理が実行される。
計算機は、ユーザの画像を含む対話信号からユーザの眼球画像、顔画像、及び身体画像の三種類の対話データを算出し、ユーザの視線、顔の向き、及び身体の動きに関する対話特徴量を算出する。計算機は、対話特徴量に基づいてユーザの視線、顔の向き、及び身体の動きを模倣する応答アクションの制御特徴量を算出する。計算機は、三つの種類の応答アクションのそれぞれに制御時間を設定する。また、計算機は、取得した言語信号に基づいて、ユーザに対して出力する発話内容を選択する。
計算機は、制御特徴量、制御時間、及び発話内容に基づいて出力情報を生成し、出力情報に基づいて対話インタフェースを制御することによって、応答アクションの実行及び発話内容の出力を行う。
なお、対話データは、眼球画像、顔画像、及び身体画像に限定されない。対話データは、手等の身体の一部又は周囲の環境等の画像、ヒトの音声、及び近赤外光で計測した瞳孔径等、対話時の様々な信号を含んでもよい。なお、対話特徴量は、ユーザの視線、顔の向き、及び身体の動きに限定されない。対話特徴量は、顔画像から抽出する表情変化及び音声から抽出する声のピッチ等、対話信号及び言語信号から抽出可能な様々な特徴量を含んでもよい。なお、出力情報は、制御特徴量のみから生成されてもよいし、また、発話内容のみから生成されてもよい。
本実施例では、ユーザの動き及びユーザの発話をユーザアクションと記載する。また、応答アクション及び発話内容の出力(音声の再生)を出力アクションと記載する。また、ユーザの動きを模倣する応答アクションを模倣アクションと記載し、模倣アクションの制御特徴量を模倣特徴量と記載する。
図1は、実施例1のシステムの構成例を示す図である。
システムは、計算機100、対話信号計測装置110、言語信号計測装置120、表示装置130、及び対話出力装置140から構成される。また、計算機100には、マウス、キーボード、及びタッチパネル等の入力装置150が接続される。
計算機100は、対話信号及び言語信号を用いて出力情報316(図3参照)を生成し、出力情報316に基づいて、表示装置130及び対話出力装置140からユーザに対して情報等を出力する。本実施例では、表示装置130及び対話出力装置140が対話インタフェースとして機能する。本実施例の表示装置130には、ユーザの動きを模倣する模倣アクションを行う人物画像が表示される。
対話信号計測装置110は、ユーザから対話信号を取得する。本実施例の対話信号計測装置110は、画像を対話信号として取得する。なお、ユーザの頭部に装着する角度センサ及び加速度センサを対話信号計測装置110として用いてもよい。当該センサが計測した値は、顔の向き及び身体の動きを算出するために用いることができる。
言語信号計測装置120は、ユーザから言語信号を取得する。本実施例の言語信号計測装置120は、音声を言語信号として取得する。
入力装置150は、外部信号を入力するための装置である。ここで、外部信号は、計算機100の動作を制御するため信号を表す。本明細書では、特に、対話信号及び言語信号を除いた信号を外部信号として扱う。
ここで、計算機100のソフトウェア構成の概要について説明する。計算機100は、模倣情報算出モジュール101、言語情報算出モジュール102、出力情報生成モジュール103、及び学習モジュール104を含み、また、情報群105を保持する。
模倣情報算出モジュール101は、対話信号から対話データを算出し、対話データに基づいて対話特徴量を算出する。模倣情報算出モジュール101は、対話特徴量に基づいて模倣特徴量を算出する。対話特徴量に基づいて模倣特徴量を算出するアルゴリズムは予め設定されているものとする。
なお、本発明は模倣特徴量を算出するアルゴリズムに限定されない。一種類の対話特徴量に基づいて一種類の模倣特徴量を算出するアルゴリズムでもよいし、複数種類の対話特徴量に基づいて一種類の模倣特徴量を算出するアルゴリズムでもよいし、また、一種類の対話特徴量に基づいて複数種類の模倣特徴量を算出するアルゴリズムでもよい。
前述のアルゴリズムでは、入力された対話特徴量がベクトル量である場合、ベクトルの向きを逆方向に変換する演算、人物画像のサイズ、形状、位置等に基づいて成分値を補正する演算等が実行される。ユーザの視線が任意の座標に存在する物に向いている場合、人物画像の眼球の向きを当該座標に合わせるような眼球の移動及び動向の変化を再現するための模倣特徴量が算出される。
言語情報算出モジュール102は、言語信号を分析することによってユーザの発話内容を評価する。言語情報算出モジュール102は、ユーザの発話内容に基づいて対話インタフェースから出力する発話内容を選択する。対話インタフェースから出力する発話内容を選択するアルゴリズムは予め設定されているものとする。
なお、本発明は対話インタフェースから出力する発話内容を選択するアルゴリズムに限定されない。
出力情報生成モジュール103は、模倣特徴量及び発話内容に基づいて出力情報316を生成し、出力情報316に基づいて対話インタフェースを制御する。
学習モジュール104は、出力情報316(図3参照)の履歴を学習する。学習モジュール104が実行する処理については実施例2で説明する。
なお、図1では、一つの計算機100が各モジュールを有しているが、複数の計算機に各モジュールを配置してもよい。また、図1では、対話信号計測装置110等の計測装置と計算機100とを別々の装置として記載しているが、計算機100が計測装置を含んでもよい。
なお、計算機100が有する各モジュールは、二つ以上のモジュールを一つのモジュールにまとめてもよいし、一つのモジュールを機能毎に複数のモジュールに分けてもよい。
図2は、実施例1のシステムを用いて対話を行う場合の動作の流れの一例を説明する図である。
計算機100は、対話信号又は言語信号を計測することによってユーザアクションを検出した場合、模倣アクションの模倣特徴量を算出し、各模倣アクションの制御時間として遅延時間を設定する。遅延時間を伴った模倣アクションを対話インタフェースが実行することによって、ユーザの共感を共起し、また、ユーザの発話内容に対応した対話が可能となる。
入力201では、計算機100が対話信号計測装置110及び言語信号計測装置120から対話信号及び言語信号を取得する。計算機100は、対話信号に基づいて対話データを算出し、対話データに基づいて対話特徴量を算出する。計算機100は、言語信号に基づいて発話内容を評価する。計算機100は、対話特徴量及びユーザの発話内容に基づいて、演算202から演算205を並列で実行する。
演算202では、計算機100は、ユーザの視線に関する対話特徴量に基づいて、ユーザの視線の動きを模倣した人物画像の眼球の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の眼球の動きに対応する遅延時間を設定する。
演算203では、計算機100は、ユーザの顔の動きに関する対話特徴量に基づいて、ユーザの顔の動きを模倣した人物画像の顔の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の顔の動きに対応する遅延時間を設定する。
演算204では、計算機100は、ユーザの身体の動きに関する対話特徴量に基づいて、ユーザの身体の動きを模倣した人物画像の身体の動きを行うための模倣特徴量を算出する。また、計算機100は、人物画像の身体の動きに対応する遅延時間を設定する。
演算205では、計算機100は、ユーザの発話内容に合わせた発話内容を選択する。本実施例では、発話内容の出力には特に遅延時間を設定していないが、発話内容の出力についても遅延時間を設定することができる。
出力206では、計算機は、遅延時間を伴って模倣アクションを対話インタフェースに実行させ、また、発話内容を対話インタフェースに出力される。
図3は、実施例1の計算機100の構成例を説明する図である。
図3に示したように、計算機100は、演算装置301、記憶装置302、入力インタフェース303、及び出力インタフェース304を有する。
演算装置301は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のハードウェアであり、記憶装置302に格納されるプログラムを実行する。演算装置301は、プログラムにしたがって動作することによって、所定のモジュールとして機能する。本実施例では、演算装置301は、模倣情報算出モジュール101、言語情報算出モジュール102、及び出力情報生成モジュール103として機能する。
記憶装置302は、メモリ等のハードウェアであり、演算装置301が実行するプログラム及び当該プログラムが使用する情報を格納する。また、記憶装置302はワークエリアを含む。記憶装置302に格納されるプログラム及び情報については後述する。なお、計算機100は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。
入力インタフェース303は、対話信号、言語信号、及び外部信号の入力を受け付けるハードウェアである。USB(Universal Serial Bus)規格の接続線を介して信号を入力する装置と接続される場合、USB端子を有するインタフェースが入力インタフェース303になり、ネットワークを介して信号を入力する装置と接続される場合、ポートを有するインタフェースが入力インタフェース303となる。
出力インタフェース304は、各種情報を出力するハードウェアである。情報を出力する装置がディスプレイの場合、VGA端子又はHDMI端子(HDMIは登録商標)等の端子を有するインタフェースが出力インタフェース304となり、情報を出力する装置がスピーカの場合、USB端子を有するインタフェースが出力インタフェース304となる。
ここで、記憶装置302に格納されるプログラム及び情報について説明する。
記憶装置302は、模倣情報算出モジュール101、言語情報算出モジュール102、出力情報生成モジュール103、及び学習モジュール104を実現するプログラムを格納する。また、記憶装置302は、対話信号情報311、模倣情報312、遅延時間定義情報313、言語信号情報314、発話情報315、出力情報316、出力条件情報317、及び出力履歴情報318を格納する。
対話信号情報311は、対話信号を管理する情報である。対話信号情報311のデータ構造の一例は図4を用いて説明する。模倣情報312は、模倣アクションの模倣特徴量を管理する情報である。模倣情報312のデータ構造の一例は図5を用いて説明する。遅延時間定義情報313は、模倣アクションに対応する遅延時間を定義する情報である。遅延時間定義情報313のデータ構造の一例は図6を用いて説明する。
言語信号情報314は、言語信号を管理する情報である。言語信号情報314のデータ構造の一例は図7を用いて説明する。発話情報315は、ユーザの発話内容及び選択された発話内容を管理する情報である。発話情報315のデータ構造の一例は図8を用いて説明する。
出力情報316は、模倣アクションを行い、また、発話内容を出力する対話インタフェースを制御するための情報である。出力情報316のデータ構造の一例は図9を用いて説明する。
出力条件情報317は、応答アクションを実行する条件を管理する情報である。出力条件情報317のデータ構造の一例は図10を用いて説明する。なお、出力条件情報317を用いた処理については、実施例4で説明する。
出力履歴情報318は、出力情報316の履歴を管理する情報である。出力履歴情報318のデータ構造の一例は図11を用いて説明する。
模倣情報算出モジュール101は、対話信号から各模倣アクションの模倣特徴量を算出し、各模倣アクションに対応する遅延時間を設定することによって、模倣情報312を生成する。
言語情報算出モジュール102は、言語信号からユーザの発話内容を特定し、ユーザの発話内容に対する発話内容を選択することによって、発話情報315を生成する。
出力情報生成モジュール103は、模倣情報312及び発話情報315を用いて出力情報316を生成する。
図4は、実施例1の対話信号情報311のデータ構造の一例を示す図である。
対話信号情報311は、ID401、信号名402、取得時間403、及びポインタ404から構成されるエントリを含む。一つのエントリが一つの対話信号に対応する。
ID401は、対話信号情報311のエントリを一意に識別するための識別情報を格納するフィールドである。
信号名402は、対話信号の種別等を識別するための情報を格納するフィールドである。本実施例では、対話信号を計測した対話信号計測装置110の名称が信号名402に格納される。なお、信号名402には「画像」等の信号に含まれるデータの種別が格納されてもよい。
取得時間403は、対話信号の取得時間を格納するフィールドである。取得時間403には、例えば、対話信号の計測の開始時間を基準とした時間が格納される。なお、対話信号及び言語信号のそれぞれの計測開始時刻の関係性を示す値を格納するフィールドを設けてもよい。
ポインタ404は、取得された対話信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ404の代わりに、取得された対話信号を格納するフィールドを設けてもよい。当該フィールドには、例えば、座標及びRGB値の組合せが複数格納される。
図5は、実施例1の模倣情報312のデータ構造の一例を示す図である。
模倣情報312は、ID501、参照ID502、模倣特徴量種別503、模倣特徴量504、遅延時間505、対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509から構成されるエントリを含む。一つのエントリが一つの模倣アクションの模倣特徴量に対応する。
ID501は、模倣情報312のエントリを一意に識別するための識別情報を格納するフィールドである。本実施例では、一つの対話信号に対して三種類の模倣特徴量が算出される。
参照ID502は、模倣特徴量の算出時に用いた対話信号の識別情報を格納するフィールドである。参照ID502にはID401の値が格納される。
模倣特徴量種別503は、模倣アクションの種別を示す情報を格納するフィールドである。本実施例の模倣特徴量種別503には、「視線」、「顔の動き」、及び「身体の動き」のいずれかが格納される。
模倣特徴量504は、算出された模倣特徴量を格納するフィールドである。模倣特徴量種別503が「視線」である場合、模倣特徴量504には人物画像の眼球の角度及び移動速度等が格納され、模倣特徴量種別503が「顔の動き」である場合、模倣特徴量504には人物画像の顔の角度及び移動速度等が格納され、模倣特徴量種別503が「身体の動き」である場合、模倣特徴量504には人物画像の身体の移動方向及び移動量等が格納される。
遅延時間505は、模倣アクションに対応する遅延時間を格納するフィールドである。
対話データ名506は、対話特徴量を算出するために用いた対話データの識別情報を格納するフィールドである。
対話データ507は、対話データを格納するフィールドである。本実施例では、対話データは画像であるため、対話データ507には、座標及びRGB値の組合せが複数含まれる。なお、対話データ507の代わりに、対話データが格納される記憶領域を示すポインタを格納するフィールドを設けてもよい。
対話特徴量種別508は、対話特徴量の識別情報を格納するフィールドである。本実施例の対話特徴量種別508には、「視線」、「顔の向き」、及び「身体の動き」のいずれかが格納される。
対話特徴量509は、算出された対話特徴量を格納するフィールドである。対話特徴量種別508が「視線」である場合、対話特徴量509にはユーザの視線の対象の座標等が格納され、対話特徴量種別508が「顔の向き」である場合、対話特徴量509にはユーザの顔の傾け角度等が格納され、対話特徴量種別508が「身体の動き」である場合、対話特徴量509にはユーザの身体の移動量等が格納される。
なお、ユーザの視線の対象の座標は、対話出力装置140であるディスプレイの平面上の座標でもよいし、また、対話出力装置140を原点とする三次元空間の座標でもよい。顔の傾け角度は、鼻尖及び顔の輪郭から算出された特徴点間の距離の変化又は左右差等に基づいて算出される。単位時間当たりの身体の移動量は、身体の輪郭から算出された特徴点の移動距離の総和等に基づいて算出される。
本実施例では、一種類の対話特徴量を用いて一種類の模倣特徴量が算出される。ただし、複数種類の対話特徴量を用いて一種類の模倣特徴量が算出されてよい。この場合、一つのエントリには、対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509を一つの組とする行が複数含まれる。
図6は、実施例1の遅延時間定義情報313のデータ構造の一例を示す図である。
遅延時間定義情報313は、ID601、模倣特徴量種別602、及び遅延時間603から構成されるエントリを含む。一つのエントリが一種類の模倣アクションに対応する。本実施例では、模倣アクションの種類は三つであるため、遅延時間定義情報313には三つのエントリが含まれる。
ID601は、遅延時間定義情報313のエントリを一意に識別するための識別情報を格納するフィールドである。
模倣特徴量種別602は、模倣特徴量種別503と同一のものである。
遅延時間603は、模倣アクションに対応する遅延時間を格納するフィールドである。初期の遅延時間は専門家等が予め設定するものとする。本実施例では、出力情報316が生成された時点を起点とする遅延時間が設定される。なお、本発明は遅延時間の設定基準に限定されない。
なお、模倣特徴量の種別及び模倣特徴量の値の範囲の組合せに対して、遅延時間を設定してもよい。この場合、エントリには、模倣特徴量の範囲を指定するフィールドが含まれる。
図7は、実施例1の言語信号情報314のデータ構造の一例を示す図である。
言語信号情報314は、ID701、信号名702、取得時間703、及びポインタ704から構成されるエントリを含む。一つのエントリが一つの言語信号に対応する。
ID701は、言語信号情報314のエントリを一意に識別するための識別情報を格納するフィールドである。
信号名702は、言語信号の種別等を識別するための情報を格納するフィールドである。本実施例では、言語信号を計測した言語信号計測装置120の名称が信号名702に格納される。なお、信号名702には「音声」等の言語信号に含まれるデータの種別が格納されてもよい。
なお、対話信号及び言語信号のそれぞれの計測開始時刻の関係性を示す値を格納するフィールドと、対話信号の計測開始時刻を格納するフィールドを設けてもよい。
取得時間703は、言語信号の取得時間を格納するフィールドである。取得時間703には、例えば、言語信号の計測の開始時間を基準とした時間が格納される。
ポインタ704は、取得された言語信号が格納される記憶領域のポインタを格納するフィールドである。言語信号はA/D変換された値として格納されている。なお、ポインタ704の代わりに、取得された言語信号を格納するフィールドを設けてもよい。
図8は、実施例1の発話情報315のデータ構造の一例を示す図である。
発話情報315は、入力発話内容801、参照ID802、及び出力発話内容803から構成されるエントリを含む。一つのエントリがユーザの発話内容に対応する。
入力発話内容801は、言語信号を分析することによって特定されたユーザの発話内容を格納するフィールドである。
参照ID802は、発話内容を特定するために用いた言語信号の識別情報を格納するフィールドである。参照ID802にはID701の値が格納される。
出力発話内容803は、ユーザの発話内容に基づいて選択された発話内容を格納するフィールドである。例えば、ユーザの発話を促す発話内容又はユーザの発話に応答する発話内容が選択される。なお、発話内容を選択する方法としては、言語データベース等を用いる方法及び過去の発話内容の履歴を用いる方法等が考えられる。
なお、発話内容の出力に対して遅延時間を設定する場合、発話情報315には遅延時間を格納するフィールドを設けてもよい。
図9は、実施例1の出力情報316のデータ構造の一例を示す図である。
出力情報316は、出力装置901、出力値902、及び遅延時間903から構成されるエントリを含む。一つのエントリが一つの出力アクションを示す。
出力装置901は、出力アクションに対応する制御を行う装置の識別情報を格納するフィールドである。本実施例では、模倣アクションの模倣特徴量及び遅延時間に基づいてディスプレイに表示される人物画像が制御され、発話内容に基づいてスピーカが制御される。
出力値902は、出力アクションを行う対話インタフェースを制御するための値を格納する。出力アクションが模倣アクションである場合、出力値902には模倣特徴量の種別及び模倣特徴量が格納され、出力アクションが発話内容の出力である場合、出力値902には発話内容が格納される。
図10は、実施例1の出力条件情報317のデータ構造の一例を示す図である。
出力条件情報317は、ID1001、アクション種別1002、及び条件1003から構成されるエントリを含む。一つのエントリが一つの条件を示す。
ID1001は、出力条件情報317のエントリを一意に識別するための識別情報を格納するフィールドである。
アクション種別1002は、出力アクションの種別を格納するフィールドである。アクション種別1002には、「発話」、「視線」、「顔の動き」、及び「身体の動き」が格納される。
条件1003は、アクション種別1002に対応する出力アクションを実行するタイミングを規定する条件を格納するフィールドである。条件1003には、具体的な条件を指定する値、及び遅延時間及び条件の優先順位を示す値が含まれる。
例えば、ユーザの発話内容が「はい」又は「いいえ」、かつ、出力発話内容が「はい」又は「いいえ」である場合が条件として設定できる。また、ユーザの発話の開始を条件として設定できる。また、気温等、ユーザ及び計算機100との関係以外の外部情報を用いて条件を設定してもよい。
なお、一つの種類の出力アクションに対して複数の条件を設定できる。この場合、出力条件情報317には、アクション種別1002が同一であるエントリが複数含まれる。
なお、優先順位は必ずしも設定しなくてもよい。この場合、遅延時間が経過し、かつ、条件を満たす場合に制御を行うようにすればよい。
図11は、実施例1の出力履歴情報318のデータ構造の一例を示す図である。
出力履歴情報318は、ID1101、共感度1102、出力値1103、及び遅延時間1104から構成されるエントリを含む。一つのエントリが一つの出力情報316を示す。
ID1101は、出力履歴情報318のエントリを一意に識別するための識別情報を格納するフィールドである。
共感度1102は、対話インタフェースを使用するユーザの共感の程度を示す共感度を格納するフィールドである。本実施例では、対話インタフェースが行う出力アクションの有効性を示す指標として共感度を用いる。なお、共感度以外の指標でもよい。
共感度は、例えば、対話の持続時間を用いて算出できる。ここで、対話の持続時間は、ユーザ又は対話インタフェースの発話が開始されてから、ユーザ又は対話インタフェースの発話が終了するまでの時間を示す。スピーカから音声が再生された時又は言語信号が検出された時を発話の開始と判定し、発話が行われていない時間が一定時間経過した場合を発話の終了と判定すればよい。また、ユーザが対話の開始及び終了を知らせるボタンを押下することによって持続時間を計測してもよい。
なお、共感度はユーザの発話量等のその他の情報に基づいて算出されてもよい。また、共感度はユーザが対話の終了後に記入したアンケートに基づいて算出されてもよい。
出力値1103及び遅延時間1104は、出力値902及び遅延時間903と同一のものである。
図12は、実施例1の模倣情報算出モジュール101が実行する処理を説明するフローチャートである。
模倣情報算出モジュール101は、イベントが発生したか否かを判定する(ステップS101)。例えば、ユーザの動きが検出された場合、又は、ユーザの発話が検出された場合にイベントが発生したと判定される。また、ユーザが入力装置150を用いて処理の開始を指示した操作が行われた場合、模倣情報算出モジュール101は、イベントが発生したと判定する。
イベントが発生していないと判定された場合、模倣情報算出モジュール101は、イベントの発生まで待ち状態に移行する。
イベントが発生したと判定された場合、模倣情報算出モジュール101は、対話信号計測装置110から対話信号を取得する(ステップS102)。
このとき、模倣情報算出モジュール101は、取得した対話信号を記憶領域に格納する。模倣情報算出モジュール101は、対話信号情報311を初期化し、取得された対話信号の数だけ対話信号情報311にエントリを追加する。模倣情報算出モジュール101は、追加されたエントリの各フィールドに値を設定する。
なお、模倣情報算出モジュール101は、必要な対話信号が全て取得されるまで、ステップS102の処理を繰り返し実行してもよい。また、タイマを設定している場合には、模倣情報算出モジュール101は、タイマが経過するまで対話信号の取得を継続してもよい。
次に、模倣情報算出モジュール101は、変数iを初期化する(ステップS103)。
具体的には、模倣情報算出モジュール101は変数iに「1」を設定する。ここで、変数iは、取得した対話信号の数に対応し、また、対話信号情報311のID401に対応する。
次に、模倣情報算出モジュール101は、ID401が変数iに一致するエントリに基づいて対話データを算出する(ステップS104)。
例えば、模倣情報算出モジュール101は、一つの画像から、眼球の画像、顔全体の画像、及び全身の画像を、対話データとして算出する。このとき、模倣情報算出モジュール101は、対話データに変数iを対応付けて記憶領域に格納する。
なお、眼球の画像及び顔の画像は、画像から眼球及び顔に関連する特徴量を算出することによって取得する方法、画像の特徴量を用いた統計解析又は機械学習に基づいて取得する方法等が考えられる。
次に、模倣情報算出モジュール101は、対話特徴量を算出する(ステップS105)。
このとき、模倣情報算出モジュール101は、対話特徴量に対話特徴量の種別を対応付けて記憶領域に格納する。
次に、模倣情報算出モジュール101は、変数jを初期化する(ステップS106)。
具体的には、模倣情報算出モジュール101は変数jに「1」を設定する。このとき、模倣情報算出モジュール101は、模倣情報312を初期化する。
ここで、変数jは、模倣アクションの種別に対応する。本実施例では、変数jが「1」の場合、「眼球の動き」を表し、変数jが「2」の場合、「顔の動き」を表し、変数jが「3」の場合、「身体の動き」を表す。
次に、模倣情報算出モジュール101は、算出された対話特徴量に基づいて、変数jに対応する模倣アクションの模倣特徴量を算出する(ステップS107)。なお、予め、対話特徴量から模倣特徴量を算出する数式が与えられているものとする。
このとき、模倣情報算出モジュール101は、模倣情報312にエントリを追加し、追加されたエントリのID501に識別情報を設定する。模倣情報算出モジュール101は、追加されたエントリの参照ID502に変数iの値を設定し、模倣特徴量種別503に変数jに対応する識別情報を設定し、模倣特徴量504に算出された模倣特徴量を設定する。また、模倣情報算出モジュール101は、追加されたエントリに模倣特徴量の算出時に用いた対話特徴量の数だけ行を追加し、各行の対話データ名506、対話データ507、対話特徴量種別508、及び対話特徴量509に識別情報及び値を設定する。
次に、模倣情報算出モジュール101は、遅延時間定義情報313を参照して、変数jに対応する模倣アクションの遅延時間を設定する(ステップS108)。
具体的には、模倣情報算出モジュール101は、遅延時間定義情報313を参照し、模倣特徴量種別602が変数jに対応する種別と一致するエントリを検索する。模倣情報算出モジュール101は、検索されたエントリの遅延時間603から値を取得し、ステップS107において追加された模倣情報312のエントリの遅延時間505に取得した値を設定する。
次に、模倣情報算出モジュール101は、全ての模倣特徴量を算出したか否かを判定する(ステップS109)。
全ての模倣特徴量を算出していないと判定された場合、模倣情報算出モジュール101は、変数jに「1」を加算し(ステップS110)、その後、ステップS107に戻る。
全ての模倣特徴量を算出したと判定された場合、模倣情報算出モジュール101は、全ての対話信号の処理が完了したか否かを判定する(ステップS111)。
全ての対話信号の処理が完了していないと判定された場合、模倣情報算出モジュール101は、変数iに「1」を加算し(ステップS112)、その後、ステップS104に戻る。
全ての対話信号の処理が完了していないと判定された場合、模倣情報算出モジュール101は、模倣情報312を出力情報生成モジュール103に出力し、処理を終了する。
本実施例では、遅延時間定義情報313に基づいて模倣アクションの遅延時間が設定されているが、以下のような設定方法でもよい。模倣情報算出モジュール101は、出力履歴情報318を参照し、最も新しい履歴(エントリ)を検索する。模倣情報算出モジュール101は、検索されたエントリから変数jに対応する模倣アクションの遅延時間1104の値を取得し、遅延時間505に取得した値を設定する。
なお、複数の対話信号計測装置110又は複数の計測チャネルを用いて複数の対話信号が取得された場合、模倣情報算出モジュール101は、各対話信号から算出された対話特徴量の平均値等を用いて模倣特徴量を算出すればよい。
なお、対話信号計測装置110が計測した値以外に、ユーザが入力装置150を用いて対話信号又は対話データを入力してもよい。
図13は、実施例1の言語情報算出モジュール102が実行する処理を説明するフローチャートである。
言語情報算出モジュール102は、イベントが発生したか否かを判定する(ステップS201)。なお、ステップS201の判定方法は、ステップS101の判定方法と同一でもよいし、また、異なってもよい。
イベントが発生していないと判定された場合、言語情報算出モジュール102は、イベントの発生まで待ち状態に移行する。
イベントが発生したと判定された場合、言語情報算出モジュール102は、言語信号計測装置120から言語信号を取得する(ステップS202)。
このとき、言語情報算出モジュール102は、取得した言語信号を記憶領域に格納する。言語信号情報314を初期化し、取得された言語信号の数だけ言語信号情報314にエントリを追加する。言語情報算出モジュール102は、追加されたエントリの各フィールドに値を設定する。また、言語情報算出モジュール102は、発話情報315を初期化する。
次に、言語情報算出モジュール102は、変数iを初期化する(ステップS203)。
具体的には、言語情報算出モジュール102は変数iに「1」を設定する。ここで、変数iは、取得した言語信号の数に対応し、また、言語信号情報314のID701に対応する。
このとき、言語情報算出モジュール102は、発話情報315の参照ID802に、取得された言語信号の数だけ行を生成する。
言語情報算出モジュール102は、ID701が変数iに一致するエントリに対応する言語信号を分析する(ステップS204)。言語信号の分析方法は公知の方法を用いればよいため詳細な説明は省略する。
次に、言語情報算出モジュール102は、分析結果に基づいて発話内容を更新する(ステップS205)。
具体的には、言語情報算出モジュール102は、分析結果に基づいて発話情報315の入力発話内容801を更新し、参照ID802の空の行に変数iを設定する。
次に、言語情報算出モジュール102は、全ての言語信号の処理を完了したか否かを判定する(ステップS206)。
全ての言語信号の処理が完了していないと判定された場合、言語情報算出モジュール102は、変数iに「1」を加算し(ステップS207)、その後、ステップS204に戻る。
全ての言語信号の処理が完了したと判定された場合、言語情報算出モジュール102は、入力発話内容に基づいて出力発話内容を選択して、発話情報315の出力発話内容803に設定する(ステップS208)。その後、言語情報算出モジュール102は、発話情報315を出力情報生成モジュール103に出力し、処理を終了する。なお、出力発話内容の選択方法は公知の方法を用いればよいため詳細な説明は省略する。
本実施例では、ユーザの発話内容のみを特定していたが、発話の速度及びリズム等を言語特徴量として算出してもよい。当該特徴量を用いて対話インタフェースの発話内容の出力の速度及びリズムを制御できる。
図14は、実施例1の出力情報生成モジュール103が実行する処理を説明するフローチャートである。
出力情報生成モジュール103は、情報を受け付けたか否かを判定する(ステップS301)。
具体的には、出力情報生成モジュール103は、模倣情報312及び発話情報315の少なくともいずれかを受け取ったか否かを判定する。なお、模倣情報312及び発話情報315の生成タイミングは必ずしも一致しないため、出力情報生成モジュール103は、いずれかの情報を受け付けてから一定期間の情報の入力を受け付けもよい。
情報を受け付けていないと判定された場合、出力情報生成モジュール103は、情報を受け付けるまで待ち続ける。
情報を受け付けたと判定された場合、出力情報生成モジュール103は、出力情報316を生成する(ステップS302)。具体的には、以下のような処理が実行される。
出力情報生成モジュール103は、模倣情報312を受け付けた場合、模倣情報312からエントリを一つ読み出す。出力情報生成モジュール103は、出力情報316にエントリを追加し、追加されたエントリの出力装置901に「ディスプレイ」を設定する。出力情報生成モジュール103は、選択されたエントリの模倣特徴量種別503及び模倣特徴量504の値を追加されたエントリの出力値902に設定する。さらに、出力情報生成モジュール103は、選択されたエントリの遅延時間505の値を追加されたエントリの遅延時間903に設定する。出力情報生成モジュール103は、模倣情報312の各エントリに対して同様の処理を実行する。
出力情報生成モジュール103は、発話情報315を受け付けた場合、発話情報315からエントリを一つ読み出す。出力情報生成モジュール103は、出力情報316にエントリを追加し、追加されたエントリの出力装置901に「スピーカ」を設定する。出力情報生成モジュール103は、選択されたエントリの出力発話内容803の値を追加されたエントリの出力値902に設定する。また、出力情報生成モジュール103は、追加されたエントリの遅延時間903に「0」を設定する。以上がステップS302の処理の説明である。
次に、出力情報生成モジュール103はタイマを設定する(ステップS303)。
次に、出力情報生成モジュール103は、条件を満たす出力アクションが存在するか否かを判定する(ステップS304)。
具体的には、出力情報生成モジュール103は、出力情報316から遅延時間903がタイマの値以上のエントリを検索する。遅延時間903がタイマの値以上のエントリが存在する場合、出力情報生成モジュール103は、条件を満たす出力アクションが存在すると判定する。
条件を満たす出力アクションが存在しないと判定された場合、出力情報生成モジュール103は、ステップS304に戻り、タイマの更新を継続する。
条件を満たす出力アクションが存在すると判定された場合、出力情報生成モジュール103は、ステップS304において検索されたエントリに対応する出力アクションを実行する(ステップS305)。
具体的には、出力情報生成モジュール103は、検索されたエントリの出力値902に基づいて対話インタフェースを制御する。当該制御によって、対話インタフェースが発話内容を出力し、また、対話インタフェースが応答アクションを実行する。
次に、出力情報生成モジュール103は、出力履歴情報318を更新する(ステップS306)。具体的には、以下のような処理が実行される。
出力情報生成モジュール103は、出力履歴情報318にエントリを追加し、追加されたエントリのID1101に識別情報を設定する。
出力情報生成モジュール103は、追加されたエントリに、ステップS304において検索されたエントリの数と同一数の行を生成する。出力情報生成モジュール103は、生成された行の出力値1103及び遅延時間1104に、ステップS304において検索されたエントリの出力値902及び遅延時間903の値を設定する。なお、実施例1では、出力情報316に基づく対話インタフェースの制御が終了した後に、対話の持続時間、ユーザの発話量、又はアンケート等に基づいて算出された共感度が共感度1102に設定される。
また、出力情報生成モジュール103は、ステップS304において選択されたエントリを出力情報316から削除する。以上がステップS306の処理の説明である。
次に、出力情報生成モジュール103は、全ての出力アクションが実行されたか否かを判定する(ステップS307)。
具体的には、出力情報生成モジュール103は、出力情報316が空であるか否かを判定する。出力情報316が空である場合、出力情報生成モジュール103は、全ての出力アクションが実行されたと判定する。
全ての出力アクションが実行されていないと判定された場合、出力情報生成モジュール103は、ステップS304に戻り、同様の処理を実行する。
全ての出力アクションが実行されたと判定された場合、出力情報生成モジュールは処理を終了する。
実施例1によれば、遅延時間に基づいて出力アクションを実行する対話インタフェースを制御することによって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。
実施例2では、計算機100が出力履歴情報318の分析結果に基づいて遅延時間定義情報313を更新し、また、発話内容の更新又は発話内容の選択アルゴリズムを更新する。実施例1との差異を中心に実施例2について説明する。
実施例2のシステム構成は実施例1のシステム構成と同一である。実施例2の計算機100の構成は実施例1の計算機100の構成と同一である。実施例2の計算機100が保持する情報は、遅延時間定義情報313が実施例1の遅延時間定義情報313と異なる。その他の情報は、実施例1の計算機100が保持する情報と同一である。
図15は、実施例2の遅延時間定義情報313のデータ構造の一例を示す図である。
遅延時間定義情報313は、ID1501、模倣特徴量種別1502、及び遅延時間範囲1503から構成されるエントリを含む。一つのエントリが一種類の模倣アクションに対応する。
ID1501及び模倣特徴量種別1502は、ID601及び模倣特徴量種別602と同一のフィールドである。
遅延時間範囲1503は、模倣アクションに対応する遅延時間の範囲を格納するフィールドである。なお、遅延時間範囲1503は、最小値及び最大値から構成されるフィールドである。
遅延時間が常に一定の場合、ユーザが模倣アクションの実行を察知し、共感度が低下する可能性がある。そこで、実施例2では、計算機100は、所定の遅延時間の範囲内でランダムに遅延時間を設定する。これによって、模倣アクションの実行が察知されることを防ぐことができる。
共感度が高まる遅延時間の範囲は、時間の経過及び状況の変化によって変化する。そこで、実施例2の計算機100は、出力情報316の履歴を分析することによって遅延時間の範囲を更新する。
図16は、実施例2の学習モジュール104が実行する処理を説明するフローチャートである。図17は、実施例2の学習モジュール104が実行する遅延時間の学習処理の流れを示す図である。
学習モジュール104は、出力情報316が出力された後、又はユーザから指示を受け付けた場合に以下で説明する処理を実行する。なお、学習モジュール104は、周期的に処理を実行してもよい。
学習モジュール104は、変数iを初期化する(ステップS401)。
具体的には、学習モジュール104は変数iに「1」を設定する。ここで、変数iは、模倣アクションの種別に対応する。本実施例では、変数iが「1」の場合、「眼球の動き」を表し、変数iが「2」の場合、「顔の動き」を表し、変数iが「3」の場合、「身体の動き」を表す。
次に、学習モジュール104は、変数iに対応する模倣アクションの遅延時間の学習処理を実行する(ステップS402)。具体的には、以下のような処理が実行される。
(第1ステップ)学習モジュール104は、出力履歴情報318から所定の数のエントリを読み出す。ここでは、新しい順に、すなわち、ID1101が大きい順に、所定の数のエントリが読み出される。なお、読み出すエントリの数は予め設定されており、適宜変更できる。
(第2ステップ)学習モジュール104は、読み出されたエントリの中から一つのエントリを選択し、選択されたエントリに含まれる行の中から、出力値1103に変数iに対応する模倣アクションの識別情報が設定された行を検索する。学習モジュール104は、選択されたエントリの共感度1102及び検索された行の遅延時間1104を、共感度及び遅延時間を軸とする空間にプロットする。
なお、変数iに対応する模倣アクションの識別情報が設定された行が複数存在する場合、学習モジュール104は、各行の遅延時間1104の統計値及び共感度1102を前述の空間にプロットする。統計値は、最大値、最小値、及び平均値等が考えられる。
学習モジュール104は、読み出された全てのエントリについて(第2ステップ)の処理を実行する。これによって、グラフ1701が生成される。
(第3ステップ)学習モジュール104は、(第2ステップ)の処理結果に基づいて最適遅延時間を算出する。算出方法としては、以下のような方法が考えられる。
(方法1)学習モジュール104は、グラフ1701から共感度が最大となる遅延時間を最適遅延時間として算出する。
(方法2)学習モジュール104は、共感度をy、遅延時間をxとし、未定の係数を含む関係式を設定し、最小二乗法に基づいて係数を決定する。学習モジュール104は、当該関係式を用いてyの値が最大となるxを算出する。関係式は、例えば、y=ax+bx+cを設定する。なお、共感度が最大となる遅延時間が、全ての遅延時間の最大値又は最小値と等しい場合、関係式としてy=ax+bを設定し、一定の範囲内でyが最大となるxを算出すればよい。
(第4ステップ)学習モジュール104は、最適遅延時間を用いて遅れ時間範囲を算出する。例えば、学習モジュール104は、最適遅延時間に0.95を乗算した値を範囲の最小値として算出し、最適遅延時間に1.05を乗算した値を範囲の最大値として算出する。また、別の方法としては、学習モジュール104は、グラフ1701に基づいて共感度が閾値より大きい範囲を算出する。
なお、前述した処理は一例であってこれに限定されない。例えば、エントリに含まれる模倣特徴量を用いた主成分分析等の多変量解析を実行してもよい。
なお、実施例2の学習処理は、実施例1にも適用できる。この場合、(第1ステップ)、(第2ステップ)、及び(第3ステップ)が実行される。学習モジュール104は、最適遅延時間を遅延時間603に設定する。以上がステップS402の処理の説明である。
次に、学習モジュール104は、学習処理の結果に基づいて遅延時間定義情報313を更新する(ステップS403)。
具体的には、学習モジュール104は、変数iに対応する模倣アクションのエントリの遅延時間範囲1503に算出された最大値及び最小値を設定する。
次に、学習モジュール104は、全ての模倣アクションについて処理が完了したか否かを判定する(ステップS404)。
全ての模倣アクションについて処理が完了していないと判定された場合、学習モジュール104は、変数iに「1」を加算し(ステップS405)、その後、ステップS402に戻る。
全ての模倣アクションについて処理が完了したと判定された場合、学習モジュール104は、発話内容の学習処理を実行する(ステップS406)。
具体的には、以下のような処理が実行される。
(第1ステップ)学習モジュール104は、出力履歴情報318から所定の数のエントリを読み出す。ここでは、新しい順に、すなわち、ID1101が大きい順に、所定の数のエントリが読み出される。なお、読み出すエントリの数は予め設定されており、適宜変更できる。
(第2ステップ)学習モジュール104は、読み出されたエントリの各々に含まれる行の中から、出力値1103に発話内容が設定された行を検索する。学習モジュール104は、検索された行の共感度1102及び発話内容を取得する。
このとき、学習モジュール104は、検索された行に設定された発話内容をそのまま取得してもよいし、所定の文字数分の発話内容を取得してもよいし、また、特定の用語を含む発話内容を取得してもよい。検索された行に設定された発話内容をそのまま取得する場合、学習モジュール104は、文節毎に区切り、文節と共感度を対応付けたデータとして扱ってもよい。
(第3ステップ)学習モジュール104は、共感度及び発話内容の関係性を算出する。学習モジュール104は、共感度が高い発話内容を言語データベースに格納する。このとき、特定の用語又は表現を含む文節のみを言語データベースに格納するようにしてもよい。また、学習モジュール104は、前述の関係性に基づいてアルゴリズムを修正してもよい。以上がステップS406の処理の説明である。
実施例2では、模倣情報算出モジュール101が実行する処理が一部異なる。具体的には、ステップS108において、模倣情報算出モジュール101は、遅延時間範囲1503に示された範囲内でランダムに遅延時間を決定する。模倣情報算出モジュール101は、追加された模倣情報312のエントリの遅延時間505に、決定された遅延時間を設定する。その他の処理は実施例1の処理と同一である。
実施例2では、言語情報算出モジュール102が実行する処理が一部異なる。具体的には、ステップS208において、言語情報算出モジュール102は、更新された言語データベースに格納される発話内容を選択する。該当する発話内容が複数存在する場合、発話内容の類似度等に基づいて選択すればよい。その他の処理は実施例1の処理と同一である。
実施例2の出力情報生成モジュール103が実行する処理は、実施例1の処理と同一である。
なお、出力情報316の履歴は、ユーザ単位で管理してもよい。この場合、出力履歴情報318にユーザの識別情報を格納するフィールドを設ければよい。これによって、対象のユーザに関連する出力情報316のみを用いた学習処理、及び対象のユーザ以外のユーザに関連する出力情報316を用いた学習処理を実行することができる。当該学習処理によって、ユーザ単位に模倣アクションの遅延時間を設定できる。
実施例2によれば、学習処理によって遅延時間範囲又は遅延時間を更新することによって、より高い共感を誘起する対話を実現できる。また、遅延時間幅の中からランダムに遅延時間を選択することによって、自然かつ多様な出力アクションの実行が可能となるため、より高い共感を誘起し、持続的な対話及び多情報の対話を実現できる。
実施例3では、計算機100が共感度を算出するための生体信号を取得し、共感度をリアルタイムに算出する。また、実施例3では、計算機100が、共感度に基づいて遅延時間を算出する。実施例1との差異を中心に、実施例3について説明する。
図18は、実施例3のシステムの構成例を示す図である。
実施例3のシステムは生体信号を取得する計測装置を備える。具体的には、実施例3のシステムは、脳波活動計測装置1801、心拍計測装置1802、及び発汗量計測装置1803を備える。
脳波活動計測装置1801は、脳波及び脳波血流等を示す生体信号を計測する。心拍計測装置1802は、心拍等を示す生体信号を計測する。発汗量計測装置1803は、発汗量を示す生体信号を計測する。なお、心拍計測装置1802及び発汗量計測装置1803は、自律神経活動の評価に用いる指標を計測する装置の一例であって、これに限定されない。
また、実施例3の情報群105には、生体信号情報1900が含まれる。図19は、実施例3の計算機100が保持する生体信号情報1900のデータ構造の一例を示す図である。生体信号情報1900は、ID1901、信号名1902、取得時間1903、及びポインタ1904から構成されるエントリを含む。一つのエントリが一つの生体信号に対応する。
ID1901は、生体信号情報1900のエントリを一意に識別するための識別情報を格納するフィールドである。
信号名1902は、生体信号の種別等を識別するための情報を格納するフィールドである。本実施例では、生体信号を計測した計測装置の名称が信号名1902に格納される。なお、生体信号に含まれるデータの種別が格納されてもよい。
取得時間1903は、生体信号の取得時間を格納するフィールドである。取得時間1903には、例えば、生体信号の計測の開始時間を基準とした時間が格納される。
ポインタ1904は、取得された生体信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ1904の代わりに、取得された生体信号を格納するフィールドを設けてもよい。
実施例3では、情報群105に含まれる情報のうち出力情報316が一部異なる。図20は、実施例3の出力情報316のデータ構造の一例を示す図である。
実施例3の出力情報316に含まれるエントリは、共感度2001を含む。共感度2001は、生体信号を用いて算出された共感度を格納するフィールドである。
実施例3では、模倣情報算出モジュール101が実行する処理が一部異なる。図21A及び図21Bは、実施例3の模倣情報算出モジュール101が実行する処理を説明するフローチャートである。
模倣情報算出モジュール101は、イベントが発生したと判定された場合、対話信号とともに、生体信号を取得する(ステップS151)。
このとき、模倣情報算出モジュール101は、取得した生体信号を記憶領域に格納する。模倣情報算出モジュール101は、生体信号情報1900を初期化し、取得された生体信号の数だけ生体信号情報1900にエントリを追加する。模倣情報算出モジュール101は、追加されたエントリの各フィールドに値を設定する。
次に、模倣情報算出モジュール101は、生体信号を用いて共感度を算出する(ステップS152)。
例えば、模倣情報算出モジュール101は、発汗量計測装置1803から発汗量を示す生体信号を取得した場合、単位時間当たりの発汗量を算出する。発汗量が多い場合、自律神経活動のうち交感神経活動が亢進していることを示し、発汗量が少ない場合、交感神経活動が抑制されていることを示す。そこで、模倣情報算出モジュール101は、発汗量を変数とする数式に基づいて共感度を算出する。交感神経活動が抑制されている場合、ユーザはリラックスした状態であることを示すため共感度は大きい値となる。
模倣情報算出モジュール101は、複数種類の生体信号を取得した場合、種類が異なる生体信号の各々から共感度を算出するための指標を算出し、当該指標を変数とする数式に基づいて共感度を算出する。なお、指標は安静時の生体信号を用いて規格化された値でもよい。例えば、心拍動間隔及び発汗量を示す生体信号を取得した場合、それぞれの指標を算出し、基準値からの変化率を算出し、さらに、変化率の平均値を共感度として算出する。なお、基準値は、安静時に取得された生体信号を用いて算出された単位時間当たりの生体信号の値の平均値を用いることが考えられる。
なお、同一種類の生体信号を取得する計測装置が複数存在する場合、各種類の生体信号から算出された指標の平均値を用いればよい。
ステップS107の処理が実行された後、模倣情報算出モジュール101は、遅延時間を設定する(ステップS153)。具体的には、以下のような処理が実行される。
模倣情報算出モジュール101は、遅延時間定義情報313を参照し、模倣特徴量種別602が変数jに対応する種別と一致するエントリを検索する。模倣情報算出モジュール101は、検索されたエントリの遅延時間603から値を取得する。
模倣情報算出モジュール101は、共感度及び遅延時間を変数とする数式を用いて、設定する遅延時間を算出する。
模倣情報算出モジュール101は、ステップS107において追加された模倣情報312のエントリの遅延時間505に算出された遅延時間を設定する。また、模倣情報算出モジュール101は、遅延時間定義情報313から検索されたエントリの遅延時間603に算出された遅延時間を設定する。
なお、模倣情報算出モジュール101は、出力履歴情報318を参照し、共感度1102の値が算出された共感度より大きいエントリの中から、最も共感度が大きいエントリを検索し、検索されたエントリの遅延時間1104の値を遅延時間505として設定してもよい。
なお、共感度を算出する場合に、対話信号を用いてもよい。この場合、ステップS152の処理は、ステップS107の処理の後に実行される。以上がステップS153の処理の説明である。
なお、模倣情報算出モジュール101は、一定期間分の生体信号及び対話信号を取得し、学習モジュール104に学習処理の実行を指示してもよい。この場合、時間間隔が短い学習処理が実行される。模倣情報算出モジュール101は、学習モジュール104が算出した最適遅延時間を設定する。
ステップS101からステップS107までの処理、及びステップS109からステップS112までの処理は、実施例1で説明した処理と同一である。
本実施例では、生体信号を用いて共感度を算出しているが、対話信号を用いて共感度を算出してもよい。例えば、模倣情報算出モジュール101は、顔画像を分析し、ユーザの眉、眼、口等の特徴量を算出し、当該特徴量からユーザの表情を評価することによって同様の指標を算出できる。
言語情報算出モジュール102が実行する処理は、実施例1の処理と同一である。出力情報生成モジュール103が実行する処理は、ステップS302の処理及びステップS306の処理が一部異なる。その他のステップの処理は、実施例1の処理と同一である。
ステップS302では、出力情報生成モジュール103は、出力情報316にエントリを追加した後、追加されたエントリの共感度2001にステップS152において算出された共感度を設定する。その他の処理は実施例1と同一の処理である。
ステップS306では、出力情報生成モジュール103は、出力履歴情報318に追加されたエントリの共感度1102にステップS152において算出された共感度を設定する。その他の処理は実施例1と同一の処理である。
実施例3によれば、リアルタイムに算出された共感度に基づいて遅延時間を設定することによって、より高い共感を誘起する対話を実現できる。
実施例4では、計算機100は、出力アクションを実行する対話インタフェースを制御する情報として遅延時間及び出力条件情報317を用いる。実施例1との差異を中心に、実施例4について説明する。
実施例4のシステム構成は実施例1のシステム構成と同一である。実施例4の計算機100の構成は実施例1の計算機100の構成と同一である。実施例4の計算機100が保持する情報は、実施例1の計算機100が保持する情報と同一である。
実施例4の模倣情報算出モジュール101及び言語情報算出モジュール102が実行する処理は、実施例1の処理と同一である。
実施例4では、出力情報生成モジュール103が実行する処理が一部異なる。具体的にはステップS304及びステップS305の処理が異なる。
出力情報生成モジュール103は、出力情報316から遅延時間903がタイマの値以上のエントリを検索する。また、出力情報生成モジュール103は、出力条件情報317を参照し、模倣特徴量及び発話内容等に基づいて、条件1003に現在の状態に該当するエントリを検索する。
二つの検索処理の少なくともいずれかに該当するエントリが存在する場合、出力情報生成モジュール103は、条件を満たす出力アクションが存在すると判定する。
ステップS305では、出力情報生成モジュール103は、二つの検索処理によって取得した遅延時間903及び条件1003に基づいて、対話インタフェースの制御タイミングを調整する。二つの検索処理のそれぞれからエントリが検索された場合、優先順位に基づいて対話インタフェースが制御される。
実施例4によれば、計算機100は、遅延時間及び出力条件に基づいて出力アクションの実行を制御することによって、多様な出力アクションの実行が可能となる。したがって、ユーザの共感を誘起し、持続的な対話及び多情報の対話を実現できる。
実施例5では、各実施例において、計算機100に対する設定を行うためのGUI(Graphical User Interface)について説明する。
図22及び図23は、実施例5の計算機100に対する設定を行うためのGUIの一例を示す図である。
図22に示すGUI2200は、情報の設定を行うためのGUIであり、対話特徴量設定欄2210、模倣特徴量設定欄2220、条件設定欄2230、学習処理設定欄2240、生体信号設定欄2250、共感度評価設定欄2260、遅延時間の設定ボタン2270、及び保存ボタン2275を含む。
対話特徴量設定欄2210は、対話特徴量を設定するための欄であり、設定数表示欄2211、ラジオボタン2212、及び設定フィールド群2213を含む。対話特徴量設定欄2210に値を入力することによって、算出する対話データ及び対話特徴量を計算機100に設定できる。
設定数表示欄2211は、設定された対話特徴量の種類の数を表示する欄である。
ラジオボタン2212は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン2212を操作することによって、設定フィールド群2213への入力が可能となる。
設定フィールド群2213は、対話信号の種別、対話データの種別、及び対話特徴量の種別を設定するフィールドを含む。なお、設定フィールド群2213には他のフィールドが含まれてもよい。
模倣特徴量設定欄2220は、模倣特徴量を設定するための欄であり、設定数表示欄2221、ラジオボタン2222、及び設定フィールド群2223を含む。模倣特徴量設定欄2220に値を入力することによって、算出する模倣特徴量、及び模倣アクションに対応する遅延時間を設定できる。
設定数表示欄2221は、設定された模倣特徴量の種類の数を表示する欄である。
ラジオボタン2222は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン2222を操作することによって、設定フィールド群2223への入力が可能となる。
設定フィールド群2223は、模倣特徴量の種別、対話特徴量の種別、及び遅延時間を設定するフィールドを含む。なお、設定フィールド群2223には他のフィールドが含まれてもよい。設定フィールド群2223に含まれる遅延時間は、遅延時間定義情報313に設定される。
設定フィールド群2223に含まれる遅延時間のフィールドには、後述するGUI2300を用いて算出された最適遅延時間又は遅延時間範囲が設定される。なお、遅延時間のフィールドには、専門家が手動で値を設定してもよい。
条件設定欄2230は、模倣特徴量の条件を設定するための欄であり、設定数表示欄2231、ラジオボタン2232、及び設定フィールド群2233を含む。条件設定欄2230に値を入力することによって、出力条件情報317を設定できる。
設定数表示欄2231は、設定される条件の数を表示する欄である。
ラジオボタン2232は、条件を設定する場合に操作されるボタンである。ラジオボタン2232を操作することによって、設定フィールド群2233への入力が可能となる。
設定フィールド群2233は、模倣特徴量種別及び条件を含む。なお、設定フィールド群2233には他のフィールドが含まれてもよい。
学習処理設定欄2240は、遅延時間の学習方法を設定する欄であり、設定表示欄2241及び設定ラジオボタン群を含む。学習処理設定欄2240に値を入力することによって、学習方法を設定できる。
本実施例では、学習データの有無を選択するラジオボタン、及び使用する学習データを選択するラジオボタンが含まれる。設定表示欄2241には、設定ラジオボタン群の操作結果が表示される。
生体信号設定欄2250は、生体信号及び指標を設定するための欄であり、設定数表示欄2251、ラジオボタン2252、及び設定フィールド群2253を含む。生体信号設定欄2250に値を入力することによって、計測する生体信号及び算出する指標を設定できる。
設定数表示欄2251は、設定された生体信号の種類の数を表示する欄である。
ラジオボタン2252は、生体信号を設定する場合に操作されるボタンである。ラジオボタン2252を操作することによって、設定フィールド群2253への入力が可能となる。
設定フィールド群2253は、生体信号種別、活動、及び指標を設定するフィールドを含む。活動は、生体信号種別に対応する生体信号に基づいて評価する活動の識別情報を格納するフィールドである。指標は、活動と指標の関係性を設定するフィールドである。なお、設定フィールド群2253には他のフィールドが含まれてもよい。
共感度評価設定欄2260は、共感度を算出する時に使用する指標を設定するための欄であり、設定表示欄2261及び設定ラジオボタン群を含む。共感度評価設定欄2260に値を入力することによって、共感度をリアルタイムに算出するか否かを設定できる。
本実施例では、共感度をリアルタイムに評価するか否かを選択するラジオボタン、及び評価時に使用する生体信号を選択するラジオボタンが含まれる。設定表示欄2261には、設定ラジオボタン群の操作結果が表示される。
遅延時間の設定ボタン2270は、学習処理の実行を指示するためのボタンである。当該ボタンが操作された場合、学習モジュール104が図16に示す処理を実行し、処理結果を図23に示すGUI2300として表示する。
保存ボタン2275は、各設定欄の入力を保存する場合に操作されるボタンである。
なお、GUI2200は、表示モード及び編集モードを切り替えるボタンを含んでもよい。
図23に示すGUI2300は、学習処理に基づいて遅延時間又は遅延時間幅を設定するためのGUIであり、模倣特徴量種別選択欄2301、最適遅延時間表示欄2302、遅延時間範囲表示欄2303、グラフ表示欄2304、設定表示欄2305、フィッティング方法設定欄2306、設定表示欄2307、学習データ選択欄2308、設定表示欄2309、算出方法設定欄2310、設定表示欄2311、遅延時間範囲算出方法設定欄2312、及び戻りボタン2313を含む。
模倣特徴量種別選択欄2301は、学習する模倣アクションに対応する模倣特徴量を選択する欄である。
最適遅延時間表示欄2302は、学習処理によって算出された最適遅延時間を表示する欄である。
遅延時間範囲表示欄2303は、学習処理によって算出された遅延時間範囲を表示する欄である。
グラフ表示欄2304は、遅延時間及び共感度の関係性を示すグラフを表示する欄である。
設定表示欄2305は、フィッティング方法設定欄2306の操作結果を表示する欄である。
フィッティング方法設定欄2306は、フィッティング方法を設定するための欄である。フィッティング方法設定欄2306には、フィッティング方法を選択するためのラジオボタン群が含まれる。
設定表示欄2307は、学習データ選択欄2308の操作結果を表示する欄である。
学習データ選択欄2308は、学習に使用するデータを選択するための欄である。学習データ選択欄2308には、個人データ又は集団データのいずれかを選択するラジオボタンが含まれる。
設定表示欄2309は、算出方法設定欄2310の操作結果を表示する欄である。
算出方法設定欄2310は、最適遅延時間の算出方法を設定する欄である。算出方法設定欄2310は、最適遅延時間を算出するか否かを選択するラジオボタン、及び最適遅延時間の算出基準を選択するラジオボタンを含む。
設定表示欄2311は、遅延時間範囲算出方法設定欄2312の操作結果を表示する欄である。算出基準には最大値及び最小値が表示される。
遅延時間範囲算出方法設定欄2312は、遅延時間範囲の算出方法を設定する欄である。遅延時間範囲算出方法設定欄2312は、遅延時間範囲を算出するか否かを選択するラジオボタン、及び遅延時間の算出基準を選択するラジオボタンを含む。算出基準には割合及び閾値が表示される。なお、割合及び閾値に設定する値は変更することができる。
戻りボタン2313は、GUI2200に切り替えるためのボタンである。
GUI2200及びGUI2300を用いることによって、対話特徴量、模倣特徴量、及び生体信号等の遅延時間を設定するために必要な情報を容易に設定でき、また、設定した値の確認及び変更が容易にできる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるCPUが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるCPUが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
100 計算機
101 模倣情報算出モジュール
102 言語情報算出モジュール
103 出力情報生成モジュール
104 学習モジュール
110 対話信号計測装置
120 言語信号計測装置
130 表示装置
140 対話出力装置
150 入力装置
154 遅延時間
301 演算装置
302 記憶装置
303 入力インタフェース
304 出力インタフェース
311 対話信号情報
312 模倣情報
313 遅延時間定義情報
314 言語信号情報
315 発話情報
316 出力情報
317 出力条件情報
318 出力履歴情報
1801 脳波活動計測装置
1802 心拍計測装置
1803 発汗量計測装置
1900 生体信号情報

Claims (15)

  1. ユーザとの対話を行う対話インタフェースを提供する対話システムであって、
    前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、
    前記演算装置は、
    前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、
    前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、
    前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出し、
    前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。
  2. 請求項1に記載の対話システムであって、
    前記記憶装置は、前記応答アクションの種別毎に設定される前記制御時間を管理する制御時間定義情報を保持し、
    前記演算装置は、前記制御時間定義情報に基づいて、前記応答アクションの制御時間を算出することを特徴とする対話システム。
  3. 請求項2に記載の対話システムであって、
    前記制御時間定義情報は、前記応答アクションの種別及び設定可能な制御時間の範囲を示す設定範囲から構成されるエントリを含み、
    前記演算装置は、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出することを特徴とする対話システム。
  4. 請求項2に記載の対話システムであって、
    前記記憶装置は、前記対話インタフェースが行った前記応答アクションの履歴を管理する履歴情報を保持し、
    前記履歴情報は、前記応答アクションの有効性を示す指標を含み、
    前記演算装置は、
    前記履歴情報を参照して、前記指標及び前記制御時間の関係性を分析し、
    前記分析の結果に基づいて、前記制御時間定義情報を更新することを特徴とする対話システム。
  5. 請求項2に記載の対話システムであって、
    前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、
    前記演算装置は、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。
  6. 請求項1に記載の対話システムであって、
    前記演算装置は、
    前記計測装置が計測した信号に基づいて、前記応答アクションの有効性を示す指標を算出し、
    前記第1特徴量及び前記指標に基づいて、前記制御時間を算出することを特徴とする対話システム。
  7. 請求項1に記載の対話システムであって、
    前記応答アクションは、前記ユーザのアクションの模倣するアクションであり、
    前記制御時間は、遅延時間であることを特徴とする対話システム。
  8. ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、
    前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるインタフェースを有する計算機と、前記ユーザの発話に関連する信号を計測する計測装置と、を備え、
    前記対話システムの制御方法は、
    前記演算装置が、前記計測装置が計測した信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出する第1のステップと、
    前記演算装置が、前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出する第2のステップと、
    前記演算装置が、前記応答アクションの種別に応じて、前記応答アクションの制御のタイミングを調整する制御時間を算出する第3のステップと、
    前記演算装置が、前記第2特徴量及び前記制御時間に基づいて、前記対話インタフェースを制御する第4のステップと、を含むことを特徴とする対話システムの制御方法。
  9. 請求項8に記載の対話システムの制御方法であって、
    前記記憶装置は、前記応答アクションの種別毎に設定される前記制御時間を管理する制御時間定義情報を保持し、
    前記第3のステップは、前記演算装置が、前記制御時間定義情報に基づいて、前記応答アクションの制御時間を算出するステップを含むことを特徴とする対話システムの制御方法。
  10. 請求項9に記載の対話システムの制御方法であって、
    前記制御時間定義情報は、前記応答アクションの種別及び設定可能な制御時間の範囲を示す設定範囲から構成されるエントリを含み、
    前記第3のステップは、前記演算装置が、前記応答アクションの種別に対応する前記設定範囲に基づいて、ランダムな制御時間を算出するステップを含むことを特徴とする対話システムの制御方法。
  11. 請求項9に記載の対話システムの制御方法であって、
    前記記憶装置は、前記対話インタフェースが行った前記応答アクションの履歴を管理する履歴情報を保持し、
    前記履歴情報は、前記応答アクションの有効性を示す指標を含み、
    前記対話システムの制御方法は、
    前記演算装置が、前記履歴情報を参照して、前記指標及び前記制御時間の関係性を分析するステップと、
    前記演算装置が、前記分析の結果に基づいて、前記制御時間定義情報を更新するステップと、を含むことを特徴とする対話システムの制御方法。
  12. 請求項9に記載の対話システムの制御方法であって、
    前記記憶装置は、前記応答アクションの実行条件を管理する条件情報を保持し、
    前記第4のステップは、前記演算装置が、前記第2特徴量、前記制御時間、及び前記条件情報に基づいて、前記対話インタフェースを制御するステップを含むことを特徴とする対話システムの制御方法。
  13. 請求項8に記載の対話システムの制御方法であって、
    前記演算装置が、前記計測装置が計測した信号に基づいて、前記応答アクションの有効性を示す指標を算出するステップを含み、
    前記第3のステップは、前記演算装置が、前記第1特徴量及び前記指標に基づいて、前記制御時間を算出するステップを含むことを特徴とする対話システムの制御方法。
  14. 請求項8に記載の対話システムの制御方法であって、
    前記応答アクションは、前記ユーザのアクションの模倣するアクションであり、
    前記制御時間は、遅延時間であることを特徴とする対話システムの制御方法。
  15. ユーザとの対話を行う対話インタフェースを提供する装置であって、
    前記装置は、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェース、及び前記ユーザの発話に関連する信号を計測する計測器を備え、
    前記記憶装置は、前記対話インタフェースによって前記ユーザに対して行われる、前記ユーザのアクションを模倣する応答アクションの種別毎に、前記応答アクションの制御タイミングを調整する遅延時間を管理する遅延時間定義情報を保持し、
    前記演算装置は、
    前記計測器によって計測された信号に基づいて、前記ユーザの発話におけるユーザアクションの特徴を示す第1特徴量を算出し、
    前記第1特徴量に基づいて、前記対話インタフェースが前記ユーザに対して行う応答アクションの制御値である第2特徴量を算出し、
    前記遅延時間定義情報に基づいて、前記応答アクションの種別に応じた前記遅延時間を算出し、
    前記第2特徴量及び前記遅延時間に基づいて、前記対話インタフェースを制御することを特徴とする装置。
JP2017113177A 2017-06-08 2017-06-08 対話システム、対話システムの制御方法、及び装置 Active JP6768597B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017113177A JP6768597B2 (ja) 2017-06-08 2017-06-08 対話システム、対話システムの制御方法、及び装置
US15/903,640 US10832119B2 (en) 2017-06-08 2018-02-23 Interactive agent for imitating and reacting to a user based on user inputs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113177A JP6768597B2 (ja) 2017-06-08 2017-06-08 対話システム、対話システムの制御方法、及び装置

Publications (2)

Publication Number Publication Date
JP2018205616A true JP2018205616A (ja) 2018-12-27
JP6768597B2 JP6768597B2 (ja) 2020-10-14

Family

ID=64564130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113177A Active JP6768597B2 (ja) 2017-06-08 2017-06-08 対話システム、対話システムの制御方法、及び装置

Country Status (2)

Country Link
US (1) US10832119B2 (ja)
JP (1) JP6768597B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6993314B2 (ja) * 2018-11-09 2022-01-13 株式会社日立製作所 対話システム、装置、及びプログラム
CN110347248B (zh) * 2019-06-24 2023-01-24 歌尔科技有限公司 交互处理方法、装置、设备及音频设备
CN110716634A (zh) * 2019-08-28 2020-01-21 北京市商汤科技开发有限公司 交互方法、装置、设备以及显示设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325052A (ja) * 2000-05-17 2001-11-22 Sharp Corp エージェント表示装置、エージェント表示方法およびエージェント表示プログラムを記録した記録媒体
US20020008716A1 (en) * 2000-07-21 2002-01-24 Colburn Robert A. System and method for controlling expression characteristics of a virtual agent
US7136818B1 (en) * 2002-05-16 2006-11-14 At&T Corp. System and method of providing conversational visual prosody for talking heads
JP2011033837A (ja) * 2009-07-31 2011-02-17 Nec Corp 対話支援装置、対話支援方法およびプログラム
US20110131041A1 (en) * 2009-11-27 2011-06-02 Samsung Electronica Da Amazonia Ltda. Systems And Methods For Synthesis Of Motion For Animation Of Virtual Heads/Characters Via Voice Processing In Portable Devices
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
WO2017085992A1 (ja) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
CN1991982A (zh) * 2005-12-29 2007-07-04 摩托罗拉公司 一种使用语音数据激励图像的方法
US8165282B1 (en) * 2006-05-25 2012-04-24 Avaya Inc. Exploiting facial characteristics for improved agent selection
US7814041B2 (en) * 2007-03-20 2010-10-12 Caporale John L System and method for control and training of avatars in an interactive environment
BRPI0809759A2 (pt) * 2007-04-26 2014-10-07 Ford Global Tech Llc "sistema informativo emotivo, sistemas de informações emotivas, métodos de condução emotiva de informações, sistemas informativos emotivos para um veículo de passageiro e método implementado por computador"
KR101475459B1 (ko) * 2008-01-09 2014-12-23 삼성디스플레이 주식회사 타이밍 컨트롤러, 이를 이용한 데이터 처리방법 및 이를갖는 표시장치
JP2012181697A (ja) 2011-03-01 2012-09-20 Nec Corp 対話システム、対話制御方法およびプログラム
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
JP6270661B2 (ja) 2014-08-08 2018-01-31 国立大学法人京都大学 音声対話方法、及び音声対話システム
US9792825B1 (en) * 2016-05-27 2017-10-17 The Affinity Project, Inc. Triggering a session with a virtual companion

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325052A (ja) * 2000-05-17 2001-11-22 Sharp Corp エージェント表示装置、エージェント表示方法およびエージェント表示プログラムを記録した記録媒体
US20020008716A1 (en) * 2000-07-21 2002-01-24 Colburn Robert A. System and method for controlling expression characteristics of a virtual agent
US7136818B1 (en) * 2002-05-16 2006-11-14 At&T Corp. System and method of providing conversational visual prosody for talking heads
JP2011033837A (ja) * 2009-07-31 2011-02-17 Nec Corp 対話支援装置、対話支援方法およびプログラム
US20110131041A1 (en) * 2009-11-27 2011-06-02 Samsung Electronica Da Amazonia Ltda. Systems And Methods For Synthesis Of Motion For Animation Of Virtual Heads/Characters Via Voice Processing In Portable Devices
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
WO2017085992A1 (ja) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置

Also Published As

Publication number Publication date
US20180357526A1 (en) 2018-12-13
US10832119B2 (en) 2020-11-10
JP6768597B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
RU2696307C1 (ru) Коммуникационное устройство, коммуникационный робот и машиночитаемый носитель данных
US20220230404A1 (en) Contextual awareness of user interface menus
US10660570B2 (en) Attention, comprehension, and drowsiness monitoring via head mounted device supporting augmented and mixed reality experiences
JP7143839B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023096152A (ja) 眼追跡カメラからの顔の表情
US20200090392A1 (en) Method of Facial Expression Generation with Data Fusion
AU2017387781A1 (en) Automatic control of wearable display device based on external conditions
Lin et al. Direct-sense brain–computer interfaces and wearable computers
JP6768597B2 (ja) 対話システム、対話システムの制御方法、及び装置
JP6993291B2 (ja) 計算機及び感情推定方法
Moghimi et al. Influencing human affective responses to dynamic virtual environments
CN110837294A (zh) 一种基于眼球追踪的面部表情控制方法及系统
Orhan RSVP Keyboard™: An EEG Based BCI Typing System with Context Information Fusion
US11403289B2 (en) Systems and methods to facilitate bi-directional artificial intelligence communications
JP2021135995A (ja) アバター表情生成システム及びアバター表情生成方法
JP6993314B2 (ja) 対話システム、装置、及びプログラム
JP7204984B1 (ja) プログラム、方法、情報処理装置
Donegan et al. D3. 1 User requirements report with observations of difficulties users are experiencing
JP4440661B2 (ja) 脳波制御装置及びそのプログラム
Chan et al. Integration of assistive technologies into 3D simulations: an exploratory study
US20240085985A1 (en) Inertial sensing of tongue gestures
JP7194371B1 (ja) プログラム、方法、情報処理装置
Wang et al. Design and verification of children-oriented educational application based on eye movement interactive technology
Wijayarathna et al. Towards Stress Detection During Gameplay: A Survey
da Silva et al. Computer-Human Interaction Research and Applications: 7th International Conference, CHIRA 2023, Rome, Italy, November 16–17, 2023, Proceedings, Part I

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R150 Certificate of patent or registration of utility model

Ref document number: 6768597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150