JP6993314B2 - 対話システム、装置、及びプログラム - Google Patents

対話システム、装置、及びプログラム Download PDF

Info

Publication number
JP6993314B2
JP6993314B2 JP2018211609A JP2018211609A JP6993314B2 JP 6993314 B2 JP6993314 B2 JP 6993314B2 JP 2018211609 A JP2018211609 A JP 2018211609A JP 2018211609 A JP2018211609 A JP 2018211609A JP 6993314 B2 JP6993314 B2 JP 6993314B2
Authority
JP
Japan
Prior art keywords
dialogue
feature amount
user
control
listening pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018211609A
Other languages
English (en)
Other versions
JP2020076923A (ja
JP2020076923A5 (ja
Inventor
崇志 沼田
康博 朝
伸宏 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018211609A priority Critical patent/JP6993314B2/ja
Priority to US16/596,809 priority patent/US11276420B2/en
Publication of JP2020076923A publication Critical patent/JP2020076923A/ja
Publication of JP2020076923A5 publication Critical patent/JP2020076923A5/ja
Application granted granted Critical
Publication of JP6993314B2 publication Critical patent/JP6993314B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • User Interface Of Digital Computer (AREA)

Description

対話インタフェースを介したユーザとの対話を実現する対話システムに関する。
ヒトと対話するロボット及びCG等の対話インタフェースが、ヒトの発話に対して傾聴的な応答を提示することによって、ヒトの共感を誘起することができれば、そのヒトの発話欲求を誘起し、持続的な対話を実現できる。
対話インタフェースは、ヒトの表情及び音声等の対話におけるヒトの行動に関連する情報を対話信号として取得し、対話信号から特徴量(対話特徴量)を算出し、その対話特徴量に基づいて、対話インタフェースを介して出力する表情及び音声を決定することによって、ヒトの共感を誘起する対話を実現する。
対話インタフェースに関する技術として、特許文献1に記載の技術が知られている。特許文献1には、「インタラクション状態量算出部は、ユーザの発話における話者交替潜時、発話区間のピッチ、パワーまたはモーラを含むインタラクション状態量を検出する。コミュニケーション同調制御部は、ユーザとロボットシステムとのコミュニケーション同調ずれ量を算出し、同調モデルを表す状態方程式による連続的な引き込み制御によりコミュニケーション同調ずれ量を最小化すると同時に、インタラクションルールによる離散的な引き込み制御により、ユーザのインタラクション状態量をロボットシステムのそれに近づけていく、または、ロボットシステムのインタラクション状態量をユーザのインタラクション状態量に近づけつつユーザのインタラクション状態量をロボットシステムのそれに近づけていく。」対話システムが開示されている。
特許文献1に記載の対話システムは、インタラクション状態量のずれ量を最小化することによって、持続的なコミュニケーションを実現している。
特開2012-181697号公報
しかし、発明者の実験によれば、対話インタフェース(対話ロボット)が、ずれ量を最小化するようなユーザの模倣を行っても、ユーザの共感を増強できない場合があることがわかった。具体的には、対話ロボットがユーザの発話に応じて頷きの動作を出力することによって発話量を増加できるが、ユーザの笑顔を抑制することがわかった。そのため、特許文献1の対話システムでは、ユーザの共感を誘起できない場合がある。
図18Aは、対話ロボットの頷き回数と発話中のユーザの笑顔回数との間の関係を評価したグラフである。
横軸は、対話ロボットの頷き回数を表している。縦軸は、ユーザの笑顔回数の変化を表す。当該変化は、ユーザの発話に応じて対話ロボットが頷き動作を出力した場合のユーザの笑顔回数から、ユーザが発話に応じて対話ロボットが頷き動作を出力しなかった場合のユーザの笑顔回数を減算した値(差)として算出される。
図18Aに示すように、発明者は、対話ロボットの頷き回数が多い場合、ユーザの笑顔回数が減る傾向があるという有意な負の相関関係を確認した。
図18Bは、対話ロボットの頷き回数と発話中のユーザの笑顔時間との間の関係を評価したグラフである。
横軸は、対話ロボットの頷き回数を表している。縦軸は、ユーザの笑顔時間を表している。
図18Bに示すように、発明者は、対話ロボットの頷き回数が多い場合、ユーザの笑顔時間が減る傾向があるという有意な負の相関関係を確認した。
これらの実験結果より、ユーザの発話に応じて頷きの動作を出力した場合、ユーザの笑顔を抑制する可能性があることがわかった。
ユーザの共感を効果的に誘起するためには、単に発話を促進し、ユーザの話しやすさを増強するだけでなく、話す楽しさも増強する必要がある。このような話しやすさと話す楽しさといった、ヒトの共感に影響する複数の特徴量(共感特徴量)を考慮して、対話インタフェースの出力を制御することが望ましい。
本発明は、ヒトの共感を効果的に誘起する対話インタフェースを実現する技術を提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、ユーザと対話を行う対話インタフェースを提供する対話システムであって、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続される接続デバイスを有する計算機と、前記ユーザの状態に関連する情報を取得する情報取得装置と、を備え、前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、前記演算装置は、前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出し、前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出し、前記複数の第二特徴量の中からターゲット第二特徴量を選択し、前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択し、前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成し、前記出力情報に基づいて、前記対話インタフェースを制御する。
本発明の一形態によれば、ユーザの共感を誘起し、持続的な対話を実現できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
実施例1の対話システムの構成例を示す図である。 実施例1の計算機の構成例を説明する図である。 実施例1の対話信号情報のデータ構造の一例を示す図である。 実施例1の対話特徴量情報のデータ構造の一例を示す図である。 実施例1の共感特徴量情報のデータ構造の一例を示す図である。 実施例1の発話情報のデータ構造の一例を示す図である。 実施例1の傾聴パターン定義情報のデータ構造の一例を示す図である。 実施例1の出力情報のデータ構造の一例を示す図である。 実施例1の対話信号処理モジュールが実行する処理を説明するフローチャートである。 実施例1の出力情報生成モジュールが実行する処理を説明するフローチャートである。 実施例1の対話システムにおける共感特徴量の変化と傾聴パターンとの関係を説明する図である。 実施例1の第1変形例の対話システムの構成例を示す図である。 実施例2の対話システムの構成例を示す図である。 実施例2の計算機が保持する感情信号情報のデータ構造の一例を示す図である。 実施例2の計算機が保持する感情特徴量情報のデータ構造の一例を示す図である。 実施例2の対話信号処理モジュールが実行する処理を説明するフローチャートである。 実施例2の対話信号処理モジュールが実行する処理を説明するフローチャートである。 実施例1、2の計算機に対する設定を行うためのGUIの一例を示す図である。 対話ロボットの頷き回数と発話中のユーザの笑顔回数との間の関係を評価したグラフである。 対話ロボットの頷き回数と発話中のユーザの笑顔時間との間の関係を評価したグラフである。
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。
本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。
図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。
実施例1では、ユーザとの対話を実現する対話インタフェースを提供する計算機が、対話信号(対話情報)に基づいて対話特徴量を算出し、対話特徴量に基づいて共感特徴量を算出する。また、計算機は、共感特徴量に基づいて傾聴パターンを選択し、傾聴パターン及び対話特徴量に基づいて対話インタフェースの制御内容を定義する出力情報を生成する。対話インタフェースは、出力情報に基づいて所定の発話及び動作等の応答行動を行う。
ここで、実施例1における用語について説明する。
「対話信号」は、対話におけるユーザの行動に関連する情報(外部から把握可能なユーザの状態の情報)を含む信号である。例えば、眼、顔、身体、及びユーザの周囲の環境等の画像、音声、ユーザの身体の一部の加速度、並びに、瞳孔径等、ユーザに関する情報である。実施例1では、ユーザの眼球画像、顔画像、及び音声の3種類の情報が対話信号として取得される。
「対話特徴量」は、対話信号に基づいて算出される、ユーザの行動を評価するための指標(外部から把握可能なユーザの変化を評価するための指標)である。例えば、ユーザの視線、表情、及び発話量等が対話特徴量として算出される。
「共感特徴量」は、対話インタフェースに対するユーザの共感の程度を評価するための指標である。実施例1では、話しやすさを示す値及び話す楽しさを示す値が共感特徴量として算出される。
「傾聴パターン」は、対話インタフェースの傾聴のパターンである。ここで、「対話インタフェースの傾聴」は、対話インタフェースの応答行動の傾向を表す。実施例1では、積極的傾聴パターン及び消極的傾聴パターンの2種類の傾聴パターンが設定される。後述するように、計算機は、共感特徴量に基づいて傾聴パターンを選択する。積極的傾聴パターンは、対話インタフェースに対するユーザの「話しやすさ」を増強することを目的とした傾聴パターンである。消極的傾聴パターンは、対話インタフェースに対するユーザの「楽しさ」を増強することを目的とした傾聴パターンである。
「応答行動」は、対話インタフェースがユーザに対して行う行動であり、対話インタフェースを構成する表示装置に表示される人物画像又はロボットの動き及び発話等である。
図1は、実施例1の対話システムの構成例を示す図である。
計算機100、対話信号取得装置110、120、及び対話出力装置130、140から構成される。
計算機100は、対話信号を用いて出力情報216(図2参照)を生成し、出力情報216に基づいて対話出力装置130、140を制御する。計算機100には、マウス、キーボード、タッチパネル等の入力装置150が接続される。
対話出力装置130、140は対話インタフェースとして機能する装置である。実施例1では、対話出力装置130は音声を再生するスピーカであり、対話出力装置140は所定の動作を行うロボットであるものとする。なお、対話出力装置130、140を一つの装置として実現してもよい。
対話信号取得装置110、120は、対話信号を取得する装置である。具体的には対話信号取得装置110は、画像を対話信号として取得し、対話信号取得装置120は、音声を対話信号として取得する。
なお、同一種類の対話信号を取得する対話信号取得装置が対話システムに複数含まれる場合、対話信号に対話信号取得装置の識別情報を含めてもよい。
なお、ユーザに装着する角度センサ及び加速度センサを対話信号取得装置として用いてもよい。当該センサが取得した値は、顔の向き及び身体の動きを算出するために用いることができる。
入力装置150は、外部信号を入力するための装置である。ここで、外部信号は、計算機100を制御するため信号であって、対話信号を除いた信号を外部信号として扱う。
ここで、計算機100のソフトウェア構成の概要について説明する。計算機100は、対話信号処理モジュール101及び出力情報生成モジュール102を有し、また、情報群103を保持する。なお、計算機100は、計算機100が保持する情報及び計算機100が生成する情報を提示する機能を実現するモジュールを有してもよい。
対話信号処理モジュール101は、出力情報216を生成するために用いる各種情報を算出する。具体的には、以下のような処理が実行される。
対話信号処理モジュール101は、対話信号から対話データを算出し、対話データに基づいて対話特徴量を算出する。対話信号処理モジュール101は、対話特徴量に基づいて共感特徴量を算出する。対話データに基づいて対話特徴量を算出するアルゴリズム、及び対話特徴量に基づいて共感特徴量を算出するアルゴリズムは予め設定されているものとする。
なお、対話特徴量及び共感特徴量の関係は、ユーザへの主観アンケートの調査結果等を用いた学習処理を実行することによって求めてもよい。この場合、計算機100に機械学習を実行する学習モジュールを追加し、また、学習処理に使用するデータベースを用意する。当該データベースは、対話特徴量及び共感特徴量を対応づけたデータを格納する。データベースのデータ量が学習処理に必要なデータ量より小さい場合、対話システムは、データの収集又は作成をユーザに指示する機能を有してもよい。
対話信号処理モジュール101は、共感特徴量に基づいて傾聴パターンを選択する。共感特徴量に基づいて傾聴パターンを選択するアルゴリズムは予め設定されているものとする。また、対話信号処理モジュール101は、対話データに基づいてユーザの発話内容を解析し、解析結果に基づいて対話インタフェースから出力する発話内容を決定する。対話インタフェースから出力する発話内容決定するアルゴリズムは予め設定されているものとする。
出力情報生成モジュール102は、対話特徴量、発話内容、及び傾聴パターンに基づいて出力情報216を生成し、出力情報216に基づいて対話インタフェースを制御する。
なお、本発明は対話データに基づいて対話特徴量を算出するアルゴリズムに限定されない。一種類の対話データに基づいて一種類の対話特徴量を算出するアルゴリズムでもよいし、複数種類の対話データに基づいて一種類の対話特徴量を算出するアルゴリズムでもよいし、また、一種類の対話データに基づいて複数種類の対話特徴量を算出するアルゴリズムでもよい。
なお、本発明は共感特徴量を算出するアルゴリズムに限定されない。一種類の対話特徴量に基づいて一種類の共感特徴量を算出するアルゴリズムでもよいし、複数種類の対話特徴量に基づいて一種類の共感特徴量を算出するアルゴリズムでもよいし、また、一種類の対話特徴量に基づいて複数種類の共感特徴量を算出するアルゴリズムでもよい。
なお、本発明は傾聴パターンを選択するアルゴリズムに限定されない。一種類の共感特徴量に基づいて傾聴パターンを選択するアルゴリズムでもよいし、複数種類の共感特徴量に基づいて傾聴パターンを選択するアルゴリズムでもよい。例えば、最も小さい共感特徴量を増強させるための傾聴パターンを選択するアルゴリズムが考えられる。
なお、本発明は対話インタフェースから出力する発話内容を決定するアルゴリズムに限定されない。
なお、図1では、一つの計算機100が各モジュールを有しているが、複数の計算機に各モジュールを配置してもよい。また、図1では、対話信号取得装置110、120と計算機100とを別々の装置として記載しているが、計算機100が対話信号取得装置110、120を含んでもよい。
なお、計算機100が有する各モジュールは、二つ以上のモジュールを一つのモジュールにまとめてもよいし、一つのモジュールを機能毎に複数のモジュールに分けてもよい。
図2は、実施例1の計算機100の構成例を説明する図である。
計算機100は、演算装置201、記憶装置202、入力インタフェース203、及び出力インタフェース204を有する。
演算装置201は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のハードウェアであり、記憶装置202に格納されるプログラムを実行する。演算装置201は、プログラムにしたがって動作することによって、所定のモジュールとして機能する。本実施例では、演算装置201は、対話信号処理モジュール101及び出力情報生成モジュール102として機能する。
記憶装置202は、メモリ等のハードウェアであり、演算装置201が実行するプログラム及び当該プログラムが使用する情報を格納する。また、記憶装置202はワークエリアを含む。記憶装置202に格納されるプログラム及び情報については後述する。なお、計算機100は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。
入力インタフェース203は、対話信号及び外部信号の入力を受け付けるハードウェアである。USB(Universal Serial Bus)規格の接続線を介して信号を入力する装置と接続される場合、USB端子を有するインタフェースが入力インタフェース203になり、ネットワークを介して信号を入力する装置と接続される場合、ポートを有するインタフェースが入力インタフェース203となる。
出力インタフェース204は、各種情報を出力するハードウェアである。情報を出力する装置がディスプレイの場合、VGA端子又はHDMI端子(HDMIは登録商標)等の端子を有するインタフェースが出力インタフェース204となり、情報を出力する装置がスピーカの場合、USB端子を有するインタフェースが出力インタフェース204となる。
ここで、記憶装置202に格納されるプログラム及び情報について説明する。記憶装置202は、対話信号処理モジュール101及び出力情報生成モジュール102を実現するプログラムを格納する。また、記憶装置202は、対話信号情報211、対話特徴量情報212、共感特徴量情報213、発話情報214、傾聴パターン定義情報215、及び出力情報216を格納する。
対話信号情報211は対話信号を管理する情報である。対話信号情報211のデータ構造の一例は図3を用いて説明する。対話特徴量情報212は対話特徴量を管理する情報である。対話特徴量情報212のデータ構造の一例は図4を用いて説明する。共感特徴量情報213は共感特徴量を管理する情報である。共感特徴量情報213のデータ構造の一例は図5を用いて説明する。発話情報214はヒトの発話内容を管理する情報である。発話情報214のデータ構造の一例は図6を用いて説明する。傾聴パターン定義情報215は傾聴パターンを管理する情報である。傾聴パターン定義情報215のデータ構造の一例は図7を用いて説明する。出力情報216は対話インタフェースを制御するための情報である。出力情報216のデータ構造の一例は図8を用いて説明する。
図3は、実施例1の対話信号情報211のデータ構造の一例を示す図である。
対話信号情報211は、ID301、信号名302、取得時間303、及びポインタ304から構成されるエントリを含む。一つのエントリが一つの対話信号に対応する。なお、エントリの構造は一例であってこれに限定されない。一部のフィールドが含まれていなくてもよいし、また、他のフィールドが含まれてもよい。
ID301は、対話信号情報211のエントリを一意に識別するための識別情報を格納するフィールドである。
信号名302は、対話信号の種別を示す情報を格納するフィールドである。例えば、信号名302には「画像信号」等が格納される。なお、同一種類の対話信号を取得する対話信号取得装置が対話システムに含まれる場合、信号名302には、どの対話信号取得装置が取得した対話信号かを区別できる値を格納してもよい。
取得時間303は、対話信号の取得時間を格納するフィールドである。取得時間303には、例えば、対話信号の取得の開始時間を基準とした時間が格納される。
ポインタ304は、取得された対話信号が格納される記憶領域のポインタを格納するフィールドである。
なお、ポインタ304の代わりに、取得された対話信号を格納するフィールドを設けてもよい。当該フィールドには、例えば、画像及び音声等が格納される。なお、当該フィールドには、画像を変換してられる座標及びRGB値の組合せ、並びに、正規化処理等が行われた音声が格納されてもよい。
なお、対話信号から複数の信号を抽出してもよい。例えば、対話信号が画像である場合、当該画像から眼球画像及び顔画像等を抽出し、対話信号情報211に各画像のエントリを追加してよい。眼球画像及び顔画像は、眼球及び顔に関する特徴量に基づいて抽出されてもよいし、画像の特徴量を用いた統計処理に基づいて抽出されてもよいし、また、画像の特徴量を識別器に入力することによって抽出されてもよい。
図4は、実施例1の対話特徴量情報212のデータ構造の一例を示す図である。
対話特徴量情報212は、ID401、参照ID402、対話特徴量種別403、及び対話特徴量404から構成されるエントリを含む。一つのエントリが一つの対話特徴量に対応する。なお、エントリの構造は一例であってこれに限定されない。一部のフィールドが含まれていなくてもよいし、また、他のフィールドが含まれてもよい。
ID401は、対話特徴量情報212のエントリを一意に識別するための識別情報を格納するフィールドである。
参照ID402は、対話特徴量の算出時に用いた対話信号の識別情報を格納するフィールドである。参照ID402にはID301の値が格納される。
対話特徴量種別403は、対話特徴量の種別を示す情報を格納するフィールドである。例えば、対話特徴量種別403には、「視線」、「顔の向き」、「身体の動き」、「表情」、及び「発話量」等が格納される。なお、対話特徴量には、種別とは別に識別番号が設定されているものとする。
対話特徴量404は、算出された対話特徴量を格納するフィールドである。
対話特徴量種別403が「視線」である場合、対話特徴量404にはユーザの視線の座標等が格納され、対話特徴量種別403が「顔の向き」である場合、対話特徴量404にはユーザの顔の傾け角度等が格納され、対話特徴量種別403が「身体の動き」である場合、対話特徴量404にはユーザの身体の移動量等が格納される。
ユーザの視線の座標は、空間上の任意の基準点を原点とする座標でもよいし、対話出力装置140の設置位置を原点とする座標でもよい。顔の傾け角度は、鼻尖及び顔の輪郭から算出された特徴点間の距離の変化又は左右差等に基づいて算出される。単位時間当たりの身体の移動量は、身体の輪郭から算出された特徴点の移動距離の総和等に基づいて算出される。
対話特徴量種別403が「表情」である場合、対話特徴量404には喜び、悲しみ、怒り、驚き等のユーザの表情の種別が格納される。ユーザの表情は、事前に用意したユーザの表情の画像と、取得したユーザの表情の画像との類似度に基づいて算出できる。また、ユーザの表情の種別は、眼、口、輪郭等の特徴点の位置又は特徴点間の距離の変化等に基づいて算出できる。
対話特徴量種別403が「発話量」である場合、対話特徴量404には単位時間当たりの発話エネルギー量等が格納される。単位時間当たりの発話エネルギー量は、ユーザの音声の一定時間当たりの音量等の値の二乗和等を用いて算出することができる。なお、発話の速度及び発話のリズム等が対話特徴量として算出されてもよい。また、発話内容に含まれる単語及び表現等に基づいて対話特徴量を算出してもよい。
なお、算出される対話特徴量は、共感特徴量の算出に用いるものに限定されない。応答行動を決定するために用いる対話特徴量が算出されてもよい。
なお、各対話特徴量を比較するために、最小値を0とし、最大値を100とする規格化処理が行われた値が対話特徴量404に格納されてもよい。
図5は、実施例1の共感特徴量情報213のデータ構造の一例を示す図である。
共感特徴量情報213は、ID501、参照ID502、共感特徴量種別503、及び共感特徴量504から構成されるエントリを含む。一つのエントリが一つの共感特徴量に対応する。なお、エントリの構造は一例であってこれに限定されない。一部のフィールドが含まれていなくてもよいし、また、他のフィールドが含まれてもよい。
ID501は、共感特徴量情報213のエントリを一意に識別するための識別情報を格納するフィールドである。
参照ID502は、共感特徴量の算出時に用いた対話特徴量の識別情報を格納するフィールドである。参照ID502にはID401の値が格納される。
共感特徴量種別503は、共感特徴量の種別を示す情報を格納するフィールドである。本実施例の共感特徴量種別503には、「話しやすさ」及び「楽しさ」のいずれかが格納される。なお、共感特徴量には、種別とは別に識別番号が設定されているものとする。
共感特徴量504は、算出された共感特徴量を格納するフィールドである。
共感特徴量を算出する方法としては、対話特徴量を共感特徴量として算出する方法、及び、専門家が設定した計算式に基づいて算出する方法が考えられる。例えば、共感特徴量種別503が「話しやすさ」である場合、発話量に基づいて共感特徴量が算出され、共感特徴量種別503が「楽しさ」である場合、表情に基づいて共感特徴量が算出される。
また、複数の対話特徴量を用いて共感特徴量を算出する方法としては、各対話特徴量の和、又は、規格化された各対話特徴量の平均値を共感特徴量として算出する方法が考えられる。例えば、複数の対話特徴量に対する主成分分析から得られた第一主成分を「話しやすさ」の共感特徴量として算出し、第二主成分を「楽しさ」の共感特徴量として算出する。
なお、各共感特徴量を比較するために、最小値を0とし、最大値を100とする規格化処理が行われた値が共感特徴量504に格納されてもよい。
図6は、実施例1の発話情報214のデータ構造の一例を示す図である。
発話情報214は、入力発話内容601及び参照ID602から構成されるエントリを含む。一つのエントリがユーザの発話内容に対応する。なお、エントリの構造は一例であってこれに限定されない。一部のフィールドが含まれていなくてもよいし、また、他のフィールドが含まれてもよい。
入力発話内容601は、音声に関する対話信号を分析することによって特定されたユーザの発話内容を格納するフィールドである。
参照ID602は、発話内容を特定するために用いた対話信号の識別情報を格納するフィールドである。参照ID602にはID301の値が格納される。
図7は、実施例1の傾聴パターン定義情報215のデータ構造の一例を示す図である。
傾聴パターン定義情報215は、ID701、共感特徴量種別702、及び傾聴パターン703から構成されるエントリを含む。一つのエントリが一つの共感特徴量及び傾聴パターンの組に対応する。なお、エントリの構造は一例であってこれに限定されない。一部のフィールドが含まれていなくてもよいし、また、他のフィールドが含まれてもよい。
ID701は、傾聴パターン定義情報215のエントリを一意に識別するための識別情報を格納するフィールドである。
共感特徴量種別702は、傾聴パターンの選択基準となる共感特徴量の識別情報を格納するフィールドである。
傾聴パターン703は、傾聴パターンを格納するフィールドである。実施例1の傾聴パターンは、対話インタフェースの応答行動における制御項目及び調整値の組から構成される。
共感特徴量及び傾聴パターンの組合せは、専門家が決定してもよいし、履歴を用いたロジスティック回帰分析及びサポートベクターマシン等のアルゴリズムに基づく機械学習により決定してもよい。また、傾聴パターンにおける制御項目及び調整値の組合せは、専門家が決定してもよいし、履歴を用いた機械学習に基づいて決定してもよい。
機械学習に基づいて前述の組合せを決定する場合、計算機100に機械学習を実行する学習モジュールを追加し、また、機械学習に使用するデータベースを用意する。当該データベースは、傾聴パターン及び共感特徴量の変化量を対応づけたデータを格納する。共感特徴量の変化量は、傾聴パターンを用いた出力情報216に基づく応答処理の前後の共感特徴量を減算することによって算出できる。
データベースのデータ量が学習処理に必要なデータ量より小さい場合、対話システムは、データの収集又は作成をユーザに指示する機能を有してもよい。例えば、対話システムは、ユーザに対して過去に行った対話の記憶を想起するように指示し、特定の共感特徴量を変化させるために視覚刺激、聴覚刺激、及び嗅覚刺激等をユーザに与えて、傾聴パターン及び共感特徴量の変化に関するデータを取得してもよい。
なお、ユーザ単位で学習処理を実行することによって、ユーザ毎の傾聴パターンを生成することもできる。
機械学習によって生成された傾聴パターン定義情報215を用いることによって、ユーザの共感をより効果的に誘起し、より持続的な対話及び多情報の対話を実現できる。
図8は、実施例1の出力情報216のデータ構造の一例を示す図である。
出力情報216は、出力装置801、制御項目802、及び制御値803から構成されるエントリを含む。一つのエントリが一つの応答行動に対応する。なお、エントリの構造は一例であってこれに限定されない。一部のフィールドが含まれていなくてもよいし、また、他のフィールドが含まれてもよい。
出力装置801は、応答行動を行う対話出力装置130、140の識別情報を格納するフィールドである。実施例1では、対話特徴量及び傾聴パターンに基づいて対話出力装置140が制御され、発話内容に基づいて対話出力装置130が制御される。
制御項目802は、応答行動における対話インタフェースの制御対象を示す値を格納するフィールドである。例えば、ロボットの視線が制御対象である場合、制御項目802には「眼球」が格納され、ロボットの表情が制御対象である場合、制御項目802には「表情」が格納され、スピーカからの音声の出力が制御対象である場合、制御項目802には「発話内容」が格納され、スピーカから出力される音声の声調が制御対象である場合、制御項目802には「声調」が格納される。また、他の制御項目としては、発話の速度及びリズム等が考えられる。
制御値803は、制御項目802に対応する対話インタフェースの制御対象を制御するための値を格納するフィールドである。
なお、視線の移動に伴って音声を出力するための応答行動が行われてもよい。
図9は、実施例1の対話信号処理モジュール101が実行する処理を説明するフローチャートである。
対話信号処理モジュール101は、イベントが発生したか否かを判定する(ステップS101)。例えば、ユーザの動きが検出された場合、又は、ユーザの発話が検出された場合にイベントが発生したと判定される。また、ユーザが入力装置150を用いて処理の開始を指示した操作が行われた場合、対話信号処理モジュール101は、イベントが発生したと判定する。
イベントが発生していないと判定された場合、対話信号処理モジュール101は、イベントの発生まで待ち状態に移行する。
イベントが発生したと判定された場合、対話信号処理モジュール101は、対話信号取得装置110、120を介して対話信号を取得する(ステップS102)。
このとき、対話信号処理モジュール101は、取得した対話信号を記憶装置202に格納する。対話信号処理モジュール101は、対話信号情報211を初期化し、取得された対話信号の数だけ対話信号情報211にエントリを追加する。対話信号処理モジュール101は、追加されたエントリの各フィールドに値を設定する。
なお、対話信号処理モジュール101は、必要な対話信号が全て取得されるまで、ステップS102の処理を繰り返し実行してもよい。また、タイマを設定している場合には、対話信号処理モジュール101は、タイマが経過するまで対話信号の取得を継続してもよい。
なお、同一種類の対話信号を取得する対話信号取得装置が対話システムに複数含まれる場合、各対話信号取得装置の一定期間における対話信号の相関等を対話信号情報211に格納する対話信号として算出してもよい。
次に、対話信号処理モジュール101は、変数iを初期化する(ステップS103)。
具体的には、対話信号処理モジュール101は変数iに「1」を設定する。ここで、変数iは対話特徴量の識別番号を表す変数である。
次に、対話信号処理モジュール101は、変数iに対応する対話特徴量が発話に関する対話特徴量であるか否かを判定する(ステップS104)。
変数iに対応する対話特徴量が発話に関する対話特徴量であると判定された場合、対話信号処理モジュール101は、発話情報214を生成する(ステップS105)。具体的には、以下のような処理が実行される。
(処理A1)対話信号処理モジュール101は、対話信号情報211から音声に対応する対話信号を取得する。対話信号処理モジュール101は、発話情報214にエントリを追加する。さらに、対話信号処理モジュール101は、参照ID602に、取得された対話信号の識別情報を設定する。
(処理A2)対話信号処理モジュール101は、各対話信号に対して分析処理を実行することによって、音声をテキストデータに変換する。対話信号処理モジュール101は、テキストデータを入力発話内容601に設定する。
以上がステップS105の処理の説明である。
次に、対話信号処理モジュール101は、取得した対話信号に基づいて、変数iに対応する対話特徴量を算出する(ステップS106)。その後、対話信号処理モジュール101はステップS107に進む。ステップS104の判定結果がYESである場合、音声を用いた対話特徴量が算出される。
ステップS104において、変数iに対応する対話特徴量が発話に関する対話特徴量でないと判定された場合、対話信号処理モジュール101は、取得した対話信号に基づいて対話特徴量を算出する(ステップS106)。その後、対話信号処理モジュール101はステップS107に進む。ステップS104の判定結果がNOである場合、画像を用いた対話特徴量が算出される。ここで、画像を用いた対話特徴量の算出方法について説明する。
(処理B1)変数iに対応する対話特徴量が「視線」に関する対話特徴量である場合、対話信号処理モジュール101は、複数の画像(対話信号)の各々から眼球の画像を抽出する。対話信号処理モジュール101は、抽出された複数の画像を用いて、「視線」に関する対話特徴量を算出する。
(処理B2)対話信号処理モジュール101は、対話特徴量情報212にエントリを追加する。対話信号処理モジュール101は、追加されたエントリのID401に識別情報を設定し、参照ID402に眼球の画像の算出時に用いた画像の識別番号を設定する。また、対話信号処理モジュール101は、追加されたエントリの対話特徴量種別403に「視線」を設定し、対話特徴量404に算出された対話特徴量を設定する。
「顔の向き」に関する対話特徴量及び「身体の動き」に関する対話特徴量も同様の処理で算出される。ただし、「顔の向き」に関する対話特徴量を算出する場合には、(処理B1)において顔全体の画像が抽出され、「身体の動き」に関する対話特徴量を算出する場合には、(処理B1)において全身の画像が抽出される。以上が、画像を用いた対話特徴量の算出方法の説明である。
ステップS107では、対話信号処理モジュール101は、全ての対話特徴量の算出が完了したか否かを判定する(ステップS107)。
全ての対話特徴量の算出が完了していないと判定された場合、対話信号処理モジュール101は、変数iに「1」を加算し(ステップS108)、その後、ステップS104に戻る。
全ての対話特徴量の算出が完了したと判定された場合、対話信号処理モジュール101は、変数jを初期化する(ステップS109)。
具体的には、対話信号処理モジュール101は変数jに「1」を設定する。ここで、変数jは共感特徴量の識別番号を表す変数である。
次に、対話信号処理モジュール101は、変数jに対応する共感特徴量を算出する(ステップS110)。
このとき、対話信号処理モジュール101は、共感特徴量情報213にエントリを追加し、追加されたエントリのID501に識別情報を設定する。対話信号処理モジュール101は、追加されたエントリの参照ID502に共感特徴量を算出するために用いた対話特徴量に対応するエントリの識別情報を設定する。また、対話信号処理モジュール101は、追加されたエントリの共感特徴量種別503に名称を設定し、共感特徴量504に算出された共感特徴量を設定する。
次に、対話信号処理モジュール101は、全ての共感特徴量の算出が完了したか否かを判定する(ステップS111)。
全ての共感特徴量の算出が完了していないと判定された場合、対話信号処理モジュール101は、変数jに「1」を加算し(ステップS112)、その後、ステップS110に戻る。
全ての共感特徴量の算出が完了したと判定された場合、対話信号処理モジュール101は、共感特徴量及び傾聴パターン定義情報215に基づいて、傾聴パターンを選択する(ステップS113)。その後、対話信号処理モジュール101は出力情報生成モジュール102を呼び出し、処理を終了する。
「話しやすさ」に関する共感特徴量及び「楽しさ」に関する共感特徴量が算出されている場合、対話信号処理モジュール101は、以下のような処理を実行する。
対話信号処理モジュール101は、「話しやすさ」に関する共感特徴量及び「楽しさ」に関する共感特徴量を比較し、値が小さい方の共感特徴量をターゲット共感特徴量として選択する。対話信号処理モジュール101は、傾聴パターン定義情報215を参照し、共感特徴量種別702に、選択された共感特徴量の名称が設定されたエントリを選択する。
実施例1では、最も小さい共感特徴量を増強するための傾聴パターンが選択される。これによって、対話インタフェースは、ユーザの共感を効果的に誘起するための応答行動を行うことができる。
図10は、実施例1の出力情報生成モジュール102が実行する処理を説明するフローチャートである。
出力情報生成モジュール102は、対話信号処理モジュール101から呼び出された場合、以下で説明する処理を開始する。
出力情報生成モジュール102は、出力情報216を生成する(ステップS201)。具体的には、以下のような処理が実行される。
(処理C1)出力情報生成モジュール102は、対話特徴量に基づいて、対話インタフェースの動作を制御するための制御値を算出する。例えば、出力情報生成モジュール102は、ユーザの動作を模倣するための制御値又はユーザの動作と相反する動作を行うための制御値を算出する。
(処理C2)出力情報生成モジュール102は、発話情報214の入力発話内容601に基づいてユーザに出力する発話内容(出力発話内容)を生成する。実施例1では、出力情報生成モジュール102は、ユーザの発話を促す発話内容又はユーザの発話に応答する発話内容を生成する。例えば、出力情報生成モジュール102は、ユーザの共感を共起するために、ユーザの発話内容に含まれる単語を含む発話内容を生成する。
出力発話内容を生成する方法としては、言語データベース等を用いる方法及び過去の発話内容の履歴を用いる方法等が考えられる。なお、出力発内容を生成する場合、出力情報生成モジュール102は、入力発話内容601とともに対話特徴量を参照してもよい。
(処理C3)出力情報生成モジュール102は、傾聴パターンに基づいて補正対象の制御項目の制御値を補正する。傾聴パターンに含まれる制御項目が補正対象の制御項目である。例えば、出力情報生成モジュール102は、視線に関する制御値に、傾聴パターンに含まれる視線の値を乗算することによって、視線に関する制御値を補正する。
(処理C4)出力情報生成モジュール102は、制御値及び出力発話内容を含む出力情報216を生成する。
以上がステップS201の処理の説明である。
次に、出力情報生成モジュール102は、出力情報216に基づいて対話インタフェースを制御することによって、応答行動を実行する(ステップS202)。
このとき、出力情報生成モジュール102は、前回生成された出力情報216の制御値と今回生成された出力情報216とを比較し、制御値の差が大きい制御項目については変化の程度が緩やかになるように対話インタフェースを制御してもよい。例えば、前回生成された出力情報216の頷きの制御値が0より大きく、かつ、今回生成された出力情報216の頷きの制御値が0である場合、出力情報生成モジュール102は、発話量に応じて頷きの動作の大きさを徐々に小さくし、又は、頷く頻度を徐々に低下させるように、対話インタフェースを制御する。
前回生成された出力情報216の任意の制御項目の制御値が、今回生成された出力情報216では0となっている場合、出力情報生成モジュール102は、前回生成された出力情報216の制御値に基づいて同じ応答行動を行うように対話インタフェースを制御してもよいし、任意の応答行動を行うように対話インタフェースを制御してもよい。
図11は、実施例1の対話システムにおける共感特徴量の変化と傾聴パターンとの関係を説明する図である。
ここでは、対話信号処理モジュール101は、「話しやすさ」に関する共感特徴量及び「楽しさ」に関する共感特徴量を比較し、値が小さい方の共感特徴量をターゲット共感特徴量として選択するものとする。
図11は、「楽しさ」に関する共感特徴量が縦軸、「話しやすさ」に関する共感特徴量が横軸となる共感特徴量空間に対応するグラフを示す。
グラフ(A)では、特徴量空間におけるユーザの状態はポイント1101であるものとする。この場合、「楽しさ」に関する共感特徴量がターゲット共感特徴量として選択される。したがって、対話信号処理モジュール101は積極的傾聴パターンを選択する。積極的傾聴パターンに基づく対話インタフェースの制御によって、「楽しさ」に関する共感特徴量が増加する。例えば、ユーザの状態はポイント1101からポイント1102に示すように変化する。
積極的傾聴パターンに基づく対話インタフェースの制御によって、グラフ(B)に示すような共感特徴量の関係に変化した場合、対話信号処理モジュール101は、「話しやすさ」に関する共感特徴量をターゲット共感特徴量として選択する。したがって、対話信号処理モジュール101は消極的傾聴パターンを選択する。消極的傾聴パターンに基づく対話インタフェースの制御によって、「話しやすさ」に関する共感特徴量が増加する。例えば、ユーザの状態はポイント1102からポイント1103に示すように変化する。
消極的傾聴パターンに基づく対話インタフェースの制御によって、グラフ(C)に示すような共感特徴量の関係に変化した場合、対話信号処理モジュール101は、「楽しさ」に関する共感特徴量をターゲット共感特徴量として選択する。したがって、対話信号処理モジュール101は積極的傾聴パターンを選択する。積極的傾聴パターンに基づく対話インタフェースの制御によって、「楽しさ」に関する共感特徴量が増加する。例えば、ユーザの状態はポイント1103からポイント1104に示すように変化する。
実施例1の対話システムによれば、計算機100は、傾聴パターンに基づいて対話インタフェースの制御内容を決定し、当該制御内容に基づいて対話インタフェースを制御することによって、ユーザの共感を効果的に誘起し、持続的な対話及び多情報の対話を実現できる。
(実施例1の第1変形例)
専用の対話信号取得装置110、120と、対話インタフェースを実現する専用の対話出力装置130、140を用いなくても同様の対話システムを実現できる。例えば、対話信号取得装置110、120及び対話出力装置130、140と同等の機能を有するスマートフォン及びタブレット端末を用いればよい。この場合、スマートフォン及びタブレット端末には、対話インタフェースを実現するためのソフトウェアがインストールされる。
図12は、実施例1の第1変形例の対話システムの構成例を示す図である。
図12に示す対話システムは、計算機100及びスマートフォン1200から構成される。スマートフォン1200は、無線通信を用いて計算機100と接続する。
スマートフォン1200は、カメラ1201、ディスプレイ1202、マイク1203、スピーカ1204、及びボタン1205を有する。また、スマートフォン1200は、図示しない演算装置、記憶装置、及び通信装置を有する。
カメラ1201及びマイク1203は、対話信号取得装置110、120として機能する。ディスプレイ1202に表示される画像1210及びスピーカ1204は、対話出力装置130、140として機能する。
また、スマートフォン1200が計算機100の機能及び情報を含むように構成してもよい。
(実施例1の第2変形例)
対話インタフェースの応答行動における制御項目及び調整値の組を傾聴パターンとして設定していたが、これに限定されない。制御項目及び算出フラグの組を傾聴パターンとして設定してもよい。算出フラグは、制御項目の制御値を算出するか否かを示すフラグである。例えば、制御項目の制御値を算出する場合、算出フラグを「1」とし、制御項目の制御値を算出しない場合、算出フラグを「0」とする。
この場合、ステップS201の処理内容が一部異なる。
(処理C’1)出力情報生成モジュール102は、傾聴パターンに基づいて制御値を算出する制御項目を特定する。出力情報生成モジュール102は、対話特徴量に基づいて、特定された制御項目の制御値を算出する。
(処理C’2)出力情報生成モジュール102は、発話情報214の入力発話内容601に基づいてユーザに出力する発話内容(出力発話内容)を生成する。
(処理C’3)出力情報生成モジュール102は、制御値及び出力発話内容を含む出力情報216を生成する。
傾聴パターンに基づいて制御値を算出する制御項目を絞り込むことができるため、出力情報216の生成に要する計算コストを削減することができる。
実施例2は、感情信号(感情情報)から算出される感情特徴量を用いて共感特徴量を算出する点が異なる。以下、実施例1との差異を中心に実施例2について説明する。
ここで、実施例2における用語について説明する。
「感情信号」は、ユーザの感情に関連する情報(外部から把握できないユーザの状態の情報)を含む信号である。例えば、感情信号は、脳波信号及び脳血流信号等の脳活動を評価するための信号、並びに、心拍動間隔及び発汗量等の自律神経活動を評価するための信号等の生体信号である。
「感情特徴量」は、ユーザの感情変化を評価するための指標(外部から把握できないユーザの変化を評価するための指標)である。例えば、生体信号が感情信号として取得される場合、心電図から算出される心拍数、及び脳波から算出されるP300振幅等の事象関連電位等の生体特徴量が感情特徴量として算出される。また、感情信号からユーザの心理状態を示す値を算出し、当該値の変化量に基づいて感情特徴量を算出できる。ユーザの心理状態を示す値の変化量に基づいた生体特徴量は、例えば、現在の心拍数が安静時の心拍数より大きい場合大きい値となり、現在の心拍数が安静時の心拍数より小さい場合小さい値となる。
なお、感情信号に基づいて感情特徴量を算出するアルゴリズムは予め設定されているものとする。
図13は、実施例2の対話システムの構成例を示す図である。
実施例の対話システムは感情信号を取得する感情信号取得装置1301、1302を含む。感情信号取得装置1301は、脳波及び脳波血流等を示す生体信号を取得する。感情信号取得装置1301は、例えば、近赤外分光装置である。感情信号取得装置1302は、心拍等を示す生体信号を取得する。感情信号取得装置1302は、例えば、心電計である。
実施例の情報群103は、感情信号情報1400及び感情特徴量情報1500を含む。
図14は、実施例2の計算機100が保持する感情信号情報1400のデータ構造の一例を示す図である。
感情信号情報1400は、ID1401、信号名1402、取得時間1403、及びポインタ1404から構成されるエントリを含む。一つのエントリが一つの感情信号に対応する。
ID1401は、感情信号情報1400のエントリを一意に識別するための識別情報を格納するフィールドである。
信号名1402は、感情信号の種別等を識別するための情報を格納するフィールドである。実施例2では、感情信号を取得した取得装置の名称が信号名1402に格納される。なお、感情信号に含まれるデータの種別が格納されてもよい。
取得時間1403は、感情信号の取得時間を格納するフィールドである。取得時間1403には、例えば、感情信号の取得の開始時間を基準とした時間が格納される。
ポインタ1404は、取得された感情信号が格納される記憶領域のポインタを格納するフィールドである。なお、ポインタ1404の代わりに、取得された感情信号を格納するフィールドを設けてもよい。
図15は、実施例2の計算機100が保持する感情特徴量情報1500のデータ構造の一例を示す図である。
感情特徴量情報1500は、ID1501、参照ID1502、感情特徴量種別1503、及び感情特徴量1504から構成されるエントリを含む。一つのエントリが一つの感情特徴量に対応する。
ID1501は、感情特徴量情報1500のエントリを一意に識別するための識別情報を格納するフィールドである。
参照ID1502は、感情特徴量の算出時に用いた感情信号の識別情報を格納するフィールドである。参照ID1502にはID1401の値が格納される。
感情特徴量種別1503は、感情特徴量の名称を格納するフィールドである。感情特徴量種別1503には、例えば、「心拍数」等が格納される。なお、感情特徴量には、名称とは別に識別番号が設定されているものとする。
感情特徴量1504は、算出された感情特徴量を格納するフィールドである。
なお、各感情特徴量を比較するために、最小値を0とし、最大値を100とする規格化処理が行われた値が感情特徴量1504に格納されてもよい。例えば、単位時間あたりの心拍数が安静時の心拍数の2倍以上であれば100、単位時間あたりの心拍数が安静時の心拍数以下であれば0となるような変換が考えられる。
なお、同一種類の感情信号を取得する感情信号取得装置が複数存在する場合、例えば、各感情信号から算出された感情特徴量の平均値が感情特徴量1504に格納される。
図16A及び図16Bは、実施例2の対話信号処理モジュール101が実行する処理を説明するフローチャートである。
ステップS101、ステップS103からステップS108の処理は実施例1と同一である。
ステップS102では、対話信号処理モジュール101は、対話信号取得装置110から対話信号を取得し、感情信号取得装置1301、1302から感情信号を取得する(ステップS102)。
ステップS107の判定結果がYESである場合、対話信号処理モジュール101は、変数kを初期化する(ステップS151)。
具体的には、対話信号処理モジュール101は変数kに「1」を設定する。ここで、変数kは感情特徴量の識別番号を表す変数である。
次に、対話信号処理モジュール101は、取得した感情信号に基づいて、変数kに対応する感情特徴量を算出する(ステップS152)。
次に、対話信号処理モジュール101は、全ての感情特徴量の算出が完了したか否かを判定する(ステップS153)。
全ての感情特徴量の算出が完了していないと判定された場合、対話信号処理モジュール101は、変数kに「1」を加算し(ステップS154)、その後、ステップS152に戻る。
全ての感情特徴量の算出が完了したと判定された場合、対話信号処理モジュール101は、ステップS109に進む。ステップS109、及びステップS111からステップS113までの処理は実施例1と同一である。
ステップS110では、対話信号処理モジュール101は、感情特徴量に基づいて共感特徴量を算出する。なお、感情特徴量に基づいて共感特徴量を算出するアルゴリズムは予め設定されているものとする。
なお、対話信号及び感情信号が一致してもよい。また、対話特徴量が感情特徴量と一致してもよい。
なお、対話信号及び感情信号は別々に取得されているが、対話信号から感情信号を抽出してもよい。この場合、対話システムには感情信号取得装置1301、1302が含まれない。例えば、対話信号から眼球画像が抽出された場合、計算機100は、ユーザの瞳孔の径(瞳孔径)を用いて、自律神経活動の変化を評価する値を算出できる。
なお、対話特徴量及び感情特徴量を組み合わせに基づいて、傾斜パターンを選択するアルゴリズムも採用することができる。
実施例2の対話システムによれば、計算機100は、ユーザの感情変化を評価するための指標である感情特徴量に基づいて傾聴パターンを選択できる。これによって、ユーザの共感を効果的に誘起し、持続的な対話及び多情報の対話を実現できる。
実施例3では、各実施例において、計算機100に対する設定を行うためのGUI(Graphical User Interface)について説明する。
図17は、実施例1、2の計算機100に対する設定を行うためのGUIの一例を示す図である。
図17に示すGUI1700は、情報の設定を行うためのGUIであり、対話特徴量設定欄1710、感情特徴量設定欄1720、共感特徴量設定欄1730、傾聴パターン設定欄1740、学習処理設定欄1750、選択アルゴリズム設定欄1760、及び保存ボタン1770を含む。
対話特徴量設定欄1710は、対話特徴量を設定するための欄であり、設定数表示欄1711、ラジオボタン1712、及び設定フィールド群1713を含む。対話特徴量設定欄1710に値を入力することによって、算出する対話特徴量を計算機100に設定できる。
設定数表示欄1711は、設定された対話特徴量の種類の数を表示する欄である。
ラジオボタン1712は、対話特徴量を設定する場合に操作されるボタンである。ラジオボタン1712を操作することによって、設定フィールド群1713への入力が可能となる。
設定フィールド群1713は、対話信号の種別及び対話特徴量の種別を設定するフィールドを含む。なお、設定フィールド群1713には他のフィールドが含まれてもよい。
感情特徴量設定欄1720は、感情特徴量を設定するための欄であり、設定数表示欄1721、ラジオボタン1722、及び設定フィールド群1723を含む。感情特徴量設定欄1720に値を入力することによって、算出する感情特徴量を計算機100に設定できる。
設定数表示欄1721は、設定された感情特徴量の種類の数を表示する欄である。
ラジオボタン1722は、感情特徴量を設定する場合に操作されるボタンである。ラジオボタン1722を操作することによって、設定フィールド群1723への入力が可能となる。
設定フィールド群1723は、感情信号の種別及び感情特徴量の種別を設定するフィールドを含む。なお、設定フィールド群1723には他のフィールドが含まれてもよい。
共感特徴量設定欄1730は、共感特徴量を設定するための欄であり、設定数表示欄1731、ラジオボタン1732、及び設定フィールド群1733を含む。共感特徴量設定欄1730に値を入力することによって、算出する共感特徴量を計算機100に設定できる。
設定数表示欄1731は、設定された共感特徴量の種類の数を表示する欄である。
ラジオボタン1732は、共感特徴量を設定する場合に操作されるボタンである。ラジオボタン1732を操作することによって、設定フィールド群1733への入力が可能となる。
設定フィールド群1733は、共感特徴量の種別を設定するフィールド、共感特徴量の算出に使用する特徴量の種別を設定するフィールド、及び追加ボタンを含む。追加ボタンは、共感特徴量の算出に使用する特徴量の種別を設定するフィールドを追加するための操作ボタンである。
なお、設定フィールド群1733には他のフィールドが含まれてもよい。共感特徴量の算出に使用する特徴量としては、対話特徴量及び共感特徴量のいずれかが設定される。なお、複数の対話特徴量を設定してもよいし、複数の感情特徴量を設定してもよい。また、対話特徴量及び感情特徴量を組み合わせてもよい。
傾聴パターン設定欄1740は、傾聴パターンを設定するための欄であり、設定数表示欄1741、ラジオボタン1742、及び設定フィールド群1743を含む。傾聴パターン設定欄1740に値を入力することによって、傾聴パターン定義情報215を計算機100に設定できる。
設定数表示欄1741は、設定された傾聴パターンの数を表示する欄である。
ラジオボタン1742は、傾聴パターンを設定する場合に操作されるボタンである。ラジオボタン1742を操作することによって、設定フィールド群1743への入力が可能となる。
設定フィールド群1743は、制御項目及び制御値を設定するためのフィールド、並びに、追加ボタンを含む。追加ボタンはフィールドを追加するための操作ボタンである。
学習処理設定欄1750は、傾聴パターンの学習方法を設定する欄であり、設定表示欄1751及び設定ラジオボタン群を含む。学習処理設定欄1750に値を入力することによって、学習方法を設定できる。
図17では、学習データの有無を選択するラジオボタン、及び使用する学習データを選択するラジオボタンが含まれる。設定表示欄1751には、設定ラジオボタン群の操作結果が表示される。
選択アルゴリズム設定欄1760は、傾聴パターンを選択するアルゴリズムを選択する欄である。選択アルゴリズム設定欄1760には、アルゴリズムを入力する欄が含むまれる。図17ではプルダウン形式の欄が表示される。
保存ボタン1770は、各設定欄の入力を保存する場合に操作されるボタンである。
なお、傾聴パターン設定欄1740が操作されている場合、学習処理設定欄1750の操作ができないように制御される。また、学習処理設定欄1750が操作されている場合、傾聴パターン設定欄1740が制御できないように制御される。
GUI1700を用いることによって、特徴量、傾聴パターン、傾聴パターンの選択方法等を設定するために必要な情報を容易に設定でき、また、設定した値の確認及び変更が容易にできる。
なお、GUI1700は、表示モード及び編集モードを切り替えるボタンを含んでもよい。なお、図17に示すGUI1700は一例であり、これに限定されるものではない。
特許請求の範囲に記載した以外の発明の観点の代表的なものとして、次のものがあげられる。
(1)ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続される接続インタフェースを有する計算機と、前記ユーザの状態に関連する情報を取得する情報取得装置と、を含み、
前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースの対話における応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、
前記対話システムの制御方法は、
前記演算装置が、前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出する第1のステップと、
前記演算装置が、前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出する第2のステップと、
前記演算装置が、前記複数の第二特徴量の中から、ターゲット第二特徴量を選択する第3のステップと、
前記演算装置が、前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択する第4のステップと、
前記演算装置が、前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成する第5のステップと、
前記演算装置が、前記出力情報に基づいて、前記対話インタフェースを制御する第6のステップと、を含むことを特徴とする対話システムの制御方法。
(2)(1)に記載の対話システムの制御方法であって、
前記第3のステップは、前記演算装置が、前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択するステップを含むことを特徴とする対話システムの制御方法。
(3)(1)に記載の対話システムの制御方法であって、
前記第5のステップは、
前記演算装置が、前記第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の各々の制御値を算出するステップと、
前記演算装置が、前記傾聴パターンに基づいて少なくとも一つの前記制御項目の前記制御値を補正するステップと、
前記演算装置が、前記複数の制御項目の制御値を含む前記出力情報を生成するステップと、を含むことを特徴とする対話システムの制御方法。
(4)(1)に記載のプログラムであって、
前記第5のステップは、
前記演算装置が、前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定するステップと、
前記演算装置が、前記第一特徴量に基づいて、前記特定された制御項目の制御値を算出するステップと、
前記演算装置が、前記特定された制御項目の制御値を含む前記出力情報を生成するステップと、を含むことを特徴とする対話システムの制御方法。
(5)(1)に記載の対話システムの制御方法であって、
前記傾聴パターンは、前記ターゲット第二特徴量を変化させるために応答行動を実現するための前記インタフェースの複数の制御項目及び調整値から構成されることを特徴とする対話システムの制御方法。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
100 計算機
101 対話信号処理モジュール
102 出力情報生成モジュール
110、120 対話信号取得装置
130、140 対話出力装置
150 入力装置
201 演算装置
202 記憶装置
203 入力インタフェース
204 出力インタフェース
211 対話信号情報
212 対話特徴量情報
213 共感特徴量情報
214 発話情報
215 傾聴パターン定義情報
216 出力情報
1200 スマートフォン
1201 カメラ
1202 ディスプレイ
1203 マイク
1204 スピーカ
1205 ボタン
1210 画像
1301、1302 感情信号取得装置
1400 感情信号情報
1500 感情特徴量情報
1700 GUI

Claims (14)

  1. ユーザと対話を行う対話インタフェースを提供する対話システムであって、
    演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続される接続デバイスを有する計算機と、前記ユーザの状態に関連する情報を取得する情報取得装置と、を備え、
    前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、
    前記演算装置は、
    前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出し、
    前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出し、
    前記複数の第二特徴量の中からターゲット第二特徴量を選択し、
    前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択し、
    前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成し、
    前記出力情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。
  2. 請求項1に記載の対話システムであって、
    前記演算装置は、前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択することを特徴とする対話システム。
  3. 請求項1に記載の対話システムであって、
    前記演算装置は、
    前記少なくとも一つの第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の制御値を算出し、
    前記傾聴パターンに基づいて少なくとも一つの前記制御項目の制御値を補正し、
    前記複数の制御項目の制御値を含む前記出力情報を生成することを特徴とする対話システム。
  4. 請求項1に記載の対話システムであって、
    前記演算装置は、
    前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定し、
    前記少なくとも一つの第一特徴量に基づいて、前記特定された制御項目の制御値を算出し、
    前記特定された制御項目の制御値を含む前記出力情報を生成することを特徴とする対話システム。
  5. 請求項1に記載の対話システムであって、
    前記傾聴パターンは、任意の第二特徴量を変化させる前記応答行動を実現するための前記対話インタフェースの複数の制御項目及び調整値から構成されることを特徴とする対話システム。
  6. ユーザと対話を行う対話インタフェースを提供する装置であって、
    演算装置、前記演算装置に接続される記憶装置、及び前記ユーザの状態に関連する情報を取得する情報取得装置を備え、
    前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、
    前記装置は、
    前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出し、
    前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出し、
    前記複数の第二特徴量の中からターゲット第二特徴量を選択し、
    前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択し、
    前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成し、
    前記出力情報に基づいて、前記対話インタフェースを制御することを特徴とする装置。
  7. 請求項6に記載の装置であって、
    前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択することを特徴とする装置。
  8. 請求項6に記載の装置であって、
    前記少なくとも一つの第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の制御値を算出し、
    前記傾聴パターンに基づいて少なくとも一つの前記制御項目の制御値を補正し、
    前記複数の制御項目の制御値を含む前記出力情報を生成することを特徴とする装置。
  9. 請求項6に記載の装置であって、
    前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定し、
    前記少なくとも一つの第一特徴量に基づいて、前記特定された制御項目の制御値を算出し、
    前記特定された制御項目の制御値を含む前記出力情報を生成することを特徴とする装置。
  10. 請求項6に記載の装置であって、
    前記傾聴パターンは、任意の第二特徴量を変化させる前記応答行動を実現するための前記対話インタフェースの複数の制御項目及び調整値から構成されることを特徴とする装置。
  11. ユーザと対話を行う対話インタフェースを提供する計算機に実行させるためのプログラムであって、
    前記計算機は、
    演算装置、前記演算装置に接続される記憶装置、及び前記ユーザの状態に関連する情報を取得する情報取得装置を有し、
    前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を保持し、
    前記プログラムは、
    前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出する第1の手順と、
    前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出する第2の手順と、
    前記複数の第二特徴量の中からターゲット第二特徴量を選択する第3の手順と、
    前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択する第4の手順と、
    前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成する第5の手順と、
    前記出力情報に基づいて、前記対話インタフェースを制御する第6の手順と、を前記計算機に実行させることを特徴とするプログラム。
  12. 請求項11に記載のプログラムであって、
    前記第3の手順は、前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択する手順を含むことを特徴とするプログラム。
  13. 請求項11に記載のプログラムであって、
    前記第5の手順は、
    前記少なくとも一つの第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の制御値を算出する手順と、
    前記傾聴パターンに基づいて少なくとも一つの前記制御項目の制御値を補正する手順と、
    前記複数の制御項目の制御値を含む前記出力情報を生成する手順と、を含むことを特徴とするプログラム。
  14. 請求項11に記載のプログラムであって、
    前記第5の手順は、
    前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定する手順と、
    前記少なくとも一つの第一特徴量に基づいて、前記特定された制御項目の制御値を算出する手順と、
    前記特定された制御項目の制御値を含む前記出力情報を生成する手順と、を含むことを特徴とするプログラム。
JP2018211609A 2018-11-09 2018-11-09 対話システム、装置、及びプログラム Active JP6993314B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018211609A JP6993314B2 (ja) 2018-11-09 2018-11-09 対話システム、装置、及びプログラム
US16/596,809 US11276420B2 (en) 2018-11-09 2019-10-09 Interaction system, apparatus, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211609A JP6993314B2 (ja) 2018-11-09 2018-11-09 対話システム、装置、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020076923A JP2020076923A (ja) 2020-05-21
JP2020076923A5 JP2020076923A5 (ja) 2021-04-08
JP6993314B2 true JP6993314B2 (ja) 2022-01-13

Family

ID=70550685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211609A Active JP6993314B2 (ja) 2018-11-09 2018-11-09 対話システム、装置、及びプログラム

Country Status (2)

Country Link
US (1) US11276420B2 (ja)
JP (1) JP6993314B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11887574B2 (en) 2021-02-01 2024-01-30 Samsung Electronics Co., Ltd. Wearable electronic apparatus and method for controlling thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (ja) 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP2003271174A (ja) 2002-03-15 2003-09-25 Sony Corp 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
JP2015099304A (ja) 2013-11-20 2015-05-28 日本電信電話株式会社 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム
JP2016038501A (ja) 2014-08-08 2016-03-22 国立大学法人京都大学 音声対話方法、及び音声対話システム

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
US7640164B2 (en) * 2002-07-04 2009-12-29 Denso Corporation System for performing interactive dialog
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
US8965762B2 (en) * 2007-02-16 2015-02-24 Industrial Technology Research Institute Bimodal emotion recognition method and system utilizing a support vector machine
US9282377B2 (en) * 2007-05-31 2016-03-08 iCommunicator LLC Apparatuses, methods and systems to provide translations of information into sign language or other formats
US9634855B2 (en) * 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US20170011258A1 (en) * 2010-06-07 2017-01-12 Affectiva, Inc. Image analysis in support of robotic manipulation
US10796176B2 (en) * 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US10401860B2 (en) * 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US10204625B2 (en) * 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US10628741B2 (en) * 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
JP4725936B1 (ja) * 2011-02-01 2011-07-13 有限会社Bond 入力支援装置、入力支援方法及びプログラム
JP2012181697A (ja) 2011-03-01 2012-09-20 Nec Corp 対話システム、対話制御方法およびプログラム
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
US8831999B2 (en) * 2012-02-23 2014-09-09 Collegenet, Inc. Asynchronous video interview system
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US20170206064A1 (en) * 2013-03-15 2017-07-20 JIBO, Inc. Persistent companion device configuration and deployment platform
US20150162000A1 (en) * 2013-12-10 2015-06-11 Harman International Industries, Incorporated Context aware, proactive digital assistant
US20160260147A1 (en) * 2014-03-06 2016-09-08 Todd King Determining the Credibility of an On-Line User's Review
CN106663383B (zh) * 2014-06-23 2020-04-28 因特维欧研发股份有限公司 分析受试者的方法和系统
US9226090B1 (en) * 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
US9277180B2 (en) * 2014-06-30 2016-03-01 International Business Machines Corporation Dynamic facial feature substitution for video conferencing
JP6289662B2 (ja) * 2014-07-02 2018-03-07 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 情報送信方法及び送信装置
US9646198B2 (en) * 2014-08-08 2017-05-09 International Business Machines Corporation Sentiment analysis in a video conference
US10116748B2 (en) * 2014-11-20 2018-10-30 Microsoft Technology Licensing, Llc Vehicle-based multi-modal interface
US10137902B2 (en) * 2015-02-12 2018-11-27 Harman International Industries, Incorporated Adaptive interactive voice system
US20180293312A1 (en) * 2015-03-04 2018-10-11 Tony Tateossian Computerized Method and System for Organizing Video Files
US11006162B2 (en) * 2015-08-31 2021-05-11 Orcam Technologies Ltd. Systems and methods for analyzing information collected by wearable systems
US20180077095A1 (en) * 2015-09-14 2018-03-15 X Development Llc Augmentation of Communications with Emotional Data
CN108475404B (zh) * 2016-01-25 2023-02-10 索尼公司 通信系统和通信控制方法
US10852813B2 (en) * 2016-02-26 2020-12-01 Sony Corporation Information processing system, client terminal, information processing method, and recording medium
US10460732B2 (en) * 2016-03-31 2019-10-29 Tata Consultancy Services Limited System and method to insert visual subtitles in videos
WO2017183319A1 (ja) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント ロボットおよび筐体
US20170364484A1 (en) * 2016-06-21 2017-12-21 VTCSecure LLC Enhanced text metadata system and methods for using the same
US10042604B2 (en) * 2016-07-01 2018-08-07 Metrik LLC Multi-dimensional reference element for mixed reality environments
JP7020411B2 (ja) * 2016-07-28 2022-02-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US10390096B2 (en) * 2016-09-16 2019-08-20 DISH Technologies L.L.C. Collecting media consumer data
US11071915B2 (en) * 2016-09-30 2021-07-27 Sony Interactive Entertainment Inc. Delivery of spectator feedback content to virtual reality environments provided by head mounted display
US10242672B2 (en) * 2016-10-28 2019-03-26 Microsoft Technology Licensing, Llc Intelligent assistance in presentations
US11321890B2 (en) * 2016-11-09 2022-05-03 Microsoft Technology Licensing, Llc User interface for generating expressive content
US20180133900A1 (en) * 2016-11-15 2018-05-17 JIBO, Inc. Embodied dialog and embodied speech authoring tools for use with an expressive social robot
US9812151B1 (en) * 2016-11-18 2017-11-07 IPsoft Incorporated Generating communicative behaviors for anthropomorphic virtual agents based on user's affect
US20180168498A1 (en) * 2016-12-15 2018-06-21 Analytic Measures Inc. Computer Automated Method and System for Measurement of User Energy, Attitude, and Interpersonal Skills
US20180174055A1 (en) * 2016-12-19 2018-06-21 Giridhar S. Tirumale Intelligent conversation system
US10170111B2 (en) * 2017-01-19 2019-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive infotainment system based on vehicle surrounding and driver mood and/or behavior
US20180250815A1 (en) * 2017-03-03 2018-09-06 Anki, Inc. Robot animation layering
US10096319B1 (en) * 2017-03-13 2018-10-09 Amazon Technologies, Inc. Voice-based determination of physical and emotional characteristics of users
US10170100B2 (en) * 2017-03-24 2019-01-01 International Business Machines Corporation Sensor based text-to-speech emotional conveyance
JP6768597B2 (ja) * 2017-06-08 2020-10-14 株式会社日立製作所 対話システム、対話システムの制御方法、及び装置
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
US20210201696A1 (en) * 2017-07-18 2021-07-01 Intel Corporation Automated speech coaching systems and methods
US11004461B2 (en) * 2017-09-01 2021-05-11 Newton Howard Real-time vocal features extraction for automated emotional or mental state assessment
US20190087870A1 (en) * 2017-09-15 2019-03-21 Oneva, Inc. Personal video commercial studio system
WO2019060889A1 (en) * 2017-09-25 2019-03-28 Ventana 3D, Llc ARTIFICIAL INTELLIGENCE (IA) CHARACTER SYSTEM CAPABLE OF NATURAL VERBAL AND VISUAL INTERACTIONS WITH A HUMAN BEING
US10339931B2 (en) * 2017-10-04 2019-07-02 The Toronto-Dominion Bank Persona-based conversational interface personalization using social network preferences
US10460748B2 (en) * 2017-10-04 2019-10-29 The Toronto-Dominion Bank Conversational interface determining lexical personality score for response generation with synonym replacement
US10553208B2 (en) * 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances using multiple services
CA3065905A1 (en) * 2017-10-27 2019-05-02 Wehireai Inc. Method of preparing recommendations for taking decisions on the basis of a computerized assessment of the capabilities of users
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
US11226673B2 (en) * 2018-01-26 2022-01-18 Institute Of Software Chinese Academy Of Sciences Affective interaction systems, devices, and methods based on affective computing user interface
US10522143B2 (en) * 2018-02-27 2019-12-31 Microsoft Technology Licensing, Llc Empathetic personal virtual digital assistant
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
US10762339B2 (en) * 2018-09-14 2020-09-01 Adp, Llc Automatic emotion response detection
US20200092339A1 (en) * 2018-09-17 2020-03-19 International Business Machines Corporation Providing device control instructions for increasing conference participant interest based on contextual data analysis
US11279041B2 (en) * 2018-10-12 2022-03-22 Dream Face Technologies, Inc. Socially assistive robot
US11238885B2 (en) * 2018-10-29 2022-02-01 Microsoft Technology Licensing, Llc Computing system for expressive three-dimensional facial animation
US11817005B2 (en) * 2018-10-31 2023-11-14 International Business Machines Corporation Internet of things public speaking coach

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (ja) 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP2003271174A (ja) 2002-03-15 2003-09-25 Sony Corp 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
JP2015099304A (ja) 2013-11-20 2015-05-28 日本電信電話株式会社 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム
JP2016038501A (ja) 2014-08-08 2016-03-22 国立大学法人京都大学 音声対話方法、及び音声対話システム

Also Published As

Publication number Publication date
US20200152225A1 (en) 2020-05-14
JP2020076923A (ja) 2020-05-21
US11276420B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
CN106992013B (zh) 语音情感修改
US11762467B2 (en) Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
US11817005B2 (en) Internet of things public speaking coach
JP2021027917A (ja) 情報処理装置、情報処理システム、および機械学習装置
US9814423B2 (en) Method and system for monitoring pain of users immersed in virtual reality environment
US20220310247A1 (en) Virtual reality therapeutic systems
JP2004310034A (ja) 対話エージェントシステム
CN112352390A (zh) 利用用于检测神经状态的传感器数据进行内容生成和控制
JP6993291B2 (ja) 計算機及び感情推定方法
US20210201696A1 (en) Automated speech coaching systems and methods
KR20130082701A (ko) 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법
JP6768597B2 (ja) 対話システム、対話システムの制御方法、及び装置
CN116661607A (zh) 一种基于多模态情感交互的情绪调节方法及系统
JP6993314B2 (ja) 対話システム、装置、及びプログラム
JP2021157172A (ja) 感情を込めて応答する仮想パーソナルアシスタント
EP3921792A1 (en) Virtual agent team
JP7204984B1 (ja) プログラム、方法、情報処理装置
WO2021062210A1 (en) Virtual reality behavioral health platform
JP6689215B2 (ja) システム及び対話情報の出力方法
US11771618B2 (en) Adaptive speech and biofeedback control of sexual stimulation devices
KR102610257B1 (ko) 특정 상황에 대한 대처 스킬을 향상시키는 반응형 컨텐츠를 제공하기 위한 방법 및 컴퓨팅 장치
JP7194371B1 (ja) プログラム、方法、情報処理装置
CN110648264B (zh) 包含或挂接情绪调节成分的课件、调节情绪的方法和装置
US20220331196A1 (en) Biofeedback-based control of sexual stimulation devices
KR102610262B1 (ko) 메타버스를 활용하여 특정 실제 사용자의 특정 아바타에게 상담 서비스를 제공하는 방법 및 장치

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R150 Certificate of patent or registration of utility model

Ref document number: 6993314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150