JPWO2019026617A1 - 情報処理装置、及び情報処理方法 - Google Patents

情報処理装置、及び情報処理方法 Download PDF

Info

Publication number
JPWO2019026617A1
JPWO2019026617A1 JP2019534024A JP2019534024A JPWO2019026617A1 JP WO2019026617 A1 JPWO2019026617 A1 JP WO2019026617A1 JP 2019534024 A JP2019534024 A JP 2019534024A JP 2019534024 A JP2019534024 A JP 2019534024A JP WO2019026617 A1 JPWO2019026617 A1 JP WO2019026617A1
Authority
JP
Japan
Prior art keywords
user
information
certainty
voice
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019534024A
Other languages
English (en)
Other versions
JP7230804B2 (ja
Inventor
東山 恵祐
恵祐 東山
淳己 大村
淳己 大村
浩明 小川
浩明 小川
加奈 西川
加奈 西川
栗屋 志伸
志伸 栗屋
鶴田 泰士
泰士 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019026617A1 publication Critical patent/JPWO2019026617A1/ja
Application granted granted Critical
Publication of JP7230804B2 publication Critical patent/JP7230804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本技術は、音声対話システムにおいて、ユーザに対し適切な情報量で応答を提示することができるようにする情報処理装置、及び情報処理方法に関する。ユーザの所望の情報に対して推定されるユーザ自身の確信度に応じて、当該所望の情報に対する応答の情報量を調整する処理部を備える情報処理装置が提供されることで、音声対話システムにおいて、ユーザに対し適切な情報量で応答を提示することができるようになる。本技術は、例えば、音声対話システムに適用することができる。

Description

本技術は、情報処理装置、及び情報処理方法に関し、特に、音声対話システムにおいて、ユーザに対し適切な情報量で応答を提示することができるようにした情報処理装置、及び情報処理方法に関する。
ユーザが音声対話システムを通じて、情報の取得や確認を行う場合、音声対話システムでは、ユーザの発話意図に応じたアプリケーションAPI(Application Programming Interface)を選択して実行し、それにより得られた結果を、応答文章としてユーザに提示することが多い。
例えば、音声対話システムとしては、システム側の確信度に応じて応答を切り替えるものが開示されている(例えば、特許文献1参照)。
特開2011−54088号公報
ところで、一般的な音声対話システムにおいては、同一のAPIコールに対して、同一のルールでの応答生成が行われることが多いため、ユーザが欲しい情報に対して、どの程度確信しているかに関わらず、常に同じ情報量を含んだ応答が返ってくることになる。
そのため、ユーザは、自分が知っている情報が正しいかどうかを確認したいだけの場合でも、音声対話システムが、知っている情報をすべて含めて応答するなど、ユーザが求める情報量と、音声対話システムが出力する情報量と間に齟齬が生じてしまい、コミュニケーションのスムーズさを欠いてしまう恐れがある。
本技術はこのような状況に鑑みてなされたものであり、音声対話システムにおいて、ユーザに対し適切な情報量で応答を提示することができるようにするものである。
本技術の一側面の情報処理装置は、ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量を調整する処理部を備える情報処理装置である。
本技術の一側面の情報処理置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術の一側面の情報処理方法は、情報処理装置の情報処理方法において、前記情報処理装置が、ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量を調整するステップを含む情報処理方法である。
本技術の一側面の情報処理装置、及び情報処理方法においては、ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量が調整される。
本技術の一側面によれば、音声対話システムにおいて、ユーザに対し適切な情報量で応答を提示することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
一般的な音声対話システムの構成を示すブロック図である。 本技術を適用した音声対話システムの一実施の形態の構成例を示すブロック図である。 音声対話システムの構成例を示すブロック図である。 音声処理装置の構成例を示すブロック図である。 サーバの構成例を示すブロック図である。 スケジュールDBの例を示す図である。 ユーザの確信度とシステム応答の情報量との関係の例を示す図である。 本技術を適用した音声対話システムの他の構成例を示すブロック図である。 スケジュールDBの例を示す図である。 ユーザの確信度とシステム応答の情報量との関係の例を示す図である。 本技術を適用した音声対話システムの他の構成例を示すブロック図である。 一般的なテキストチャットシステムの構成を示すブロック図である。 本技術を適用した音声対話システムの構成の第1の変形例を示すブロック図である。 本技術を適用した音声対話システムの構成の第2の変形例を示すブロック図である。 本技術を適用した音声対話システムの構成の第3の変形例を示すブロック図である。 ユーザの確信度とシステム応答の情報量との関係の第1の変形例を示す図である。 ユーザの確信度とシステム応答の情報量との関係の第2の変形例を示す図である。 ユーザの確信度とシステム応答の情報量との関係の第3の変形例を示す図である。 ユーザの確信度とシステム応答の情報量との関係の第4の変形例を示す図である。 音声対話処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システム構成
2.本技術の実施の形態
(1)第1の実施の形態:基本形
(1−1)ユーザの確信度が高い場合
(1−2)ユーザの確信度が中程度の場合
(1−3)ユーザの確信度が低い場合
(1−4)ユーザの確信度は高いように見えるが、事実として間違っている場合
(1−5)事実として間違っている場合に、複数の選択肢があるとき
(2)第2の実施の形態:予定の対象者と話者が異なる場合
(2−1)他人の予定についてのユーザ自身の確信度が高い場合
(2−2)他人の予定についてのユーザ自身の確信度が中程度の場合
(2−3)他人の予定についてのユーザ自身の確信度が低い場合
(3)第3の実施の形態:センサ情報を利用する場合
3.変形例
4.音声対話処理の流れ
5.コンピュータの構成
<1.システム構成>
(一般的な音声対話システムの構成)
図1は、一般的な音声対話システムの構成を示すブロック図である。
図1において、一般的な音声対話システム1は、音声認識部101、ユーザ意図分析部102、対話制御部103、APIコール部104、及び出力生成部105を含んで構成される。
音声認識部101は、そこに入力されるユーザ発話データを、発話テキストデータに変換し、ユーザ意図分析部102に供給する。
ユーザ意図分析部102は、音声認識部101から供給されるテキストデータを処理して、ユーザの意図を分析し、その分析の結果得られるユーザの意図の候補を示すデータ(以下、ユーザ意図候補データという)を、対話制御部103に供給する。
対話制御部103は、ユーザ意図分析部102から供給されるユーザ意図候補データなどに基づき、現在の対話状態を推定し、コールすべきAPI及びその引数を決定する。対話制御部103は、コールすべきAPI及びその引数を示すデータ(以下、API及び引数データという)を、APIコール部104に供給する。
APIコール部104は、対話制御部103から供給されるAPI及び引数データに基づき、コールすべきAPIにその引数を渡して実行する。APIコール部104は、当該APIを実行することで得られる結果を、API出力として、出力生成部105に供給する。
出力生成部105は、APIコール部104から供給されるAPI出力に基づき、ユーザに対する応答文章(以下、システム応答という)を生成し、その音声データに応じた応答音声を出力する。
一般的な音声対話システム1は、以上のように構成される。
ここで、一般的な音声対話システム1(図1)においては、ユーザが確認したい予定に対し、その内容をどの程度確信しているのか(確信度)に関わらず、同一のAPIコールを行い、その結果を用いた応答生成も同一の手法で行われるため、結果として常に同じ情報量を含んだ応答が得られる。
そのため、シンプルな確認をしたい場合と、予定の詳細を確認したい場合とのどちらの場合においても、同じ応答が得られてしまうことになる。
よって、シンプルな確認をしたい場合でも、情報量の多い応答が得られるため、対話のテンポが落ち、コミュニケーションのスムーズさを欠いてしまう恐れがある。同様に、ユーザが多くの情報を得たい場合でも、音声対話システムの実装によっては、詳細な情報を返さないときもあり、より多くの情報を求めるための追加の対話が必要になって、コミュニケーションのスムーズさを欠いてしまう恐れがある。
そこで、本技術を適用した音声対話システムでは、ユーザが欲しい情報(所望の情報)に対してのユーザ自身の確信度を推定し、その結果に応じて応答生成に含める情報量を制御することにより、ユーザに対し適切な情報量で応答を提示するようにして、よりスムーズなコミュニケーションを実現することができるようにする。以下、本技術を適用した音声対話システムの構成について説明する。
(本技術の音声対話システムの構成)
図2は、本技術を適用した音声対話システムの一実施の形態の構成例を示すブロック図である。
図2において、音声対話システム2は、音声認識部201、ユーザ意図及び確信度分析部202、対話制御部203、APIコール部204、及び出力生成部205を含んで構成される。
音声認識部201は、音声テキスト変換用のデータベースを参照することで、そこに入力されるユーザ発話データを、発話テキストデータに変換する。音声認識部201は、ユーザ発話に応じた発話テキストデータを、ユーザ意図及び確信度分析部202に供給する。
ここで、ユーザ発話データは、ユーザにより発せられた音声を収音する音声処理装置(例えば、後述する図3の音声処理装置10)から送られてくる。また、音声テキスト変換用のデータベースには、膨大な音声認識用データベースが蓄積されており、音声認識部201は、所定の認識アルゴリズムを用いることで、そこに入力されるユーザ発話データ(音声データ)を、発話テキストデータ(テキストデータ)に変換することができる。
ユーザ意図及び確信度分析部202は、音声認識部201から供給される発話テキストデータに対する解析処理を行う。ユーザ意図及び確信度分析部202は、ユーザ意図分析部211及びユーザ確信度推定部212を含んでいる。
ユーザ意図分析部211は、音声認識部201から供給される発話テキストデータに対し、解析処理を施すことで、ユーザの意図を分析する。ユーザ意図分析部211は、分析の結果得られるユーザ意図候補データを、対話制御部203に供給する。
ユーザ確信度推定部212は、音声認識部201から供給される発話テキストデータに対し、解析処理を施すことで、ユーザの確信度を推定する。ユーザ確信度推定部212は、推定の結果得られるユーザの確信度を示すデータ(以下、ユーザ確信度データという)を、対話制御部203に供給する。
対話制御部203は、ユーザ意図及び確信度分析部202から供給されるユーザ意図候補データ、及び対話履歴のデータベースなどに基づき、現在の対話状態を推定し、コールすべきAPI及びその引数を決定する。なお、対話履歴のデータベースには、過去の対話履歴の情報などが蓄積されている。
対話制御部203は、決定されたAPI及び引数データを、APIコール部204に供給する。また、対話制御部203は、ユーザ確信度データを、出力生成部205に供給する。
APIコール部204は、対話制御部203から供給されるAPI及び引数データに基づき、コールすべきAPIにその引数を渡して実行する。APIコール部204は、当該APIを実行することで得られる結果を、API出力として、出力生成部205に供給する。
ここで、コールすべきAPIは、ユーザの意図に応じたAPIであって、例えば、ユーザの意図がスケジュールのチェックに関するものである場合には、スケジュールチェックを行うAPI(以下、スケジュールAPIともいう)が呼び出されて実行される。
出力生成部205には、対話制御部203からのユーザ確信度データと、APIコール部204からのAPI出力のデータが入力される。
出力生成部205は、ユーザ確信度データ及びAPI出力のデータに基づき、ユーザに対する応答文章(システム応答)を生成し、その音声データに応じた応答音声を出力する。ただし、ここでは、システム応答を生成するに際して、ユーザの確信度に応じて、応答文章に含める情報量が制御(調整)される。
例えば、ユーザの確信度を示す値が、所定の閾値を超える場合に、ユーザの確信度が高いと判断し、より簡潔なシステム応答を生成する。これにより、ユーザが欲しい情報だけを提示することができる。一方で、例えば、ユーザの確信度を示す値が、所定の閾値以下となる場合に、ユーザの確信度が低いと判断し、より詳細な情報を含むシステム応答を生成する。これにより、ユーザに対し、1回の対話で欲しい情報を適切に提示することができる。
音声対話システム2は、以上のように構成される。
ところで、音声対話システム2により提供される音声対話サービスは、例えば、音声認識処理や自然言語処理などの処理を組み合わせて、話し言葉による問いかけや要求に対し、適切に回答したり、動作したりするサービスが含まれる。
このような音声対話サービスを実現するために、音声対話システム2は、例えば、図3に示すような構成とすることができる。すなわち、音声対話システム2は、クライアント側に設置され、音声対話サービスのユーザインターフェースとして機能する音声処理装置10と、データセンタ等のサーバ側に設置され、音声対話機能を実現するための処理を行うサーバ20とから構成されるようにすることができる。
音声対話システム2において、音声処理装置10とサーバ20とは、インターネット30を介して相互に接続されている。
音声処理装置10は、例えば、家庭内LAN(Local Area Network)等のネットワークに接続可能なスピーカであって、いわゆるスマートスピーカなどとも称される。この種のスピーカは、音楽の再生のほか、例えば、照明器具や空調設備などの機器に対する音声操作などを行うことができる。
なお、音声処理装置10は、スピーカに限らず、例えば、スマートフォンや携帯電話機等のモバイル機器や、タブレット型のコンピュータなどとして構成されるようにしてもよい。
音声処理装置10は、インターネット30を介してサーバ20と連携することで、ユーザに対し、音声対話サービス(のユーザインターフェース)を提供することができる。
すなわち、音声処理装置10は、ユーザから発せられた音声(ユーザ発話)を収音し、その音声データを、インターネット30を介して、サーバ20に送信する。また、音声処理装置10は、インターネットを介してサーバ20から送信されてくる処理データを受信し、その処理データに応じた音声を出力する。
サーバ20は、クラウドベースの音声対話サービスを提供するサーバである。サーバ20は、インターネット30を介して音声処理装置10から送信されてくる音声データを、テキストデータに変換するための音声認識処理を行う。また、サーバ20は、テキストデータに対し、ユーザの意図に応じた対話処理などの処理を行い、その処理の結果得られる処理データを、インターネット30を介して音声処理装置10に送信する。
(音声処理装置の構成)
図4は、図3の音声処理装置10の構成例を示すブロック図である。
図4において、音声処理装置10は、処理部51、マイクロフォン52、スピーカ53、センサ54、及び通信I/F55を含んで構成される。
処理部51は、例えば、CPU(Central Processing Unit)やマイクロプロセッサ等から構成される。処理部51は、各種の演算処理や、各部の動作制御など、音声処理装置10における中心的な処理装置として動作する。
マイクロフォン52は、外部からの音を、電気信号に変換する機器(収音器)である。マイクロフォン52は、変換で得られる音声信号を、処理部51に供給する。
スピーカ53は、電気信号を物理振動に変えて音を出す機器である。スピーカ53は、処理部51から供給される音声信号に応じた音を出力する。
センサ54は、各種のセンサから構成される。センサ54は、センシングを行い、センシング結果に応じたセンサ情報(センサデータ)を、処理部51に供給する。
例えば、センサ54としては、被写体を撮像するイメージセンサ、磁場(磁界)の大きさや方向を検出する磁気センサ、加速度を検出する加速度センサ、角度(姿勢)や角速度、角加速度を検出するジャイロセンサ、近接するものを検出する近接センサ、あるいは、指紋や虹彩、脈拍などの生体情報を検出する生体センサなど、各種のセンサを含めることができる。
また、センサ54には、温度を検出する温度センサや、湿度を検出する湿度センサ、周囲の明るさを検出する環境光センサなどの周囲の環境を測定するためのセンサを含めることができる。なお、センサデータには、GPS(Global Positioning System)信号などから算出される位置情報(位置データ)や、計時手段により計時された時刻情報などの情報を含めるようにしてもよい。
通信I/F55は、例えば、通信インターフェース回路等から構成される。通信I/F55は、処理部51からの制御に従い、インターネット30に接続されたサーバ20にアクセスして、各種のデータをやりとりする。
ここで、例えば、処理部51は、音声対話システム2(図2)を構成する音声認識部201乃至出力生成部205により提供される機能のうち、音声認識部201に対し、ユーザ発話データを入力するための機能と、システム応答(の音声データ)に応じた応答音声を出力するための機能を有している。
すなわち、処理部51は、マイクロフォン52から供給される音声信号を処理し、その結果得られる音声データを、通信I/F55に供給する。これにより、ユーザ発話データ(音声データ)が、インターネット30を介してサーバ20に送信され、音声認識部201に入力される。また、処理部51は、センサデータを、通信I/F55に供給して、インターネット30を介してサーバ20に送信することができる。
また、処理部51は、通信I/F55から供給される音声データを処理し、その結果得られる音声信号を、スピーカ53に供給する。これにより、スピーカ53からは、システム応答(の音声データ)に応じた応答音声が出力される。
なお、図4には図示していないが、音声処理装置10には、各種の情報(例えば文字や画像等)を表示するための表示部、ユーザからの操作を受け付ける入力部、又は各種のデータ(例えば音声データやテキストデータ等)を記憶する記憶部などをさらに設けるようにしてもよい。
ここで、表示部は、例えば、液晶ディスプレイや有機ELディスプレイ等から構成される。入力部は、例えば、ボタンやキーボード等から構成される。また、入力部は、タッチセンサと表示部とが一体化されたタッチパネルとして構成され、ユーザの指やタッチペン(スタイラスペン)による操作に応じた操作信号が得られるようにしてもよい。記憶部は、例えば、不揮発性メモリの一種であるフラッシュメモリ(Flash Memory)や、揮発性メモリの一種であるDRAM(Dynamic Random Access Memory)などから構成される。
(サーバの構成)
図5は、図3のサーバ20の構成例を示すブロック図である。
図5において、サーバ20は、処理部71、通信I/F72、及びデータベース73を含んで構成される。
処理部71は、例えば、CPUやマイクロプロセッサ等から構成される。処理部71は、各種の演算処理や、各部の動作制御など、サーバ20における中心的な処理装置として動作する。
通信I/F72は、例えば、通信インターフェース回路等から構成される。通信I/F72は、処理部71からの制御に従い、インターネット30を介して接続される音声処理装置10との間で、各種のデータをやりとりする。
データベース73は、例えば、ハードディスク(HDD:Hard Disk Drive)や半導体メモリ、光ディスク等の大容量の記録装置として構成される。
例えば、データベース73には、音声認識処理を行うための音声認識用データベースや、対話処理を行うための対話履歴データベースなどが含まれる。なお、音声認識用データベースや対話履歴データベースは、データベースの一例であって、音声対話サービスを実現するために必要となるデータベース(例えば、知識データベースや発話データベース等)を含めることができる。
ここで、例えば、処理部71は、音声対話システム2(図2)を構成する音声認識部201乃至出力生成部205により提供される機能のうち、音声認識部201、ユーザ意図及び確信度分析部202、対話制御部203、APIコール部204、及び出力生成部205の一部の機能を有している。
すなわち、処理部71は、データベース73に含まれる音声認識用データベースを参照して、インターネット30を介して音声処理装置10から送信されてくるユーザ発話データ(音声データ)を、発話テキスト(テキストデータ)に変換するための音声認識処理を行う。
また、処理部71は、音声認識処理で得られる発話テキストを用い、ユーザの意図に応じた対話処理を行う際に、ユーザが欲しい情報に対してのユーザ自身の確信度を推定し、その結果に応じて応答生成に含める情報量を制御(調整)する処理を行う。これにより、ユーザに対する応答文章として、適切な情報量からなるシステム応答が生成され、処理データとして、インターネット30を介して、音声処理装置10に送信される。
なお、説明の都合上、図3の音声対話システム2においては、1台の音声処理装置10が設けられる場合を図示しているが、例えば、ユーザごとに、複数の音声処理装置10を設けることができる。
また、図3の音声対話システム2では、1台のサーバ20が設けられる場合を図示しているが、例えば、機能(モジュール)ごとに、複数のサーバ20を設けることができる。より具体的には、例えば、音声認識部201に対応した音声認識モジュールを有するサーバ20や、対話制御部203に対応した対話制御モジュールを有するサーバ20などを、個別のサーバ20として設けることができる。
<2.本技術の実施の形態>
(1)第1の実施の形態
次に、音声対話システム2により提供される音声対話サービスの具体例について説明する。ここでは、スケジュールチェックを実行するための音声対話を一例として述べる。その前提として、図6に示した予定が、ユーザによって既に登録されているものとする。
図6においては、タイトル、日時、場所、及び対象者により特定される予定として、2つの予定が登録されている。すなわち、1つ目のレコードには、父親(パパ)の予定として、2017年3月23日 10時に、大会議室での会議が登録されている。また、2つ目のレコードには、パパの予定として、2017年3月23日 17時に、渋谷での買い物の予定が登録されている。
なお、これらの予定の情報は、スケジュールデータベース(以下、スケジュールDBと記述する)に格納された情報として、サーバ20のデータベース73(図5)に登録されているものとする。
ここで、音声対話システム2に対し、ユーザが発話をしているのは、2017年3月22日であるものとする。したがって、図6に示した予定は、ユーザ及び音声対話システム2にとって、明日の予定として登録されている。
また、音声対話システム2において、スケジュールチェックを実行するためのAPI(Application Programming Interface)は、例えば、次に示す4つの引数を持つものとする。
スケジュールAPI(pram1, pram2, pram3, pram4)
第1引数:タイトル
第2引数:日時
第3引数:場所
第4引数:対象者
以下の具体例では、このようなスケジュールDBとスケジュールAPIを有する音声対話システム2に対し、ユーザは、既に登録されている予定の確認を行う意図で、対話を行うものとする。ただし、以下の具体例では、比較のために、一般的な音声対話システム1(図1)についても適宜説明するものとする。
(1−1)ユーザの確信度が高い場合
ここでは、ユーザは、自分自身の予定として明日の10時に会議があることを知っているが、それが正しいかどうかだけを確認したい場合を想定する。この場合において、ユーザは、例えば、「明日の10時は会議の予定だよね。」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は、「スケジュールチェック」であり、その引数は、「タイトル = "会議"」、及び「日時 = "2017年3月23日 10時"」であると推定し、スケジュールチェックを行うスケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、そのAPI出力として、スケジュールDBに登録済みの予定の中に、「タイトル = "会議"」、「日時 = "2017年3月23日 10時"」、及び「場所 = "大会議室"」を含むレコードが1件存在することが得られる。
そして、システム応答としては、例えば、「明日の10時から会議の予定が1件あります。場所は大会議室です。」が得られる。
しかしながら、このとき、ユーザ自身は、明日の10時に会議の予定があることは知っており、それが正しいかどうかの確認をしたかっただけであるが、ここで得られたシステム応答は、ユーザが既に知っている情報をオウム返ししたものになっており、ユーザにとっては不要な情報が多くを占めている。
そのため、本来、簡潔な応答さえあれば済むコミュニケーションが、情報量の多い応答を聞くことになってしまい、対話のテンポ、すなわち、コミュニケーションのスムーズさが失われてしまっている。
それに対し、本技術を適用した音声対話システム2(図2)では、ユーザの発話から得られる情報に基づき、ユーザ自身が欲しい情報(所望の情報)に対してどの程度確信しているか(確信度)を推定し、その結果に応じて応答の情報量を制御(調整)するようにする。
上述した例では、「明日の10時は会議の予定だよね。」の発話において、「タイトル = "会議"」及び「日時 = "2017年3月23日 10時"」が明確に示されていること、またそれらの情報に対して「多分」や「確か」などのような曖昧さを示す言葉も含まれていないことから、その予定のタイトル及び日時に対する確信度は高いものと推定することができる。
よって、既にユーザが知っている情報(確信度の高い情報)を省いて、例えば「はい、そうです。」のような簡潔なシステム応答にすることで、ユーザが欲しい情報だけを提供することができるため、テンポの良い対話を続けることが可能となる。
なお、上述した例では、発話中に場所を示す内容が含まれていないが、タイトル及び日時についての確信度が高いことや、自分自身の予定であり、場所については既に把握しているものと推定することができることなどから、システム応答中に、場所の情報を含めなくても構わない。
このようなユーザの確信度が高い場合に、図2の音声対話システム2で実行される処理の内容は、例えば、次のようになる。
すなわち、「明日の10時は会議の予定だよね。」であるユーザ発話データが、音声処理装置10(図3)により収音され、音声認識部201に入力される。音声認識部201では、音声認識処理が行われ、ユーザ発話データが、発話テキストデータに変換される。
このようにして得られる発話テキストデータに対し、ユーザ意図分析部211により解析処理が行われることで、ユーザの意図の候補が得られる。また、発話テキストデータに対し、ユーザ確信度推定部212により解析処理が行われることで、ユーザの確信度が得られる。ここでは、予定のタイトルや日時が正確に示されていること、またそれらの情報に対して曖昧さを示す言葉も含まれていないことから、予定のタイトルや日時に対する確信度は高いものと推定される。
対話制御部203では、ユーザ意図候補データや対話履歴データベースなどに基づき、現在の対話の状態が推定され、コールすべきAPI及びその引数が決定される。ここでは、ユーザ発話データに応じて、スケジュールチェックを行うスケジュールAPIと、その引数として、「タイトル = "会議"」、及び「日時 = "2017年3月23日 10時"」が決定されるので、APIコール部204では、コールすべきスケジュールAPIにその引数(タイトル、日時)を渡して実行する。
出力生成部205では、API出力として、スケジュールDBに登録済みの予定の中に、該当するレコードが1件存在することが得られるが、ユーザの確信度として、予定のタイトルや日時に対する確信度が高いと推定されているため、より簡潔なシステム応答が生成される。
ここで、ユーザの確信度とシステム応答の情報量との間には、例えば、図7に示すような関係を有している。図7においては、横軸をユーザの確信度とし、縦軸をシステム応答の情報量(応答情報量)としたときのユーザの確信度と応答情報量との関係を、関数f1により表している。
図7において、関数f1は、ユーザの確信度が低いほど、応答情報量が大きくなる一方で、ユーザの確信度が高いほど、応答情報量が小さくなる、負の比例の関係を有している。ここでは、例えば、75であるスコア以上が高い確信度となり、25であるスコア未満が低い確信度となり、25であるスコア以上で、かつ、75であるスコア未満が中程度の確信度となるように、閾値(Th1,Th2)が設定されているものとする。
このとき、例えば、85である確信度のスコアが算出されたとき、予定のタイトルや日時の確信度が高いと推定され、簡潔なシステム応答として、確信度の高い情報が省かれた、「はい、そうです。」のような応答が出力されることになる。
(1−2)ユーザの確信度が中程度の場合
ここでは、ユーザは、明日に何かの予定があることは把握しているが、その日時については曖昧な場合を想定する。この場合において、ユーザは、例えば、「確か明日だったと思うけど、会議の予定があったっけ?」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は、「スケジュールチェック」であり、その引数は、「タイトル = "会議"」、及び「日時 = "2017年3月23日」であると推定し、スケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、そのAPI出力として、スケジュールDBに登録済みの予定の中に、「タイトル = "会議"」、「日時 = "2017年3月23日 10時"」、及び「場所 = "大会議室"」を含むレコードが1件存在することが得られる。
そして、システム応答としては、例えば、「明日の10時から会議の予定が1件あります。場所は大会議室です。」が得られる。なお、一般的な音声対話システム1(図1)において、このシステム応答は、先の別の例で述べた「明日の10時は会議の予定だよね。」である発話に対する応答と同様の内容になっている。
しかしながら、このとき、ユーザ自身は会議が行われるのが、明日だったかどうかの確認ができればよいのであって、すべての細かい情報を求めているわけではない。よって、一般的な音声対話システム1(図1)で得られるシステム応答では、応答が情報過多であり、コミュニケーションのテンポが落ちてしまう。
それに対し、本技術を適用した音声対話システム2(図2)では、「確か明日だったと思う」であるユーザ発話データから、日時は「明日」であるが、時刻情報が含まれていないことや、「確か」という文言で修飾されていることなどによって、日時に対する確信度が、中程度であると推定することができる。また、タイトルについては、「会議」と明確に発話していることにより、確信度は高いものと推定することができる。
よって、確信度の高いタイトルについては省き、確信度が中程度の日時については、より詳細まで含めた「はい。明日の10時になります。」のようなシンプルなシステム応答を生成することができる。
このようなユーザの確信度が中程度の場合に、図2の音声対話システム2で実行される処理の内容は、例えば、次のようになる。
すなわち、ユーザ確信度推定部212によって、「確か明日だったと思うけど、会議の予定があったっけ?」である発話テキストデータに対し、解析処理が行われることで、ユーザの確信度が得られる。ここでは、予定の日時については、時刻情報が含まれていないことや、曖昧さを示す言葉で修飾されていることなどから、確信度は、中程度であると推定される。また、予定のタイトルについては、正確に示されていることから、確信度は高いものと推定される。
そして、出力生成部205では、API出力として、スケジュールDBに登録済みの予定の中に、該当するレコードが1件存在することが得られるが、ユーザの確信度として、予定のタイトルに対する確信度は高いが、予定の日時に対する確信度は中程度であると推定されているため、確信度が中程度の日時については、詳細な情報を含めたシンプルなシステム応答が生成される。
ここでは、例えば、ユーザの確信度とシステム応答の情報量との間に、図7に示した関数f1のような関係がある場合に、例えば70である確信度のスコアが算出されたとき、予定の日時に対する確信度は中程度であると推定され、シンプルなシステム応答として、確信度が中程度の予定の日時に関する詳細な情報を含めた、「はい。明日の10時になります。」のような応答が出力されることになる。
(1−3)ユーザの確信度が低い場合
ここでは、ユーザは、明日に予定があるかどうかを把握していない場合を想定する。この場合において、ユーザは、例えば、「明日、何か予定がある?」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は、「スケジュールチェック」であり、その引数は、「日時 = "2017年3月23日"」であると推定し、スケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、そのAPI出力として、スケジュールDBに登録済みの予定の中に、「タイトル = "会議"」、「日時 = "2017年3月23日 10時"」、及び「場所 = "大会議室"」を含むレコードと、「タイトル = "買い物"」、「日時 = "2017年3月23日 17時"」、及び「場所 = "渋谷"」を含むレコードとの2件のレコードが存在することが得られる。
そして、システム応答としては、例えば、「明日は、10時に大会議室にて会議の予定が、17時に渋谷にて買い物の予定があります。」が得られる。
それに対し、本技術を適用した音声対話システム2(図2)では、予定のタイトルに関する情報が、ユーザの発話中に含まれず、「何か」と具体的な指定を含まずに聞いていることにより、タイトルに関する確信度は低いと推定することができる。また、日時については、「明日」との指定があるが、時刻の指定はないことから、確信度は中程度であると推定することができる。
よって、例えば、「明日は、10時に会議の予定が、17時に買い物の予定があります。」のように、タイトル及び日時についての詳細を含めたシステム応答を生成することができる。このように、確信度が低い場合については、情報を多めに出すことにより、ユーザは、1回の対話で、欲しい情報を適切に得ることが可能となり、余計な対話を追加する必要がないため、テンポの良い対話を行うことができる。
このようなユーザの確信度が低い場合に、図2の音声対話システム2で実行される処理の内容は、例えば、次のようになる。
すなわち、ユーザ確信度推定部212によって、「明日、何か予定がある?」である発話テキストデータに対し、解析処理が行われることで、ユーザの確信度が得られる。ここでは、予定のタイトルについては、具体的な指定が含まれていないため、確信度は低いと推定される。また、予定の日時については、時刻情報が含まれていないことから、確信度は、中程度であると推定される。
そして、出力生成部205では、API出力として、スケジュールDBに登録済みの予定の中に、該当する2件のレコードが存在することが得られるが、ユーザの確信度として、予定のタイトルに対する確信度は低く、予定の日時に対する確信度は中程度であると推定されるため、確信度が低いタイトルについては、より詳細な情報を含めたシステム応答が生成される。
ここでは、例えば、ユーザの確信度とシステム応答の情報量との間に、図7に示した関数f1のような関係がある場合に、例えば17である確信度のスコアが算出されたとき、予定のタイトルに対する確信度は低いと推定され、詳細なシステム応答として、確信度が低い予定のタイトルに関するより詳細な情報を含めた、「明日は、10時に会議の予定が、17時に買い物の予定があります。」のような応答が出力されることになる。
(1−4)ユーザの確信度は高いように見えるが、事実として間違っている場合
ここでは、ユーザが確信している内容に間違いがある場合を想定する。この場合において、ユーザは、例えば、「明後日の10時に会議の予定だよね。」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は、「スケジュールチェック」であり、その引数は「タイトル = "会議"」、及び「日時 = "2017年3月24日 10時"」であると推定し、スケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、スケジュールDBに登録済みの予定の中には、そのような内容を含むレコードは存在しないため、そのAPI出力として、予定が0件であることが得られる。そして、システム応答としては、例えば、「そのような予定はありません。」が得られる。
それに対し、本技術を適用した音声対話システム2(図2)では、上述した(1−1)の「ユーザの確信度が高い場合」と同様に、「タイトル = "会議"」及び「日時 = "2017年3月24日 10時"」が明確に示されていること、またそれらの情報に対して「多分」や「確か」などのような曖昧さを示す言葉も含まれていないことから、その予定のタイトル及び日時に対する確信度は高いものと推定することができる。
また、ここでは、指定された予定のタイトル及び日時を引数としたスケジュールAPIを実行することで得られるAPI出力が、予定0件であることから、ユーザの日時に対する確信度が間違いであったことを推定することができる。
よって、「いいえ、明日の10時です。」のように、正しい情報を付加してシステム応答を生成することができる。これにより、ユーザから改めて、正しい情報を確認する発話をすることなく、一度の対話で欲しい情報を得ることができる。
(1−5)事実として間違っている場合に、複数の選択肢があるとき
上述した(1−4)では、「明後日の10時に会議の予定だよね。」である発話に対し、「いいえ、明日の10時です。」であるシステム応答が生成される例を示したが、ユーザによっては、スケジュールDBに、複数の会議の予定が登録されている可能性があり、正しい情報を付加することが困難な場合も想定される。
そのような場合には、例えば、ユーザ側の音声処理装置10で、カレンダのアプリケーションを起動して、登録済みの複数の会議の予定を、月単位や週単位で提示されるようにすることができる。このとき、登録済みのすべての予定が提示されるようにするほか、例えば、発話に含まれる「明後日」の近傍の予定だけを提示してもよい。
これにより、ユーザは、カレンダの提示内容を確認して、自身の発話の内容が間違っていたことだけでなく、例えば、他の会議の予定と勘違いしていたことや、明後日の10時の会議の予定の登録自体を忘れていたことなどを認識することができる。このとき、ユーザの傾向(例えば、あるユーザは、予定の登録を忘れることが多いなど)を学習して、次のカレンダの提示内容に反映させるようにしてもよい。
なお、上述した(1−1)の確信度が高い場合や、(1−2)の確信度が中程度の場合に、より簡潔なシステム応答が出力される場合を示したが、テンポの良い対話が行われるのであれば、システム応答の情報量を増やすようにしてもよい。例えば、上述した(1−1)のシステム応答として、例えば、「はい、そうです。」だけでなく、「はい、そうです。明日の10時から会議があります。」のように、後段の応答を加えて、より詳細なシステム応答が出力されるようにしてもよい。
(2)第2の実施の形態
上述した第1の実施の形態では、予定の対象者と、対話を通じて予定を確認しているユーザとが、同一の人物である場合について述べたが、次に、第2の実施の形態として、それらの人物が異なる場合について述べる。
(本技術の音声対話システムの構成)
図8は、本技術を適用した音声対話システムの他の構成例を示すブロック図である。
図8において、音声対話システム3は、音声認識部301、ユーザ意図及び確信度分析部302、対話制御部303、APIコール部304、出力生成部305、及び話者認識部306を含んで構成される。
図8において、音声認識部301乃至出力生成部305は、図2に示した音声認識部201乃至出力生成部205と同様に構成される。すなわち、図8の音声対話システム3は、図2の音声対話システム2と比べて、ユーザ意図及び確信度分析部302の前段に、話者認識部306が追加されている点が異なっている。
話者認識部306は、話者認識用のデータベースを参照して、そこに入力されるユーザ発話データを解析することで、話者を認識する。話者認識部306は、認識された話者に割り当てられたユーザIDを特定し、ユーザ意図及び確信度分析部302に供給する。
なお、話者認識用のデータベースには、例えば、話者ごとに、発話データとユーザIDとを対応付けた情報が、あらかじめ登録されている。また、ここでは、話者認識部306が、ユーザ発話データに基づき、話者を識別する場合を例示したが、話者を識別するために用いられるデータは、ユーザ発話データに限らず、例えば、センサ54により撮像された被写体の画像データなどが用いられるようにしてもよい。
対話制御部303には、ユーザ意図及び確信度分析部302から、ユーザID、ユーザ意図候補データ、及びユーザ確信度データが供給される。対話制御部303は、ユーザ意図候補データ、及び対話履歴のデータベースなどに基づき、現在の対話の状態を推定し、コールすべきAPI及びその引数を決定する。対話制御部303は、決定されたAPI及び引数データを、APIコール部304に供給する。
また、対話制御部303は、ユーザ確信度データを、出力生成部305に供給する。ここでは、例えば、ユーザIDを用いることで、発話したユーザと、予定の対象者が異なることが認識されるため、対話制御部303は、出力生成部305に対し、ユーザ確信度データとして、他人の予定の確信度データを渡すことになる。
出力生成部305は、ユーザ確信度データ及びAPI出力のデータに基づき、ユーザに対する応答文章(システム応答)を生成し、その音声データに応じた応答音声を出力する。ここでは、他人の予定の確信度に応じて、システム応答の情報量が制御(調整)されるが、対話を通じて予定を確認している人物が異なるため、自分の予定の場合と比べて、応答情報量を増やすことができる。
次に、音声対話システム3により提供される音声対話サービスの具体例について説明する。ここでは、ある家族が、1つのスケジューラを共有して使用するケースを想定し、スケジュールDBには、図9に示した予定が、ユーザによって既に登録されているものとする。また、父親(パパ)が、母親(ママ)の予定を確認する対話を想定する。
図9においては、タイトル、日時、場所、及び対象者により特定される予定として、5つの予定が登録されている。すなわち、1つ目のレコードには、パパの予定として、2017年3月23日 10時に、大会議室での会議が登録されている。また、2つ目のレコードには、ママの予定として、2017年3月23日 10時に、新宿での買い物が登録されている。
また、3つ目のレコードには、パパの予定として、2017年3月23日 15時に、代々木での歯医者が登録されている。さらに、4つ目のレコードには、パパの予定として、2017年3月23日 17時に、渋谷での買い物が登録されている。また、5つ目のレコードには、ママの予定として、2017年3月23日 17時に、原宿での同窓会が登録されている。
以下の具体例では、このようなスケジュールDBとスケジュールAPIを有する音声対話システム3に対し、ユーザは、既に登録されている予定の確認を行う意図で、対話を行うものとする。ただし、以下の具体例においても、比較のために、一般的な音声対話システム1(図1)についても適宜説明するものとする。
(2−1)他人の予定についてのユーザ自身の確信度が高い場合
ここでは、ユーザ(パパ)は、ママの同窓会の予定が、明日の17時にあることは知っているが、それが正しいかどうかを確認したい場合を想定する。この場合において、ユーザ(パパ)は、例えば、「ママは、明日の17時に同窓会があるよね。」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は「スケジュールチェック」であり、その引数は、「タイトル = "同窓会"」、「日時 = "2017年3月23日 17時"」、及び「対象者 = "ママ"」であると推定し、スケジュールチェックを行うスケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、そのAPI出力として、スケジュールDBに登録済みの予定の中に、「タイトル = "同窓会"」、「日時 = "2017年3月23日 17時"」、「対象者 = "ママ"」、及び「場所 = "原宿"」を含むレコードが1件存在することが得られる。
そして、システム応答としては、例えば、「明日の17時に同窓会の予定が原宿であります。」が得られる。
それに対し、本技術を適用した音声対話システム3(図8)では、ユーザの発話から得られる情報に基づき、ユーザ自身が欲しい情報(所望の情報)に対してどの程度確信しているか(確信度)を推定し、その結果に応じて応答の情報量を制御(調整)する。
上述した例では、ユーザの発話により、予定のタイトルや日時、対象者が明確に示されていることや、それらを形容する言葉の中に、「多分」や「確か」などのような曖昧さを示すものも含まれていないため、それらの確信度は高いものと推定される。
よって、例えば、「はい。そうです。」などのような簡潔なシステム応答を生成して出力することで、テンポの良い対話をすることが可能となる。
ただし、予定の場所については、その発話がなかったため、場所についての確信度が高いと判断することはできない。この例では、特に、発話したユーザ(パパ)と、予定の対象者(ママ)とが異なるため、あらかじめ場所について知っていることを前提とするのは、難しいと考えられる。
よって、例えば、「はい、あります。場所は原宿です。」などのように、システム応答に、場所情報を追加することが望ましい。
このような、他人の予定についてのユーザ自身の確信度が高い場合に、図8の音声対話システム3で実行される処理の内容は、例えば、次のようになる。
すなわち、ユーザ確信度推定部312によって、「ママは、明日の17時に同窓会があるよね。」である発話テキストデータに対し、解析処理が行われることで、他人の予定についてのユーザの確信度が得られる。ここでは、予定のタイトルや日時、対象者が明確に示されていることや、曖昧さを示す言葉が含まれていないことなどから、それらの確信度は高いと推定される。
そして、出力生成部305では、API出力として、スケジュールDBに登録済みの予定の中に、該当するレコードが1件存在することが得られるが、他人の予定についてのユーザの確信度として、予定のタイトルや日時、対象者に対する確信度は高いと推定されているため、より簡潔なシステム応答が生成される。
ここでは、例えば、ユーザの確信度とシステム応答の情報量との間には、例えば、図10に示すような関係を有している。図10においては、図7と同様に、横軸をユーザの確信度とし、縦軸をシステム応答の情報量としたときの関係を表しているが、自分の予定の場合の関係を関数f1により表すとともに、他人の予定の場合の関係を関数f2により表している。
すなわち、図10において、関数f1と関数f2は、同一の傾きを有し、ユーザの確信度が低いほど、応答情報量が大きくなる一方で、ユーザの確信度が高いほど、応答情報量が小さくなる、負の比例の関係を有している点で共通するが、切片が異なっており、同じ確信度であれば、関数f1よりも、関数f2のほうが、応答情報量が大きくなる。
換言すれば、自分の予定と比べて、他人の予定は、把握していないことが多いので、同じ確信度でも、自分の予定と他人の予定とで、応答情報量を変えているのである。
ここでは、例えば、75であるスコア以上が高い確信度となり、25であるスコア未満が低い確信度となり、25であるスコア以上で、かつ、75であるスコア未満が中程度の確信度となるように、閾値(Th1,Th2)が設定されているものとする。
このとき、例えば、90である確信度のスコアが算出されたとき、予定のタイトルや日時、対象者に対する確信度は高いと推定され、簡潔なシステム応答として、「はい。そうです。」のような応答を出力することができるが、他人の予定であるから、場所情報などを追加して、例えば、「はい、あります。場所は原宿です。」のように、応答情報量を増やすことが望ましい。
(2−2)他人の予定についてのユーザ自身の確信度が中程度の場合
ここでは、ユーザ(パパ)は、明日、何かママの予定があることは把握しているが、その日時や内容については曖昧である場合を想定する。この場合において、ユーザ(パパ)は、例えば、「確か明日だったと思うけど、ママは買い物に行くんだっけ?」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は「スケジュールチェック」であり、その引数は、「タイトル = "買い物"」、「日時 = "2017年3月23日"」、及び「対象者 = "ママ"」であると推定し、スケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、そのAPI出力として、スケジュールDBに登録済みの予定の中に、「タイトル = "買い物"」、「日時 = "2017年3月23日 10時"」、「場所 = "新宿"」、及び「対象者 = "ママ"」を含むレコードが1件存在することが得られる。
そして、システム応答としては、例えば、「明日の10時に新宿で買い物の予定が1件あります。」が得られる。
それに対し、本技術を適用した音声対話システム3(図8)では、ユーザの発話に、時刻情報がなく、さらに「明日」が、「確か」により修飾されているため、日時の確信度は低く、また、ユーザの発話に、「行くんだっけ?」の表現が含まれることから、タイトルに対する確信度は、中程度であると推定することができる。また、場所に対する発話もないため、その確信度も低いと推定することができる。
よって、例えば、「明日の10時に新宿に買い物に行く予定があります。」のように、確信度の低い情報を含めた応答を返すことができる。これにより、ユーザは、欲しい情報が一度に得られ、スムーズなコミュニケーションを実現することができる。
このような、他人の予定についてのユーザ自身の確信度が中程度の場合に、図8の音声対話システム3で実行される処理の内容は、例えば、次のようになる。
すなわち、ユーザ確信度推定部312によって、「確か明日だったと思うけど、ママは買い物に行くんだっけ?」である発話テキストデータに対し、解析処理が行われることで、他人の予定についてのユーザの確信度が得られる。ここでは、予定の日時については、時刻情報が含まれていないことや、曖昧さを示す言葉で修飾されていることなどから、日時に対する確信度は低く、さらに、ユーザの発話に含まれる表現から、タイトルに対する確信度は、中程度であると推定される。
そして、出力生成部305では、API出力として、スケジュールDBに登録済みの予定の中に、該当するレコードが1件存在することが得られるが、他人の予定についてのユーザの確信度として、予定の日時に対する確信度は低く、予定のタイトルに対する確信度は、中程度であると推定されているため、確信度が中程度のタイトルと、確信度が低い日時については、詳細な情報を含めたシステム応答が生成される。
ここでは、他人の予定についてのユーザの確信度とシステム応答の情報量との間に、図10に示した関数f2のような関係がある場合に、例えば60である確信度のスコアが算出されたとき、予定のタイトルに対する確信度は、中程度であると推定され、確信度が中程度の予定のタイトルに関する詳細な情報を含めた、「明日の10時に新宿に買い物に行く予定があります。」のような応答が出力されることになる。ただし、ここでは、他人の予定であるから、「新宿」である場所情報を追加して、応答情報量を増やしている。
(2−3)他人の予定についてのユーザ自身の確信度が低い場合
ここでは、ユーザ(パパ)が、ママの予定を把握していない場合を想定する。この場合において、ユーザは、例えば、「明日、ママは何か予定はあるかな?」と発話したものとする。
このとき、一般的な音声対話システム1(図1)では、ユーザの意図は、「スケジュールチェック」であり、その引数は、「日時 = "2017年3月23日"」、及び「対象者 = "ママ"」であると推定し、スケジュールAPIに対し、それらの引数を渡すことになる。
このスケジュールAPIが実行されると、そのAPI出力として、スケジュールDBに登録済みの予定の中に、「タイトル = "買い物"」、「日時 = "2017年3月23日 10時"」、「場所 = "新宿"」、及び「対象者 = "ママ"」を含むレコードと、「タイトル = "同窓会"」、「日時 = "2017年3月23日 17時"」、「場所 = "原宿"」、及び「対象者 = "ママ"」を含むレコードとの2件のレコードが存在することが得られる。
そして、システム応答としては、例えば、「明日の10時に新宿で買い物の予定が1件、17時に原宿で同窓会の予定が1件あります。」が得られる。
それに対し、本技術を適用した音声対話システム3(図8)では、予定のタイトル、日時、及び場所に対する確信度が低いものと推定することができる。
よって、例えば、「明日の10時に新宿で買い物の予定が1件、17時に原宿で同窓会の予定が1件ありますよ。」のように、ユーザの確信度が低い情報に対して、具体的な情報を提示することで、ユーザは欲しい情報を一度に得ることができるため、スムーズなコミュニケーションを実現することが可能となる。
このような他人の予定についてのユーザ自身の確信度が低い場合に、図8の音声対話システム3で実行される処理の内容は、例えば、次のようになる。
すなわち、ユーザ確信度推定部312によって、「明日、ママは何か予定はあるかな?」である発話テキストデータに対し、解析処理が行われることで、他人の予定についてのユーザの確信度が得られる。ここでは、予定のタイトル、日時、及び場所に対する確信度が低いものと推定される。
そして、出力生成部305では、API出力として、スケジュールDBに登録済みの予定の中に、該当する2件のレコードが存在することが得られるが、他人の予定についてのユーザの確信度として、予定のタイトル、日時、及び場所に対する確信度は低いと推定されているため、より詳細な情報を含めたシステム応答が生成される。
ここでは、他人の予定についてのユーザの確信度とシステム応答の情報量との間に、図10に示した関数f2のような関係がある場合に、例えば21である確信度のスコアが算出されたとき、予定のタイトル、日時、及び場所に対する確信度は低いと推定され、より詳細な情報を含めた、「明日の10時に新宿で買い物の予定が1件、17時に原宿で同窓会の予定が1件ありますよ。」のような応答が出力されることになる。
なお、ここで挙げた2つの例((2−2)と(2−3)の場合)では、一般的な音声対話システム1(図1)と、本技術を適用した音声対話システム3(図8)とで、システム応答に、大きな差異はない。これは、他人の予定であることによって、場所情報に対する暗黙の確信が得られないため、ユーザの確信度のランクが必然的に下がって、本来、情報を多めに出力する一般的な手法と、ユーザの確信度に応じて情報量を調整する本技術の手法とで、その出力情報量が同じになったためである。
なお、このような、自分の予定に比べて、他人の予定の場合には、ユーザの確信度のランクが下がるために、応答情報量を増やすことは、図10に示した関数f1と関数f2との関係からも明らかである。
(3)第3の実施の形態
以上で述べたように、確信度の推定の手法については、ユーザの発話中に、対象情報が明確に含まれるか、曖昧さを示す言葉による修飾が行われているか、あるいは、発話したユーザ自身の情報か否か、といった指標を用いることができる。
一方で、ユーザの意図と確信度との関係を、その事例に基づき、学習して獲得することもできる。すなわち、発話テキストだけでなく、例えば、その他の音声情報やジェスチャ、視線、顔の表情などを利用することができる。
(本技術の音声対話システムの構成)
図11は、本技術を適用した音声対話システムの他の構成例を示すブロック図である。
図11において、音声対話システム4は、音声認識部401、ユーザ意図及び確信度分析部402、対話制御部403、APIコール部404、出力生成部405、話者認識部406、ジェスチャ認識部407、視線認識部408、顔向き認識部409、及びユーザ位置認識部410を含んで構成される。
図11において、音声認識部401乃至出力生成部405は、図2に示した音声認識部201乃至出力生成部205と同様に構成される。また、話者認識部406は、図8に示した話者認識部306と同様に構成される。
すなわち、図11の音声対話システム4は、図2の音声対話システム2及び図8の音声対話システム3と比べて、ユーザ意図及び確信度分析部402の前段に、ジェスチャ認識部407、視線認識部408、顔向き認識部409、及びユーザ位置認識部410が追加されている点が異なっている。
なお、ジェスチャ認識部407、視線認識部408、顔向き認識部409、及びユーザ位置認識部410には、例えば、音声処理装置10(図4)に設けられたセンサ54により検出されたセンサ情報(センサデータ)が入力される。
ジェスチャ認識部407は、そこに入力されるセンサデータを用いたジェスチャ認識処理を行うことで、ユーザのジェスチャを認識し、その認識結果を、ユーザ意図及び確信度分析部402に供給する。ここで用いられるセンサデータは、例えば、ユーザのジェスチャを検出するための専用のセンサや、ユーザを被写体に含む画像データを取得するイメージセンサ等の各種のセンサから得られる情報とされる。
視線認識部408は、そこに入力されるセンサデータを用いた視線認識処理を行うことで、ユーザの視線を認識し、その認識結果を、ユーザ意図及び確信度分析部402に供給する。ここで用いられるセンサデータは、例えば、ユーザの視線を検出するための専用のセンサや、ユーザを被写体に含む画像データを取得するイメージセンサ等の各種のセンサから得られる情報とされる。
顔向き認識部409は、そこに入力されるセンサデータを用いた顔向き認識処理を行うことで、ユーザの顔向きを認識し、その認識結果を、ユーザ意図及び確信度分析部402に供給する。ここで用いられるセンサデータは、例えば、ユーザの顔向きを検出するための専用のセンサや、ユーザを被写体に含む画像データを取得するイメージセンサ等の各種のセンサから得られる情報とされる。
ユーザ位置認識部410は、そこに入力されるセンサ位置情報を用いた位置認識処理を行うことで、ユーザの位置を認識し、その認識結果を、ユーザ意図及び確信度分析部402に供給する。ここで用いられるセンサデータは、例えば、ユーザの位置を検出するための専用のセンサ(例えば、GPSモジュールなど)や、ユーザの場所を特定可能な被写体を含む画像データを取得するイメージセンサ等の各種のセンサから得られる情報とされる。
ユーザ意図及び確信度分析部402には、音声認識部401からの発話テキストデータ、及び話者認識部406からのユーザIDとともに、ジェスチャ認識部407、視線認識部408、顔向き認識部409、及びユーザ位置認識部410からの認識結果が入力される。ユーザ意図及び確信度分析部402は、ユーザ意図分析部411及びユーザ確信度推定部412を含んで構成される。
ユーザ確信度推定部412は、発話テキストデータに対し解析処理を施して、ユーザの確信度を推定するに際し、センサデータから得られる認識結果に基づいたユーザの行動を考慮して、ユーザの確信度が得られるようにする。ここでは、ユーザの行動として、例えば、次のような傾向が見られた場合に、ユーザの確信度を下げるべきケースに該当するものとする。
(a)話し方がゆっくりになる。
(b)話す声が高くなる。
(c)視線が落ち着かない。
(d)音声対話システム(音声処理装置10)のすぐそばに来る。
(e)音声対話システム(音声処理装置10)の方向に顔を向ける。
(f)両腕による身振り手振りの動作が大きくなる。
(g)欠伸をしている。
このような、ユーザの行動として、例えば、上記の(a)乃至(g)の傾向が見られる場合に、その確信度は低いものと推定するアルゴリズムを追加することで、ユーザの確信度の推定の精度を向上させることができる。また、これらのユーザの行動に関する行動データを逐次記録しておいて、この行動データ(の履歴)を用いた学習を行うことで得られる傾向に基づき、確信度が推定されるようにしてもよい。
なお、ユーザの行動は、センサ54から得られるセンサデータに基づき認識されるものであればよく、例えば、温度センサや湿度センサにより検出される温度や湿度の情報のほか、計時手段により計時される時刻情報などを用いて認識されるようにしてもよい。例えば、時刻情報を用い、早朝に欠伸をしている場合には、確信度が低いなどとすることもできる。
以上、第1の実施の形態乃至第3の実施の形態について説明した。これらの実施の形態で述べた手法を用いることで、ユーザは欲しい情報を、適切な情報量で得ることができるため、テンポの良いスムーズなコミュニケーションを実現することが可能となる。
なお、上述した特許文献1には、音声対話システムとして、システム側の確信度に応じて応答を切り替えるものとして、システムが、ユーザの発話意図を分析した際の結果に対するシステム自身の確信度に応じて応答を切り替える手法が開示されている。しかしながら、この手法では、ユーザがどの程度確信しているかを推定する仕組みがないため、ユーザの確信度が低い場合でも、あるいは確信度が高い場合でも、システム自身の確信度が同じときには、同じ情報量の応答を生成してしまうため、上述した実施の形態で述べた手法のように、テンポの良いスムーズなコミュニケーションを実現することはできない。
<3.変形例>
上述した説明では、サーバ20の処理部71が、音声認識部201乃至出力生成部205により提供される機能のうち、音声認識部201、ユーザ意図及び確信度分析部202、対話制御部203、APIコール部204、及び出力生成部205の一部の機能を有しているとして説明したが、処理部71は、音声認識部201乃至出力生成部205により提供される機能のうち、少なくとも一部の機能を有していればよい。
また、音声処理装置10の処理部51が、構成する音声認識部201乃至出力生成部205により提供される機能のうち、音声認識部201に対し、ユーザ発話データを入力するための機能と、システム応答(の音声データ)に応じた応答音声を出力するための機能を有しているとして説明したが、処理部51は、音声認識部201乃至出力生成部205により提供される機能のうち、少なくとも一部の機能を有していればよい。
すなわち、音声認識部201乃至出力生成部205により提供される機能のうち、サーバ20の処理部71が有する機能を除いた機能が、音声処理装置10の処理部51が有する機能とされる。
ただし、音声処理装置10の処理部51が、音声認識部201乃至出力生成部205により提供される機能のすべての機能を有し、音声対話システムの機能が音声処理装置10のみによって実現されるようにしてもよい。その際に、データベース73は、音声処理装置10に内蔵してもよいし、あるいは、インターネット30上のサーバ20により提供されるようにしてもよい。
また、上述した説明では、図2の出力生成部205(図8出力生成部305、図11の出力生成部405)が、ユーザの確信度を用い、応答の情報量を制御(調整)する場合を説明したが、他のブロックが、ユーザの確信度を用いた応答の情報量の制御を行ってもよい。
そこで、次に、図12乃至図14を参照して、本技術を適用した音声対話システムの構成の変形例について説明する。なお、ここでは、比較のために、一般的なテキストチャットシステムの構成についても説明する。
(一般的なテキストチャットシステムの構成)
図12は、一般的なテキストチャットシステムの構成を示すブロック図である。
図12において、一般的なテキストチャットシステム6は、ユーザ意図分析部602、対話制御部603、APIコール部604、及び出力生成部605を含んで構成される。
ユーザ意図分析部602には、テキストチャットで、ユーザにより入力されたテキストデータが供給される。ユーザ意図分析部602は、テキストデータを処理して、ユーザの意図を分析し、その分析の結果得られるユーザ意図候補データを、対話制御部603に供給する。
対話制御部603は、ユーザ意図分析部602から供給されるユーザ意図候補データなどに基づき、現在の対話状態を推定し、コールすべきAPI及びその引数を決定する。対話制御部603は、API及び引数データを、APIコール部604に供給する。
APIコール部604は、対話制御部603から供給されるAPI及び引数データに基づき、コールすべきAPIにその引数を渡して実行し、その結果得られるAPI出力を、出力生成部605に供給する。
出力生成部605は、APIコール部604から供給されるAPI出力に基づき、システム応答として、テキストデータや画像データに応じた情報を出力する。
一般的なテキストチャットシステム6は、以上のように構成される。ここで、本技術の音声対話システム(例えば、図2の音声対話システム2)においても、ユーザ意図及び確信度分析部202に、発話テキストデータの代わりに、テキストチャットのテキストデータが入力され、発話テキストデータと同様の処理が行われるようにしてもよい。この場合、出力生成部205は、システム応答として、テキストデータや画像データに応じた情報を出力することになる。なお、このとき、図2の音声対話システム2において、音声認識部201は不要とされる。
(本技術の音声対話システムの構成の第1の変形例)
図13は、本技術を適用した音声対話システムの構成の第1の変形例を示すブロック図である。
図13において、音声対話システム7は、音声認識部701、ユーザ意図及び確信度分析部702、対話制御部703、APIコール部704、及び出力生成部705を含んで構成される。
図13において、音声認識部701、ユーザ意図及び確信度分析部702、及びAPIコール部704は、図2に示した音声認識部201、ユーザ意図及び確信度分析部202、及びAPIコール部204と同様に構成される。
すなわち、図13の音声対話システム7は、図2の音声対話システム2と比べて、対話制御部703と出力生成部705の機能が異なっている。
具体的には、対話制御部703は、ユーザ意図候補データ及び対話履歴データベースなどに基づき、現在の対話状態を推定してコールすべきAPI及びその引数を決定する際に、ユーザ確信度データを用いて最適なAPIが選択されるようにする。ただし、このとき、応答の情報量に応じて、選択可能なAPIが分かれているものとし、ユーザの確信度に応じた情報量の応答が得られるAPIが選択されることになる。
APIコール部704は、対話制御部703から供給されるAPI及び引数データに基づき、コールすべきAPIにその引数を渡して実行する。
出力生成部705は、APIコール部704から供給されるAPI出力のデータに基づき、システム応答を生成し、その音声データに応じた応答音声を出力する。ただし、対話制御部703において、ユーザ確信度データを用いて最適なAPIが選択され、応答文章に含める情報量は調整済みであるため、ここでは情報量を調整する必要はない。
音声対話システム7は、以上のように構成される。
(本技術の音声対話システムの構成の第2の変形例)
図14は、本技術を適用した音声対話システムの構成の第2の変形例を示すブロック図である。
図14において、音声対話システム8は、音声認識部801、ユーザ意図及び確信度分析部802、対話制御部803、APIコール部804、及び出力生成部805を含んで構成される。
図14において、音声認識部801、及びユーザ意図及び確信度分析部802は、図2に示した音声認識部201、及びユーザ意図及び確信度分析部202と同様に構成される。
すなわち、図14の音声対話システム8は、図2の音声対話システム2と比べて、対話制御部803と、APIコール部804と、出力生成部805の機能が異なっている。
具体的には、対話制御部803は、ユーザ意図候補データ、及び対話履歴のデータベースなどに基づき、現在の対話状態を推定し、コールすべきAPI及びその引数を決定する。対話制御部803は、API及び引数データを、APIコール部804に供給する。
APIコール部804は、対話制御部803から供給されるAPI及び引数データに基づき、コールすべきAPIにその引数を渡して実行し、その結果得られるAPI出力を、対話制御部803に返す。
対話制御部803は、ユーザ確信度データ及びAPI出力のデータに基づき、応答文章に含める情報量を調整した出力を生成し、出力生成部805に供給する。
ここでは、ユーザに対するシステム応答そのものを生成して出力してもよいし、あるいはシステム応答の生成に必要な情報のみを出力して、システム応答の生成は、後段の出力生成部805に任せるようにしてもよい。
出力生成部805は、対話制御部803からの出力に基づき、システム応答に応じた応答音声を出力する。ただし、システム応答が、出力生成部805側で生成されるようにしてもよいことは先に述べた通りである。
音声対話システム8は、以上のように構成される。
ところで、音声対話システム2(図2)においては、音声認識部201に対し、ユーザ発話データが直接入力される場合を説明したが、ユーザ発話データを処理してから、音声認識部201に入力されるようにしてもよい。そこで、次に、図15を参照して、ユーザ発話データに対する前処理を行う構成について説明する。
(本技術の音声対話システムの構成の第3の変形例)
図15は、本技術を適用した音声対話システムの構成の第3の変形例を示すブロック図である。
図15において、音声対話システム2は、音声認識部201、ユーザ意図及び確信度分析部202、対話制御部203、APIコール部204、出力生成部205、及び前処理部221を含んで構成される。
図15において、音声認識部201乃至出力生成部205は、図2に示した音声認識部201乃至出力生成部205と同様に構成される。すなわち、図15の音声対話システム2は、図2の音声対話システム2と比べて、音声認識部201の前段に、前処理部221が追加されている点が異なっている。
前処理部221は、そこに入力される音声信号に対し、例えばエコーキャンセルやノイズ除去等の信号処理を行い、その結果得られるユーザ発話データを、音声認識部201に供給する。
ここで、例えば、音声処理装置10は、マイクロフォン52とスピーカ53を有しているため、スピーカ53からの音を、マイクロフォン52が拾ってしまう可能性があるので、エコーキャンセル等の信号処理を行うことで、ユーザ発話データのみが得られるようにする。より具体的には、音声処理装置10にて音楽を再生している場合には、スピーカ53から出力される音楽を除いた音声信号であって、マイクロフォン52により収音された音声信号が、ユーザ発話データとして得られるようにする。
なお、前処理部221は、基本的には、音声処理装置10の処理部51が有する機能とされるが、サーバ20の処理部71が有する機能としてもよい。その場合には、音声処理装置10が、インターネット30を介して音声信号をサーバ20に送信することで、サーバ20側で、音声信号に対する信号処理が行われる。
音声対話システム2は、以上のように構成される。
ところで、上述した説明では、図7及び図10に示したように、ユーザの確信度とシステム応答の情報量との間には、負の比例関係があるとして説明したが、その関係は一例であって、例えば、反比例の関係など、線形又は非線形の関係を有していればよい。
そこで、次に、図16乃至図19を参照して、ユーザの確信度とシステム応答の情報量との関係の変形例について説明する。なお、これらの関係は、所定のアルゴリズムに従い算出されるようにしてもよいし、手動により定義されるようにしてもよい。また、ユーザごとに蓄積されたデータを用いた機械学習を適用してもよい。
(確信度と応答情報量の関係の第1の変形例)
図16は、ユーザの確信度とシステム応答の情報量との関係の第1の変形例を示す図である。
なお、図16においては、図7及び図10と同様に、横軸をユーザの確信度とし、縦軸をシステム応答の情報量(応答情報量)としたときのユーザの確信度と応答情報量との関係を表している。後述する図17乃至図19についても同様である。
図16において、関数f3は、ユーザの確信度が低いほど、応答情報量が大きくなる一方で、ユーザの確信度が高いほど、応答情報量が小さくなる、反比例の関係を有している。
ここでは、例えば、75であるスコア以上が高い確信度となり、25であるスコア未満が低い確信度となり、25であるスコア以上で、かつ、75であるスコア未満が中程度の確信度となるように、閾値(Th1,Th2)を設定することができる。
(確信度と応答情報量の関係の第2の変形例)
図17は、ユーザの確信度とシステム応答の情報量との関係の第2の変形例を示す図である。
図17において、関数f4は、ユーザの確信度が低いほど、応答情報量が大きくなる一方で、ユーザの確信度が高いほど、応答情報量が小さくなる、階段状の関係を有している。
ここでは、閾値として、例えば、Th1 = 25, Th2 = 75を設定することで、75であるスコア以上が高い確信度となり、25であるスコア未満が低い確信度となり、25であるスコア以上で、かつ、75であるスコア未満が中程度の確信度となる。ただし、関数f4は、階段状の関係を有しているため、高い確信度、中程度の確信度、及び低い確信度ごとに、応答情報量は、一定の情報量となっている。
(確信度と応答情報量の関係の第3の変形例)
図18は、ユーザの確信度とシステム応答の情報量との関係の第3の変形例を示す図である。
図18において、関数f5は、ユーザの確信度が低いほど、応答情報量が大きくなる一方で、ユーザの確信度が高いほど、応答情報量が小さくなる、弧状の関係を有している。
ここでは、閾値として、例えば、Th1 = 25, Th2 = 75を設定することで、75であるスコア以上が高い確信度となり、25であるスコア未満が低い確信度となり、25であるスコア以上で、かつ、75であるスコア未満が中程度の確信度となる。ただし、関数f5は、弧状の関係を有しているため、高い確信度、中程度の確信度、及び低い確信度ごとに、応答情報量は、緩やかに変化している。
(確信度と応答情報量の関係の第4の変形例)
図19は、ユーザの確信度とシステム応答の情報量との関係の第4の変形例を示す図である。
図19において、関数f6は、ユーザの確信度が低いほど、応答情報量が大きくなる一方で、ユーザの確信度が高いほど、応答情報量が小さくなる、S字状の関係を有している。
ここでは、閾値として、例えば、Th1 = 25, Th2 = 75を設定することで、75であるスコア以上が高い確信度となり、25であるスコア未満が低い確信度となり、25であるスコア以上で、かつ、75であるスコア未満が中程度の確信度となる。ただし、関数f6は、弧状の関係を有しているため、高い確信度、中程度の確信度、及び低い確信度ごとに、応答情報量は、やや緩やかに変化している。
なお、図16乃至図19には、明記していないが、図10の関係と同様に、例えば、関数f3(関数f4, f5, f6)が、自分の予定の場合の関係を表しているとき、他人の予定の関係は、関数f3(関数f4, f5, f6)を右方向にずらしたような関係となって、同じ確信度であれば、自分の予定を表す関数f3(関数f4, f5, f6)よりも、他人の予定の関係を表す関数のほうが、応答情報量が大きくなるようにすればよい。
すなわち、自分の予定と比べて、他人の予定は把握していないことが多いので、同じ確信度でも、自分の予定と他人の予定とで、応答情報量を変えることができる。
(APIの他の例)
上述した説明では、ユーザの意図(インテンション)に応じたAPIとして、スケジュールチェックを行うスケジュールAPIを一例に説明したが、例えば、ニュースや天気のチェックを行うAPI、音楽の再生を行うAPIなど、他のAPIであっても同様に適用することができる。例えば、これらのAPIは、音声処理装置10又はサーバ20にて実行されるアプリケーションにより呼び出すことができる。また、上述した説明では、スケジュールAPIの引数(スロット)として、タイトル、日時、場所、及び対象者を一例に説明したが、それらの引数の一部を削除したり、あるいは他の引数(例えば、登録者など)を追加したりするようにしてもよい。
(確信度のスコアの例)
また、確信度のスコアは、例えば、ユーザの発話ごとに算出したり、あるいはユーザの発話に含まれる単語ごとに算出したりすることができる。例えば、ユーザの発話に含まれる単語として、タイトル、日時、場所、又は対象者などの引数に応じた単語ごとの確信度のスコアを算出することができる。また、例えば、タイトルや日時などの引数に応じた単語ごとの確信度のスコアを算出して、集計するようにしてもよい。ここでの集計としては、例えば、確信度のスコアの合計値や平均値、最大値などを求めることができる。
<4.音声対話処理の流れ>
次に、図20のフローチャートを参照して、音声対話処理の一例として、音声対話システム2(図2)により実行される音声対話処理の流れについて説明する。
なお、図20のフローチャートに示した処理ステップのうち、ステップS11乃至S13は、音声処理装置10の処理部51(図4)により実行され、ステップS21乃至S27の処理は、サーバ20の処理部71(図5)により実行される。
ステップS11において、処理部51は、ユーザにより発話がなされた場合、マイクロフォン52を介して、当該ユーザの発話を受け付ける。ここでは、例えば、「明日の10時は会議の予定だよね。」や「確か明日だったと思うけど、会議の予定があったっけ?」などのユーザの発話が受け付けられる。
ステップS12において、通信I/F55は、ステップS11の処理で受け付けられたユーザ発話データを、インターネット30を介して、サーバ20に送信する。
音声処理装置10から送信されてくるユーザ発話データは、サーバ20の通信I/F72により受信され、サーバ20では、ステップS21乃至S27の処理が実行される。
ステップS21において、処理部71の音声認識部201は、音声テキスト変換用のデータベースを参照することで、音声認識処理を行い、音声処理装置10から受信したユーザ発話データを、発話テキストデータに変換する。
ステップS22において、処理部71のユーザ意図分析部211は、ステップS21の処理で得られる発話テキストデータに基づき、ユーザ意図分析処理を行う。
ステップS23において、処理部71のユーザ確信度推定部212は、ステップS21の処理で得られる発話テキストデータに基づき、ユーザ確信度推定処理を行う。
ステップS24において、処理部71の対話制御部203は、ステップS22の処理で得られるユーザ意図候補データ、及び対話履歴のデータベースなどに基づき、現在の対話状態を推定し、コールすべきAPI及びその引数を決定する。
ステップS25において、処理部71のAPIコール部204は、ステップS24の処理で得られるAPI及び引数データに基づき、コールすべきAPI(例えば、スケジュールAPI)にその引数を渡して実行する。
ステップS26において、処理部71の出力生成部205は、ステップS23の処理で得られるユーザ確信度データ、及びステップS25の処理で得られるAPI出力に基づき、ユーザの確信度に応じて応答文章に含める情報量が制御(調整)されたシステム応答を生成する。
ステップS27において、通信I/F72は、ステップS26の処理で得られるシステム応答を、インターネット30を介して、音声処理装置10に送信する。
サーバ20から送信されてくる処理データ(システム応答のデータ)は、音声処理装置10の通信I/F55により受信され、音声処理装置10では、ステップS13の処理が実行される。
ステップS13において、処理部51の出力生成部205は、サーバ20から受信したシステム応答に応じた応答音声を、スピーカ53から出力する。ここでは、例えば、「はい、そうです。」や「はい。明日の10時になります。」などのユーザの確信度に応じた情報量で、簡潔な応答音声が出力される。なお、ユーザの確信度に応じて応答文章に含める情報量を制御(調整)する処理は、クライアント側の処理部51の出力生成部205(例えばアプリケーション)により実行されるようにしてもよい。
以上、音声対話処理の流れについて説明した。
<5.コンピュータの構成>
上述した一連の処理(例えば、図20に示した音声対話処理)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、各装置のコンピュータにインストールされる。図21は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ2000において、CPU(Central Processing Unit)2001、ROM(Read Only Memory)2002、RAM(Random Access Memory)2003は、バス2004により相互に接続されている。バス2004には、さらに、入出力インターフェース2005が接続されている。入出力インターフェース2005には、入力部2006、出力部2007、記録部2008、通信部2009、及び、ドライブ2010が接続されている。
入力部2006は、キーボード、マウス、マイクロフォンなどよりなる。出力部2007は、ディスプレイ、スピーカなどよりなる。記録部2008は、ハードディスクや不揮発性のメモリなどよりなる。通信部2009は、ネットワークインターフェースなどよりなる。ドライブ2010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体2011を駆動する。
以上のように構成されるコンピュータ2000では、CPU2001が、ROM2002や記録部2008に記録されているプログラムを、入出力インターフェース2005及びバス2004を介して、RAM2003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ2000(CPU2001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体2011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ2000では、プログラムは、リムーバブル記録媒体2011をドライブ2010に装着することにより、入出力インターフェース2005を介して、記録部2008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部2009で受信し、記録部2008にインストールすることができる。その他、プログラムは、ROM2002や記録部2008に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、図20に示したフローチャートで説明した音声対話処理の各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量を調整する処理部を備える
情報処理装置。
(2)
前記確信度は、前記ユーザの発話から得られる情報に基づき推定され、
前記応答は、前記ユーザの発話に対する応答とされる
前記(1)に記載の情報処理装置。
(3)
前記確信度は、前記ユーザの行動から、あらかじめ学習することで得られる傾向に基づき推定される
前記(1)又は(2)に記載の情報処理装置。
(4)
前記確信度と前記応答に含まれる情報量との関係は、線形又は非線形の関係とされる
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記関係は、比例又は反比例の関係である
前記(4)に記載の情報処理装置。
(6)
前記確信度は、センサから得られるセンサ情報に基づき推定される
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記センサ情報は、前記ユーザのジェスチャ認識情報、視線認識情報、顔向き認識情報、及び位置情報のいずれかの情報を少なくとも含んでいる
前記(6)に記載の情報処理装置。
(8)
前記所望の情報は、他のユーザに関する情報であり、
前記確信度は、前記所望の情報の対象者に応じて変動する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記確信度は、前記対象者が前記他のユーザである場合に、前記対象者が前記ユーザである場合と比べて低くなる
前記(8)に記載の情報処理装置。
(10)
前記応答は、前記ユーザの意図に応じたAPI(Application Programming Interface)に対し、その引数として、前記所望の情報から得られる値を渡して実行することで得られる
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
情報処理装置の情報処理方法において、
前記情報処理装置が、
ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量を調整する
ステップを含む情報処理方法。
2,3,4,7,8 音声対話システム, 10 音声処理装置, 20 サーバ, 30 インターネット, 51 処理部, 52 マイクロフォン, 53 スピーカ, 54 センサ, 55 通信I/F, 71 処理部, 72 通信I/F, 73 データベース, 201 音声認識部, 202 ユーザ意図及び確信度分析部, 203 対話制御部, 204 APIコール部, 205 出力生成部, 211 ユーザ意図分析部, 212 ユーザ確信度推定部, 221 前処理部, 306 話者認識部, 407 ジェスチャ認識部, 408 視線認識部, 409 顔向き認識部, 410 ユーザ位置認識部, 703 対話制御部, 803 対話制御部, 2000 コンピュータ, 2001 CPU

Claims (11)

  1. ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量を調整する処理部を備える
    情報処理装置。
  2. 前記確信度は、前記ユーザの発話から得られる情報に基づき推定され、
    前記応答は、前記ユーザの発話に対する応答とされる
    請求項1に記載の情報処理装置。
  3. 前記確信度は、前記ユーザの行動から、あらかじめ学習することで得られる傾向に基づき推定される
    請求項1に記載の情報処理装置。
  4. 前記確信度と前記応答に含まれる情報量との関係は、線形又は非線形の関係とされる
    請求項1に記載の情報処理装置。
  5. 前記関係は、比例又は反比例の関係である
    請求項4に記載の情報処理装置。
  6. 前記確信度は、センサから得られるセンサ情報に基づき推定される
    請求項1に記載の情報処理装置。
  7. 前記センサ情報は、前記ユーザのジェスチャ認識情報、視線認識情報、顔向き認識情報、及び位置情報のいずれかの情報を少なくとも含んでいる
    請求項6に記載の情報処理装置。
  8. 前記所望の情報は、他のユーザに関する情報であり、
    前記確信度は、前記所望の情報の対象者に応じて変動する
    請求項1に記載の情報処理装置。
  9. 前記確信度は、前記対象者が前記他のユーザである場合に、前記対象者が前記ユーザである場合と比べて低くなる
    請求項8に記載の情報処理装置。
  10. 前記応答は、前記ユーザの意図に応じたAPI(Application Programming Interface)に対し、その引数として、前記所望の情報から得られる値を渡して実行することで得られる
    請求項1に記載の情報処理装置。
  11. 情報処理装置の情報処理方法において、
    前記情報処理装置が、
    ユーザの所望の情報に対して推定される前記ユーザ自身の確信度に応じて、前記所望の情報に対する応答の情報量を調整する
    ステップを含む情報処理方法。
JP2019534024A 2017-08-01 2018-07-18 情報処理装置、及び情報処理方法 Active JP7230804B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017149134 2017-08-01
JP2017149134 2017-08-01
PCT/JP2018/026824 WO2019026617A1 (ja) 2017-08-01 2018-07-18 情報処理装置、及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2019026617A1 true JPWO2019026617A1 (ja) 2020-09-10
JP7230804B2 JP7230804B2 (ja) 2023-03-01

Family

ID=65232540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019534024A Active JP7230804B2 (ja) 2017-08-01 2018-07-18 情報処理装置、及び情報処理方法

Country Status (5)

Country Link
US (1) US11430437B2 (ja)
EP (1) EP3663935A4 (ja)
JP (1) JP7230804B2 (ja)
CN (1) CN110998718A (ja)
WO (1) WO2019026617A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102455199B1 (ko) * 2017-10-27 2022-10-18 엘지전자 주식회사 인공지능 디바이스
US11282481B2 (en) * 2017-12-26 2022-03-22 Ntt Docomo, Inc. Information processing device
US20220013119A1 (en) * 2019-02-13 2022-01-13 Sony Group Corporation Information processing device and information processing method
US11741951B2 (en) * 2019-02-22 2023-08-29 Lenovo (Singapore) Pte. Ltd. Context enabled voice commands
US11348581B2 (en) 2019-07-12 2022-05-31 Qualcomm Incorporated Multi-modal user interface
JP7258686B2 (ja) * 2019-07-22 2023-04-17 Tis株式会社 情報処理システム、情報処理方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062963A (ja) * 2003-08-18 2005-03-10 Toshiba Corp 時系列行動パターンを表示する装置、方法、およびプログラム
JP2005199373A (ja) * 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置及びコミュニケーション方法
JP2008233678A (ja) * 2007-03-22 2008-10-02 Honda Motor Co Ltd 音声対話装置、音声対話方法、及び音声対話用プログラム
JP2011054088A (ja) * 2009-09-04 2011-03-17 National Institute Of Information & Communication Technology 情報処理装置、情報処理方法、プログラム及び対話システム
WO2017090115A1 (ja) * 2015-11-25 2017-06-01 三菱電機株式会社 音声対話装置および音声対話方法
JP2017515199A (ja) * 2014-03-28 2017-06-08 マイクロソフト テクノロジー ライセンシング,エルエルシー プロファイル作成および推奨でのユーザー信頼をユーザーとの管理される対話をベースにして構築すること

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4075067B2 (ja) * 2004-04-14 2008-04-16 ソニー株式会社 情報処理装置および情報処理方法、並びに、プログラム
US9760905B2 (en) * 2010-08-02 2017-09-12 Visa International Service Association Systems and methods to optimize media presentations using a camera
KR20140121580A (ko) * 2013-04-08 2014-10-16 한국전자통신연구원 자동 번역 및 통역 장치 및 그 방법
EP3049961A4 (en) * 2013-09-25 2017-03-22 Intel Corporation Improving natural language interactions using emotional modulation
US9715875B2 (en) * 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10614108B2 (en) * 2015-11-10 2020-04-07 International Business Machines Corporation User interface for streaming spoken query
JP6844608B2 (ja) * 2016-03-10 2021-03-17 ソニー株式会社 音声処理装置および音声処理方法
US10956513B2 (en) * 2016-05-27 2021-03-23 International Business Machines Corporation Heuristically programmed artificial intelligence for mainframe operating systems
WO2018047421A1 (ja) * 2016-09-09 2018-03-15 ソニー株式会社 音声処理装置、情報処理装置、音声処理方法および情報処理方法
US10170111B2 (en) * 2017-01-19 2019-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive infotainment system based on vehicle surrounding and driver mood and/or behavior
US10467510B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Intelligent assistant

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062963A (ja) * 2003-08-18 2005-03-10 Toshiba Corp 時系列行動パターンを表示する装置、方法、およびプログラム
JP2005199373A (ja) * 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置及びコミュニケーション方法
JP2008233678A (ja) * 2007-03-22 2008-10-02 Honda Motor Co Ltd 音声対話装置、音声対話方法、及び音声対話用プログラム
JP2011054088A (ja) * 2009-09-04 2011-03-17 National Institute Of Information & Communication Technology 情報処理装置、情報処理方法、プログラム及び対話システム
JP2017515199A (ja) * 2014-03-28 2017-06-08 マイクロソフト テクノロジー ライセンシング,エルエルシー プロファイル作成および推奨でのユーザー信頼をユーザーとの管理される対話をベースにして構築すること
WO2017090115A1 (ja) * 2015-11-25 2017-06-01 三菱電機株式会社 音声対話装置および音声対話方法

Also Published As

Publication number Publication date
CN110998718A (zh) 2020-04-10
JP7230804B2 (ja) 2023-03-01
EP3663935A4 (en) 2020-07-01
WO2019026617A1 (ja) 2019-02-07
US20200152191A1 (en) 2020-05-14
US11430437B2 (en) 2022-08-30
EP3663935A1 (en) 2020-06-10

Similar Documents

Publication Publication Date Title
JP7230804B2 (ja) 情報処理装置、及び情報処理方法
AU2019279572B2 (en) Variable latency device coordination
US11810578B2 (en) Device arbitration for digital assistant-based intercom systems
US11475898B2 (en) Low-latency multi-speaker speech recognition
CN112075075B (zh) 用于促进远程会议的方法和计算机化智能助理
CN106415719B (zh) 使用说话者识别的语音信号的稳健端点指示
KR102541718B1 (ko) 키 문구 사용자 인식의 증강
JP7243625B2 (ja) 情報処理装置、及び情報処理方法
US20200335128A1 (en) Identifying input for speech recognition engine
JP2022551788A (ja) 補助システムのためのプロアクティブコンテンツを生成すること
WO2019055372A1 (en) INTERCOM-TYPE COMMUNICATION MADE WITH MULTIPLE COMPUTER DEVICES
JP2021533397A (ja) 話者埋め込みと訓練された生成モデルとを使用する話者ダイアライゼーション
JP7230806B2 (ja) 情報処理装置、及び情報処理方法
US20200327890A1 (en) Information processing device and information processing method
JPWO2019087811A1 (ja) 情報処理装置、及び情報処理方法
US20190325865A1 (en) Managing voice interface devices
JP7276129B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2020116026A1 (ja) 応答処理装置、応答処理方法及び応答処理プログラム
JP7471371B2 (ja) アシスタントデバイスのディスプレイにレンダリングするコンテンツの選択
US20200402498A1 (en) Information processing apparatus, information processing method, and program
WO2020202862A1 (ja) 応答生成装置及び応答生成方法
WO2019244455A1 (ja) 情報処理装置及び情報処理方法
US20220108693A1 (en) Response processing device and response processing method
CN118235197A (zh) 选择性生成和/或选择性渲染用于所说出话语完成的延续内容

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R151 Written notification of patent or utility model registration

Ref document number: 7230804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151