JP2018040897A - 音声対話装置および音声対話装置を用いた自動対話方法 - Google Patents

音声対話装置および音声対話装置を用いた自動対話方法 Download PDF

Info

Publication number
JP2018040897A
JP2018040897A JP2016173862A JP2016173862A JP2018040897A JP 2018040897 A JP2018040897 A JP 2018040897A JP 2016173862 A JP2016173862 A JP 2016173862A JP 2016173862 A JP2016173862 A JP 2016173862A JP 2018040897 A JP2018040897 A JP 2018040897A
Authority
JP
Japan
Prior art keywords
utterance
output
input
unit
filler
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016173862A
Other languages
English (en)
Other versions
JP6461058B2 (ja
Inventor
達也 河原
Tatsuya Kawahara
達也 河原
高梨 克也
Katsuya Takanashi
克也 高梨
亮輔 中西
Ryosuke Nakanishi
亮輔 中西
生聖 渡部
Seisho Watabe
生聖 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Toyota Motor Corp
Original Assignee
Kyoto University
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Toyota Motor Corp filed Critical Kyoto University
Priority to JP2016173862A priority Critical patent/JP6461058B2/ja
Priority to CN201710785845.XA priority patent/CN107798055B/zh
Priority to US15/695,090 priority patent/US10339930B2/en
Publication of JP2018040897A publication Critical patent/JP2018040897A/ja
Application granted granted Critical
Publication of JP6461058B2 publication Critical patent/JP6461058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの発話から解析される韻律からでは、次の発話を対話ロボットがすべきか、ユーザの発話を待つべきか、明りょうに判断できない場合があった。このような場合は、両者の間で沈黙が続いたり、両者の発話が被ったりして、円滑な会話を楽しむ妨げとなっていた。
【解決手段】入力部が入力したユーザ発話に基づいて、次のユーザ発話を待つべきか、自身からの発話を実行すべきかを推定する推定部と、推定部が、ユーザ発話を待つべきとも、自身からの発話を実行すべきとも推定できなかった場合に、対話内容とは関係の無い繋ぎ発声であるフィラーを出力部に出力させるフィラー出力、および疑似頭部を前後させる頷き動作の少なくともいずれかを実行して応答する応答制御部とを備える音声対話装置を提供する。
【選択図】図3

Description

本発明は、音声対話装置および音声対話装置を用いた自動対話方法に関する。
ユーザが音声対話ロボットと日常会話を楽しむための技術が普及しつつある。例えば、違和感のない会話を実現するための技術として、ユーザの韻律を解析することにより、対話ロボットが適当なタイミングで相槌するものが知られている(特許文献1を参照)。また、ユーザとロボットの間で話者が交代するタイミングを模索する研究もなされている(非特許文献1を参照)。
特開2009−3040号公報
認知科学 研究論文 Vol.7(2000)No.1 93頁〜106頁
ユーザの発話から解析される韻律からでは、次の発話を対話ロボットがすべきか、ユーザの発話を待つべきか、明りょうに判断できない場合があった。このような場合は、両者の間で沈黙が続いたり、両者の発話が被ったりして、円滑な会話を楽しむ妨げとなっていた。
本発明は、このような問題を解決するためになされたものであり、対話ロボットを一例とする音声対話システムとユーザとの間で、より円滑な会話を実現する技術を提供するものである。
本発明の第1の態様における音声対話装置は、ユーザの発話である入力発話を入力する入力部と、ユーザへの発話である出力発話を出力する出力部とを有する音声対話装置であって、入力部が入力した前記入力発話に基づいて、入力部による入力発話の入力を待つべきか、出力部による出力発話の出力を実行すべきかを推定する推定部と、推定部が、入力部による入力発話の入力を待つべきとも、出力部による出力発話の出力を実行すべきとも推定できなかった場合に、対話内容とは関係の無い繋ぎ発声であるフィラーを出力部に出力させるフィラー出力、および疑似頭部を前後させる頷き動作の少なくともいずれかを実行して応答する応答制御部とを備える。
本発明の第2の態様における自動対話方法は、ユーザの発話である入力発話を入力する入力部と、ユーザへの発話である出力発話を出力する出力部とを有する音声対話装置を用いた自動対話方法であって、入力部が入力した前記入力発話に基づいて、入力部による入力発話の入力を待つべきか、出力部による出力発話の出力を実行すべきかを推定する推定ステップと、推定ステップで、入力部による入力発話の入力を待つべきとも、出力部による出力発話の出力を実行すべきとも推定できなかった場合に、対話内容とは関係の無い繋ぎ発声であるフィラーを出力部に出力させるフィラー出力、および疑似頭部を前後させる頷き動作の少なくともいずれかを実行して応答する応答ステップとを含む。
以上の各実施態様の構成により、フィラーの発声により音声対話装置側に発話権があることを仄めかしたり、頷き動作によりユーザの発話を促したりできるので、両者の間で沈黙が続いたり、両者の発話が被ったりすることを抑制できる。
本発明により、音声対話システムとユーザとの間で、より円滑な会話を実現することができる。
ユーザが本実施形態にかかる対話ロボットと会話する様子を示す図である。 第1の実施例における、対話ロボットのシステム構成を示す図である。 第1の実施例における、応答決定テーブルを示す図である。 第1の実施例における、対話処理フローを示す図である。 第2の実施例における、応答決定テーブルを示す図である。 第2の実施例における、対話処理フローの特徴部を示す図である。 第3の実施例における、対話ロボットのシステム構成を示す図である。 第3の実施例における、応答決定テーブルを示す図である。 第3の実施例における、対話処理フローの特徴部を示す図である。 第4の実施例における、応答決定テーブルを示す図である。 第5の実施例における、対話処理フローの特徴部を示す図である。 第6の実施例における、対話処理フローの特徴部を示す図である。 他の実施態様にかかるスマートフォンの外観を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、ユーザが本実施形態にかかる対話ロボット100と会話する様子を示す図である。対話ロボット100は、音声対話装置の一態様であり、ユーザの発話に応じた返答を行う。対話ロボット100は、例えば人間のような生物を模した筐体を有することで、ユーザに与える無機質感を和らげている。図示するように、対話ロボット100は、手足を含む体部120の上に擬似的な頭部110が配された外観を有する。そして、頭部110には、耳が位置する側頭部辺りにマイク111が配されており、マイク111は、ユーザの発話を集音する。また、擬似的な口にはスピーカ112が配されており、スピーカ112は、対話ロボット100が生成した応答を発話、発声する。なお、以下の説明においては、対話内容として意味を有する音声を「発話」とし、対話内容とは関係の無い繋ぎの音声を「発声」とする。これらを特に区別する必要が無い場合には「発話」と表現する場合がある。
図2は、本実施形態の第1の実施例における、対話ロボット100のシステム構成を示す図である。対話ロボット100は、主な機能要素として、発話入力部210、解析部220、推定部230、応答制御部240、出力生成部250、発話出力部260を備える。
発話入力部210は、マイク111を含み、ユーザの発話を集音してデジタル信号に変換し、解析部220へ引き渡す。解析部220は、デジタル信号として受け取ったユーザ発話の韻律を解析する。韻律は、発話を音波として捉えた場合の、その物理的特徴を表すものである。
韻律の解析は、ユーザが発する一塊の音波において、例えば基本周波数やその変動帯域、振幅の最大値および平均値を特徴量として演算し、数値化する処理である。解析部220は、受け取ったデジタル信号を、例えば25msecのウィンドウ幅で切り取り、それを一塊の音波としてそれぞれの特徴量を演算する。そして、例えば10msecの遅延時間でウィンドウを順次シフトさせ、シフトさせるごとに特徴量を演算し、演算した特徴量を推定部230へ逐次引き渡す。
また、解析部220は、ユーザの発話の節目を韻律の変化から予測して、節目のタイミングを応答制御部240へ出力する。発話の節目は、一連の会話の区切りであり、解析部220は、振幅レベルの低下や、語尾の抑揚によって節目を予測する。
推定部230は、受け取った物理的特徴量としての韻律に基づいて、ユーザからの発話を待つべきか、自身が発話すべきかを推定する。本実施形態において具体的には、推定部230は、話者がユーザから対話ロボット100へ移る確率である交代確率Pを推定値として算出する。交代確率P=0は、発話権が継続してユーザに有ることを意味し、交代確率P=1は、発話権がユーザから対話ロボット100へ移ることを意味する。交代確率Pは、0以上1以下の値として算出される。したがって、交代確率Pが0に近いほど発話権が継続してユーザに有ると強く推定され、1に近いほど発話権がユーザから対話ロボット100へ移ると強く推定されると言える。
推定部230は、韻律DB310に接続されている。韻律DB310は、例えばハードディスクドライブの記録媒体であり、韻律を表現するそれぞれの特徴量が、どのような数値である場合に交代確率に対してどれくらいの影響を与えるかを表現する、ルックアップテーブルや評価関数が格納されたデータベースである。推定部230は、解析部220から受け取った韻律のそれぞれの物理的特徴量を、韻律DB310のルックアップテーブルや評価関数に当てはめてそれぞれの評価値に換算し、これらの評価値から多変量解析などの手法を用いて交代確率Pを算出する。具体的手法については、非引用文献1などに詳しい。
推定部230は、算出した交代確率Pを応答制御部240へ引き渡す。応答制御部240は、解析部220からユーザ発話の節目のタイミングを知らされた場合に、交代確率Pを参照して、いかなる応答を実行するかを決定する。そして、決定した応答を実行するための具体的なデータを、出力生成部250から取得する。
本実施形態の第1の実施例では、応答制御部240は、交代確率Pの値に応じて「何も応答しない」「フィラー発声を行う」「応答発話を行う」の3つの中から決定する。「応答しない」は、特に何ら反応を示さないという応答であるが、形式的には無発話時間を設定するなどのために出力生成部250を参照する。
応答制御部240は、「フィラー発声を行う」ことを決定した場合は、出力生成部250の一機能として実装されるフィラー生成部251にフィラーを生成させる。フィラーは、対話内容とは関係の無い繋ぎ発声である。例えば、「あー」「あのー」「えー」「えーと」「そうですねー」などが挙げられる。これらのフィラーは、再生可能な発声データとして、フィラーDB320に格納されている。
フィラーDB320は、フィラー生成部251に接続されているデータベースであり、例えばハードディスクドライブの記録媒体によって構成されている。フィラー生成部251は、応答制御部240からの要求に従ってフィラーDB320に格納された発声データを例えばランダムに抽出することによりフィラーを生成し、応答制御部240へ引き渡す。
応答制御部240は、「応答発話を行う」ことを決定した場合は、出力生成部250の一機能として実装される応答生成部252に応答発話を生成させる。応答発話は、ユーザ発話の内容に対して意味を有する対話として応答する発話である。
発話DB330は、応答生成部252に接続されているデータベースであり、例えばハードディスクドライブの記録媒体によって構成されている。発話DB330は、例えばコーパスとして体系化されており、個々の用語は、再生可能な発話データを伴って格納されている。応答生成部252は、応答制御部240からの要求に従って発話DB330から発話データを収集し、会話として成立するセンテンスを構築して、応答制御部240へ引き渡す。
応答生成部252は、出力生成部250に生成させたフィラー発声データ、応答発話データを発話出力部260へ引き渡す。発話出力部260は、スピーカ112を含み、応答生成部252から受け取ったフィラー発声データ、応答発話データをアナログ信号に変換して、スピーカ112から音として出力する。
図3は、第1の実施例における、応答決定テーブルを示す図である。図示するように、応答制御部240は、交代確率Pが0.0以上0.5未満である場合に、「何も応答しない」と決定する。同様に、交代確率Pが0.5以上0.8未満である場合に、「フィラー発声を行う」と決定し、交代確率Pが0.8以上1.0以下である場合に、「応答発話を行う」と決定する。このように、応答制御部240がいかなる応答を行うかは、交代確率Pの値に応じた分類ルールとして、予め定められている。
図3に示す分類ルールは、発話入力部210による入力発話の入力、すなわちユーザが発話することを待つべきとする交代確率Pの範囲を、0.0以上0.5未満と定めている。同様に、発話出力部260による出力発話の出力、すなわち対話ロボット100自身が意味内容を有する発話をすべきとする交代確率Pの範囲を0.8以上1.0以下と定めている。そして、その間の0.5以上0.8未満の範囲を、発話入力部210による入力発話の入力を待つべきとも、発話出力部260による出力発話の出力を実行すべきとも推定できない範囲として定めている。
本実施例においては、対話ロボット100が入力発話の入力を待つべきとも出力発話の出力を実行すべきとも推定できない場合に、ユーザとの間で沈黙が続いたり、ユーザの発話と被ったりすることを抑制するために、フィラー発声を行う。フィラー発声には、発声した話者側に発話権があることを相手に仄めかす効果があると知られている。
図4は、第1の実施例における、対話処理フローを示す図である。図示する対話処理フローは、例えばスイッチが操作されるなどの対話開始の検知に伴って開始される。
応答制御部240は、ステップS101で、ユーザが発話を開始したか否かを判断する。具体的には、例えば、発話入力部210のAD変換出力を監視して判断する。ユーザが発話を開始したと判断したら、ステップS102へ進む。
ステップS102で、発話入力部210は、ユーザの発話を入力してデジタル信号に変換し、解析部220へ引き渡す。ステップS103で、解析部220は、発話入力部210から受け取ったデジタル信号から韻律を解析し、演算した特徴量を推定部230へ引き渡す。ステップS104で、推定部230は、解析部220から受け取った韻律の特徴量を用いて、交代確率Pを算出し、応答制御部240へ引き渡す。
応答制御部240は、ステップS105で、ユーザ発話に節目があるか否かを判断する。具体的には、解析部220から節目のタイミング情報を受け取った場合に、そのタイミング情報が示す時点を節目と判断する。節目がないと判断した場合は、ステップS102へ戻り、ユーザ発話をさらに継続して受け入れる。節目があると判断した場合は、ステップS106へ進む。
応答制御部240は、ステップS106で、対話が終了したか否かを判断する。ユーザが、例えば、「さようなら」と発話した場合や、終了ボタンを操作した場合は、対話が終了したと判断し、一連の処理を終了させる。終了と判断できない場合は、対話を継続すべく、ステップS107へ進む。
ステップS107からの処理は、応答選択の処理である。応答制御部240は、ステップS107で、交代確率Pが0.0以上0.5未満であるか否かを判断する。この範囲に含まれると判断したら、ステップS108へ進み、ユーザの次の発話を待つ。例えば、予め定められた時間の間をおく。そして、その間にユーザが発話を開始したかを判断すべくステップS101へ戻り、再び一連の処理を実行する。
応答制御部240は、ステップS107で交代確率Pが0.0以上0.5未満に含まれないと判断した場合は、ステップS109へ進み、交代確率Pが0.5以上0.8未満であるか否かを判断する。この範囲に含まれると判断したら、ステップS110へ進み、フィラー発声を実行する。フィラー発声を終了したらステップS101へ戻り、一定時間内にユーザが発話を開始したかを判断して、再び一連の処理を実行する。
応答制御部240は、ステップS109で交代確率Pが0.5以上0.8未満に含まれないと判断した場合、および、ステップS101で一定時間内にユーザが発話を開始しなかったと判断された場合は、ステップS111へ進み、応答発話データを生成して、発話の出力を実行する。発話の出力が終了したらステップS101へ戻り、一定時間内にユーザが発話を開始したかを判断して、再び一連の処理を実行する。
以上のように、入力発話の入力を待つべきとも出力発話の出力を実行すべきとも推定できない場合にフィラー発声を実行することにより、違和感を与える間を与えることがない円滑な対話を促進することが期待できる。
次に、本実施形態にかかる第2の実施例を説明する。対話ロボット100としての装置構成は、第1の実施例と同様であり、フローの処理が第1の実施例と若干異なる。
図5は、第2の実施例における、応答決定テーブルを示す図である。第1の実施例では、「フィラー発声を行う」と判断される交代確率Pの範囲と、「応答発話を行う」と判断される交代確率Pの範囲とは、互いに重なり合うことがなかった。第2の実施例では、両者に重なる範囲を設ける。具体的には、交代確率Pが0.5以上0.8未満である場合に、「フィラー発声を行う」と決定し、交代確率Pが0.7以上1.0以下である場合に、「応答発話を行う」と決定する。交代確率Pが0.0以上0.5未満である場合に、「何も応答しない」と決定することは、第1の実施例と同様である。
すなわち、交代確率Pが0.7以上0.8未満である場合は、「フィラー発声を行う」と「応答発話を行う」の、2つの分類に属するものとする。これは、交代確率Pが0.7以上0.8未満である場合の対話の状況が、フィラー発声を行うことが良いと判断される場合と、応答発話を行うことが良いと判断される場合とが混在する状況であると、実験的に明らかになってきたことに対応する処置である。
このように応答決定テーブルを定めた場合の処理について説明する。図6は、第2の実施例における、対話処理フローの特徴部を示す図である。第2の実施例における対話処理フローは、図4を用いて説明した処理とは応答選択の処理の部分が異なり、他の部分では同じであるので、異なる部分を説明する。また、図4と同じ処理については同じステップ番号を付して、具体的な説明については省略する。
交代確率Pが0.0以上0.5未満の処理であるステップS107とS108は、第1の実施例における処理と同様である。交代確率Pが0.0以上0.5未満の範囲に含まれる場合は、応答制御部240は、ユーザ発話を待って(ステップS108)、ステップS101へ戻る。
ステップS201において、応答制御部240は、交代確率Pが0.5以上0.7未満であるか否かを判断する。交代確率Pがこの範囲に含まれる場合は、「フィラー発声を行う」のみに属するので、応答制御部240は、フィラー発声を実行して(ステップS110)、ステップS101へ戻る。
ステップS201において、応答制御部240は、交代確率Pが0.7以上0.8未満であるか否かを判断する。交代確率Pがこの範囲に含まれる場合は、ステップS203へ進み、応答制御部240は、「フィラー発声のみを行う」、「応答発話のみを行う」、「フィラー発声と応答発話の両方を行う」の3つの中からランダムに1つを選択する。そして、「フィラー発声のみを行う」を選択した場合には、ステップS204(YES)を経由してステップS110へ進む。「応答発話のみを行う」を選択した場合には、ステップS204(NO)、S205(YES)を経由してステップS111へ進む。ステップS111で、応答制御部240は、応答発話データを生成して、発話の出力を実行する。発話の出力が終了したらステップS101へ戻る。
応答制御部240は、「フィラー発声と応答発話の両方を行う」を選択した場合には、ステップS204(NO)、S205(NO)を経由してステップS206へ進む。応答制御部240は、ステップS206でフィラー発声を実行し、続いてステップS207で応答発話の出力を実行して、ステップS101へ戻る。
以上のように本実施例によれば、対話の状況が判然としない場合に応答をランダムに変化させることで、機械的との印象を与えない、円滑な対話の実現を期待できる。また、フィラー発声に続けて応答発話の出力を実行した場合に、ユーザの発話と被ってしまうような状況においても、ユーザの発話と被るのはまずはフィラーであるので、対話に与える悪影響は相対的に小さいと言える。
次に、本実施形態にかかる第3の実施例を説明する。第1の実施例および第2の実施例で説明したフィラー発声は、発声した話者側に発話権があることを相手に仄めかす効果を期待できるので、交代確率Pが0.5以上の場合に適用することが好ましかった。しかし、対話ロボット100が入力発話の入力を待つべきとも出力発話の出力を実行すべきとも推定できないとする交代確率Pの範囲は、0.5未満の範囲を含みうる。交代確率Pが0.5未満である場合は、ユーザに発話を促すことが好ましいとも考えられる。
そこで、第3の実施例においては、ユーザに発話を促す処理を実行するために、「頷き動作」と「相槌」を導入する。図7は、第3の実施例における、対話ロボット100のシステム構成を示す図である。図2で示したシステム構成と同様の構成には同じ符番を付して、その説明を省略する。
図2のシステム構成と異なる点は、応答制御部240に接続された頷き動作部270と、出力生成部250に含まれる相槌生成部253と、相槌生成部253に接続された相槌DB340を更に備える点である。頷き動作部270は、モータを含み、これを駆動することにより頭部110を前後に揺動させ、ユーザに対話ロボット100が頷いたように見せる動作を実行する。
応答制御部240は、第3の実施例においては、交代確率Pの値に応じて「何も応答しない」「フィラー発声を行う」「応答発話を行う」に加えて、「相槌を発声する」も選択しうる。相槌は、ユーザが発話を継続しやすいように、次の発話を促す発声である。例えば、「うん」「そうだね」「それで?」などが挙げられる。これらの相槌は、再生可能な発声データとして、相槌DB340に格納されている。
相槌DB340は、例えばハードディスクドライブの記録媒体によって構成されている。相槌生成部253は、応答制御部240からの要求に従って相槌DB340に格納された発声データを例えばランダムに抽出することにより相槌を生成し、応答制御部240へ引き渡す。
図8は、第3の実施例における、応答決定テーブルを示す図である。第1の実施例では、交代確率Pが0.0以上0.5未満である場合に「何も応答しない」との1つの分類を割り当てたが、第3の実施例では、これを2つの分類に分ける。具体的には、図示するように、交代確率Pが0.0以上0.4未満である場合に、「何も応答しない」と決定し、交代確率Pが0.4以上0.5未満である場合に、「相槌を発声する」と決定する。交代確率Pが0.5以上0.8未満である場合に、「フィラー発声を行う」と決定し、交代確率Pが0.8以上1.0以下である場合に、「応答発話を行う」と決定することは、第1の実施例と同様である。
第3の実施例においては、発話入力部210による入力発話の入力を待つべきとも、発話出力部260による出力発話の出力を実行すべきとも推定できない範囲(第1範囲)を0.4以上0.8以下と定めている。また、ユーザが発話することを待つべきとする範囲(第2範囲)を0.0以上0.4未満と定め、対話ロボット100自身が発話をすべきとする範囲(第3範囲)を0.8以上1.0以下と定めている。その上で、第1範囲を、第2範囲に近い範囲(0.4以上0.5未満)と第3範囲に近い範囲(0.5以上0.8未満)とに分けている。そして、交代確率Pが、第1範囲に含まれるものの、第2範囲に近い範囲の値である場合に「相槌を発声する」を実行し、第1範囲に含まれるものの、第3範囲に近い範囲の値である場合に「フィラー発声する」を実行する。「相槌を発声する」は、「頷き動作を行う」を伴っても良いし、「頷き動作を行う」に代えても良い。
このように応答決定テーブルを定めた場合の処理について説明する。図9は、第3の実施例における、対話処理フローの特徴部を示す図である。第3の実施例における対話処理フローは、図4を用いて説明した処理とは応答選択の処理の部分が異なり、他の部分では同じであるので、異なる部分を説明する。また、図4と同じ処理については同じステップ番号を付して、具体的な説明については省略する。
応答制御部240は、まずステップS301で、交代確率Pが0.0以上0.4未満であるか否かを判断する。交代確率Pがこの範囲に含まれる場合は、ユーザ発話を待って(ステップS108)、ステップS101へ戻る。
応答制御部240は、ステップS302で、交代確率Pが0.4以上0.5未満であるか否かを判断する。交代確率Pがこの範囲に含まれる場合は、ステップS303へ進み、応答制御部240は、「相槌を発声する」と共に頷き動作を実行する。これらの処理が終了したらステップS101へ戻る。交代確率Pが0.5以上0.8未満、および0.8以上1.0以下の処理は、第1の実施例における処理と同様である。
以上のように本実施例によれば、対話ロボット100が入力発話の入力を待つべきとも出力発話の出力を実行すべきとも推定できない場合であって、ユーザに発話を促すことが好ましいとも考えられるような状況においても、相槌の発声と頷き動作により、円滑な対話の実現を期待できる。
次に第4の実施例について説明する。図10は、第4の実施例における、応答決定テーブルを示す図である。第4の実施例では、第2の実施例のように「フィラー発声を行う」と判断される交代確率Pの範囲と、「応答発話を行う」と判断される交代確率Pの範囲を、部分的に重複させ、更に、「何も応答しない」と判断される交代確率Pの範囲と、「相槌を発声する」と判断される交代確率Pの範囲を、部分的に重複させる。具体的には、交代確率Pが0.0以上0.4未満である場合に、「何も応答しない」と決定し、交代確率Pが0.3以上0.5以下である場合に、「相槌を発声する」と決定する。交代確率Pが0.5以上0.8未満である場合に、「フィラー発声を行う」と決定し、交代確率Pが0.7以上1.0以下である場合に、「応答発話を行う」と決定することは、第2の実施例と同様である。
すなわち、交代確率Pが0.3以上0.4未満である場合は、「何も応答しない」と「相槌を発声する」の、2つの分類に属するものとする。これは、交代確率Pが0.3以上0.4未満である場合の対話の状況が、何も応答しないことが良いと判断される場合と、相槌を発声することが良いと判断される場合とが混在する状況であると、実験的に明らかになってきたことに対応する処置である。交代確率Pが0.3以上0.4未満である場合は、応答制御部240は、「何も応答しない」と「相槌を発声する」のいずれかをランダムに選択して実行する。「相槌を発声する」を選択した場合の処理は、図9のステップS303と同様である。
なお、「相槌を発声する」は、ユーザに発話を促すことを目的とし、「フィラー発声を行う」は、発声した話者側に発話権があることを相手に仄めかすことを目的とするので、「相槌を発声する」と判断される交代確率Pの範囲と、「フィラー発声を行う」と判断される交代確率Pの範囲は、重複させないことが好ましい。以上のように本実施例によれば、対話の状況が判然としない場合に、交代確率Pの値を用いて応答に様々な変化を発生させることで、機械的との印象を与えない、円滑な対話の実現を期待できる。
次に第5の実施例について説明する。第5の実施例は、対話ロボット100としての装置構成は、第1の実施例と同様であり、応答決定テーブルにおける交代確率Pの範囲を動的に変更する点で第1の実施例と異なる。第1の実施例における応答決定テーブルは、図3に示す通りであるが、本実施例における応答決定テーブルでは、「フィラー発声を行う」と「応答発話を行う」との境界値である0.8を可変値Xpとする。なお、初期値は、0.8とする。
図11は、第5の実施例における、対話処理フローの特徴部を示す図である。第5の実施例における対話処理フローは、図4を用いて説明した処理とは応答選択の処理の部分が異なり、他の部分では同じであるので、異なる部分を説明する。また、図4と同じ処理については同じステップ番号を付して、具体的な説明については省略する。
交代確率Pが0.0以上0.5未満の処理であるステップS107とS108は、第1の実施例における処理と同様である。交代確率Pが0.0以上0.5未満の範囲に含まれる場合は、応答制御部240は、ユーザ発話を待つ(ステップS108)。そして、ステップS402へ進み、Xpに初期値であるXpを代入する。ここでは、Xpを上述のように0.8とする。その後、ステップS101へ戻る。なお、ステップS108とステップS402は、順序が逆であっても良い。
応答制御部240は、ステップS107で交代確率Pが0.0以上0.5未満に含まれないと判断した場合は、ステップS401へ進み、交代確率Pが0.5以上Xp未満であるか否かを判断する。この範囲に含まれると判断したら、ステップS110へ進み、フィラー発声を実行する。フィラー発声を終了したらステップS403へ進み、現在のXpの値から0.1減らし、新たなXpの値に更新する。そして、ステップS101へ戻る。なお、ステップS110とステップS403は、順序が逆であっても良い。
応答制御部240は、ステップS401で交代確率Pが0.5以上Xp未満に含まれないと判断した場合は、ステップS111へ進み、発話の出力を実行する。発話の出力が終了したらステップS404へ進み、Xpに初期値であるXpを代入する。その後、ステップS101へ戻る。なお、ステップS111とステップS404は、順序が逆であっても良い。
このような処理フローによれば、処理がループされてフィラー発声を行うたびに、ステップS110へ導かれる条件である交代確率Pの範囲が狭くなり、ステップS111の発話出力が実行される可能性がより大きくなる。換言すれば、推定部230は、ユーザの発話や対話ロボット100の応答対話が行われることなくフィラー発声を続けた場合は、発話出力を実行すべきと推定する度合いを高くしていると言える。これにより、対話においてフィラーばかりが発声されるような、違和感のある状況を回避することが期待できる。なお、Xpを更新した結果0.5以下になる場合は、下限値として0.5に固定する。この場合、フィラー発声が事実上禁止されることになる。また、減ずる値は0.1に限らず、他の値に調整しても良い。また、交代確率Pの範囲を調整するのではなく、フィラー発声を行った回数をカウントする変数を設定し、これが予め定められた回数に達した場合に、フィラー発声を禁止するように構成しても良い。
次に第6の実施例について説明する。第6の実施例は、対話ロボット100としての装置構成は、第1の実施例と同様であり、応答決定テーブルにおける交代確率Pの範囲を動的に変更する点で第1の実施例と異なる。第1の実施例における応答決定テーブルは、図3に示す通りであるが、本実施例における応答決定テーブルでは、「何も応答しない」と「フィラー発声を行う」との境界値である0.5を可変値Xqとする。なお、初期値は、0.5とする。
図12は、第6の実施例における、対話処理フローの特徴部を示す図である。第6の実施例における対話処理フローは、図4を用いて説明した処理とは応答選択の処理の部分が異なり、他の部分では同じであるので、異なる部分を説明する。また、図4と同じ処理については同じステップ番号を付して、具体的な説明については省略する。
応答制御部240は、ステップS501で交代確率Pが0.0以上Xq未満であるか否かを判断する。交代確率Pが0.0以上Xq未満の範囲に含まれる場合は、応答制御部240は、ユーザ発話を待つ(ステップS108)。そして、ステップS505へ進み、Xqに初期値であるXqを代入する。ここでは、Xqを上述のように0.5とする。その後、ステップS101へ戻る。なお、ステップS108とステップS505は、順序が逆であっても良い。
応答制御部240は、ステップS501で交代確率Pが0.0以上Xq未満に含まれないと判断した場合は、ステップS502へ進み、交代確率PがXq以上0.8未満であるか否かを判断する。この範囲に含まれると判断したら、ステップS110へ進み、フィラー発声を実行する。応答制御部240は、フィラー発声を行っている間にユーザ発話と被ったか否かを判断する(ステップS503)。具体的には、例えば、発話入力部210のAD変換出力を監視して判断する。被ったと判断したらステップS504へ進み、ステップS504で、現在のXqの値に0.1を加え、新たなXqの値に更新する。そして、ステップS101へ戻る。被っていないと判断したらステップS505へ進み、Xqに初期値であるXqを代入する。
応答制御部240は、ステップS502で交代確率PがXq以上0.8未満に含まれないと判断した場合は、ステップS111へ進み、発話の出力を実行する。発話の出力が終了したらステップS505へ進み、Xqに初期値であるXqを代入する。その後、ステップS101へ戻る。なお、ステップS111とステップS505は、順序が逆であっても良い。
このような処理フローによれば、処理がループされてフィラー発声とユーザ発話が被るたびに、ステップS110へ導かれる条件である交代確率Pの範囲が狭くなり、ステップS108の処理である「何も応答しない」が実行される可能性がより大きくなる。換言すれば、フィラー発声中にユーザの発話を検知した場合は、ユーザの発話を待つべきと推定する度合いを高くしている。すなわち、対話においてフィラー発声とユーザ発話が被ることが続く状況は、互いに発話権を主張し合うような状況であるので、これを回避すべく、対話ロボット100は、ユーザがより発話しやすいように「何も応答しない」の割合を大きくする。このような処理により、対話が詰まるような状況を回避することが期待できる。なお、Xqを更新した結果0.8以上になる場合は、上限値として0.8に固定する。この場合、フィラー発声が事実上禁止されることになる。また、加える値は0.1に限らず、他の値に調整しても良い。また、交代確率Pの範囲を調整するのではなく、フィラー発声とユーザ発話が被った回数をカウントする変数を設定し、これが予め定められた回数に達した場合に、フィラー発声を禁止するように構成しても良い。
以上に説明した第5の実施例と第6の実施例は、それぞれ第1の実施例をベースとして説明したが、適宜数値を調整して第2から第4の実施例と組み合わせても良い。また、第5の実施例と第6の実施例を組み合わせても良い。
また、第3の実施例と第4の実施例においては、相槌発声と頷き動作を共に実行するものとして説明したが、いずれか一方の動作を実行させるように構成しても良い。頷き動作の処理を省くのであれば、頷き動作部270を除いても良い。また、第3の実施例と第4の実施例においては、応答決定テーブルに「相槌を発声する」交代確率Pの範囲と「フィラー発声を行う」交代確率Pの範囲をそれぞれ設けたが、「フィラー発声を行う」交代確率Pの範囲を省いても良い。この場合は、「応答発話を行う」交代確率Pの範囲を、0.5以上1.0以下とすれば良い。
以上に説明した実施態様においては、音声対話装置として対話ロボット100を説明した。しかし、音声対話装置は、人型を模したような立体構造を有していなくても良く、様々な実施態様を採用し得る。図13は、他の実施態様にかかるスマートフォン700の外観を示す図である。
スマートフォン700は、スマートフォンとしての通常の機能に加え、音声対話装置としての機能も発揮する。スマートフォン700は、表示部710、マイク711、およびスピーカ712を備える。マイク111は、対話ロボット100のマイク111と同様に機能し、スピーカ712は、対話ロボット100のスピーカ112と同様に機能する。また、スマートフォン700は、図2に示すシステム構成を内蔵する。
応答制御部240は、表示部710に、例えばロボットを表現したキャラクタ800をCGとして表示しても良い。キャラクタ800は、対話ロボット100のように、頭部810と体部820を有し、応答制御部240は、頷き動作を実行させる場合に、頭部810を前後に揺動するアニメーションを表示する。
また、応答制御部240は、表示部710に吹出し870を表示し、フィラー発声と応答発話をテキストとしてユーザに知らせても良い。この場合、スピーカ712から音として出力する機能を停止させても良い。
以上に説明した各実施態様においては、推定値として交代確率Pを算出した。しかし、受け取った物理的特徴量としての韻律に基づいて、ユーザからの発話を待つべきか、自身が発話すべきかを推定する推定手法は、推定値として数値を利用する手法に限らない。例えば、受け取った物理的特徴量としての韻律に基づいて、「何も応答しない」「フィラー発声を行う」「応答発話を行う」「相槌を発声する」の4つのグループのひとつを直接的に出力するものであっても良い。それぞれのグループをクラスと捉え、入力する韻律がいずれのクラスに属するかを深層学習などの手法を用いて演算することもできる。
以上に説明した各実施態様においては、対話ロボット100あるいはスマートフォン700が、図2または図7に示すシステム構成を備えるものとして説明したが、一部の構成が外部機器に存在し、通信によって外部から情報を取得する構成であっても良い。例えば、韻律DB310、フィラーDB320、発話DB330、相槌DB340の各データベースは、外部機器として構成された供用のデータベースであっても良い。対話ロボット100あるいはスマートフォン700は、必要に応じて、通信機能を利用して当該データベースに必要な情報を要求する。このように、大容量の記録媒体を必要とするデータベースを外部に備えれば、音声対話装置としてのシステム構成をより簡易に最適化することができる。
100 対話ロボット、110 頭部、111 マイク、112 スピーカ、120 体部、210 発話入力部、220 解析部、230 推定部、240 応答制御部、250 出力生成部、251 フィラー生成部、252 応答生成部、253 相槌生成部、260 発話出力部、270 頷き動作部、310 韻律DB、320 フィラーDB、330 発話DB、340 相槌DB、700 スマートフォン、710 表示部、711 マイク、712 スピーカ、800 キャラクタ、810 頭部、820 体部、870 吹出し

Claims (7)

  1. ユーザの発話である入力発話を入力する入力部と、前記ユーザへの発話である出力発話を出力する出力部とを有する音声対話装置であって、
    前記入力部が入力した前記入力発話に基づいて、前記入力部による前記入力発話の入力を待つべきか、前記出力部による前記出力発話の出力を実行すべきかを推定する推定部と、
    前記推定部が、前記入力部による前記入力発話の入力を待つべきとも、前記出力部による前記出力発話の出力を実行すべきとも推定できなかった場合に、対話内容とは関係の無い繋ぎ発声であるフィラーを前記出力部に出力させるフィラー出力、および疑似頭部を前後させる頷き動作の少なくともいずれかを実行して応答する応答制御部と
    を備える音声対話装置。
  2. 前記入力部が入力した前記入力発話の韻律を解析する解析部を備え、
    前記推定部は、前記解析部が解析した前記韻律に基づいて、前記入力部による前記入力発話の入力を待つべきか、前記出力部による前記出力発話の出力を実行すべきかを推定する請求項1に記載の音声対話装置。
  3. 前記推定部は、前記解析部が解析した前記韻律に基づいて、前記入力部による前記入力発話の入力を待つべきか、前記出力部による前記出力発話の出力を実行すべきかを推定する推定値を演算し、
    前記応答制御部は、前記推定部が演算した前記推定値が、前記入力部による前記入力発話の入力を待つべきとも、前記出力部による前記出力発話の出力を実行すべきとも推定されない所定範囲に含まれる場合に、前記フィラー出力および前記頷き動作の少なくともいずれかを実行して応答する請求項2に記載の音声対話装置。
  4. 前記応答制御部は、推定値が、前記推定値を前記出力発話の出力を実行すべき確率として表した場合の前記所定範囲に前記含まれる場合であって、前記所定範囲に設定される第1閾値よりも小さい場合には前記頷き動作を実行して応答し、前記所定範囲に設定され、前記第1閾値以上の値に設定される第2閾値よりも大きい場合には前記フィラー出力を実行して応答する請求項3に記載の音声対話装置。
  5. 前記推定部は、前記出力部による前記出力発話の出力を実行することなく前記応答制御部が前記フィラー出力を続けて実行した場合は、前記出力発話の出力を実行すべきと推定する度合いを高くする請求項1から4のいずれか1項に記載の音声対話装置。
  6. 前記推定部は、前記フィラー出力の実行中に前記入力部が前記入力発話を入力したことを検知した場合は、前記入力発話の入力を待つべきと推定する度合いを高くする請求項1から5のいずれか1項に記載の音声対話装置。
  7. ユーザの発話である入力発話を入力する入力部と、前記ユーザへの発話である出力発話を出力する出力部とを有する音声対話装置を用いた自動対話方法であって、
    前記入力部が入力した前記入力発話に基づいて、前記入力部による前記入力発話の入力を待つべきか、前記出力部による前記出力発話の出力を実行すべきかを推定する推定ステップと、
    前記推定ステップで、前記入力部による前記入力発話の入力を待つべきとも、前記出力部による前記出力発話の出力を実行すべきとも推定できなかった場合に、対話内容とは関係の無い繋ぎ発声であるフィラーを前記出力部に出力させるフィラー出力、および疑似頭部を前後させる頷き動作の少なくともいずれかを実行して応答する応答ステップと
    を含む自動対話方法。
JP2016173862A 2016-09-06 2016-09-06 音声対話装置および音声対話装置を用いた自動対話方法 Active JP6461058B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016173862A JP6461058B2 (ja) 2016-09-06 2016-09-06 音声対話装置および音声対話装置を用いた自動対話方法
CN201710785845.XA CN107798055B (zh) 2016-09-06 2017-09-04 语音交互设备和使用语音交互设备的自动交互方法
US15/695,090 US10339930B2 (en) 2016-09-06 2017-09-05 Voice interaction apparatus and automatic interaction method using voice interaction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173862A JP6461058B2 (ja) 2016-09-06 2016-09-06 音声対話装置および音声対話装置を用いた自動対話方法

Publications (2)

Publication Number Publication Date
JP2018040897A true JP2018040897A (ja) 2018-03-15
JP6461058B2 JP6461058B2 (ja) 2019-01-30

Family

ID=61282134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173862A Active JP6461058B2 (ja) 2016-09-06 2016-09-06 音声対話装置および音声対話装置を用いた自動対話方法

Country Status (3)

Country Link
US (1) US10339930B2 (ja)
JP (1) JP6461058B2 (ja)
CN (1) CN107798055B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6420514B1 (ja) * 2018-04-04 2018-11-07 一般社団法人It&診断支援センター・北九州 会話ロボット
CN109514573A (zh) * 2018-12-15 2019-03-26 东莞理工学院 一种可对儿童进行诱导说话的机器人
JP2019197182A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 音声対話システム、音声対話方法及びプログラム
JP2020034835A (ja) * 2018-08-31 2020-03-05 国立大学法人京都大学 音声対話システム、音声対話方法、プログラム、学習モデル生成装置及び学習モデル生成方法
JP2020134545A (ja) * 2019-02-13 2020-08-31 ヤフー株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2021051172A (ja) * 2019-09-24 2021-04-01 学校法人早稲田大学 対話システムおよびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6633008B2 (ja) * 2017-02-01 2020-01-22 ファーハット ロボティクス エービー 音声対話装置及び音声対話方法
JP6696923B2 (ja) * 2017-03-03 2020-05-20 国立大学法人京都大学 音声対話装置、その処理方法及びプログラム
CN110653815B (zh) * 2018-06-29 2021-12-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN109378001A (zh) * 2018-12-27 2019-02-22 北京猎户星空科技有限公司 一种语音交互方法、装置、电子设备及可读存储介质
US11749265B2 (en) * 2019-10-04 2023-09-05 Disney Enterprises, Inc. Techniques for incremental computer-based natural language understanding
KR20210050901A (ko) * 2019-10-29 2021-05-10 엘지전자 주식회사 음성 인식 방법 및 음성 인식 장치
US11984124B2 (en) * 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196134A (ja) * 2003-12-12 2005-07-21 Toyota Central Res & Dev Lab Inc 音声対話システム及び方法並びに音声対話プログラム
US20050182618A1 (en) * 2004-02-18 2005-08-18 Fuji Xerox Co., Ltd. Systems and methods for determining and using interaction models
JP2014191029A (ja) * 2013-03-26 2014-10-06 Fuji Soft Inc 音声認識システムおよび音声認識システムの制御方法
JP2017106989A (ja) * 2015-12-07 2017-06-15 ヤマハ株式会社 音声対話装置およびプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020077826A1 (en) * 2000-11-25 2002-06-20 Hinde Stephen John Voice communication concerning a local entity
US20030061029A1 (en) * 2001-08-29 2003-03-27 Efraim Shaket Device for conducting expectation based mixed initiative natural language dialogs
KR100580619B1 (ko) * 2002-12-11 2006-05-16 삼성전자주식회사 사용자와 에이전트 간의 대화 관리방법 및 장치
US8645122B1 (en) * 2002-12-19 2014-02-04 At&T Intellectual Property Ii, L.P. Method of handling frequently asked questions in a natural language dialog service
US20060122840A1 (en) * 2004-12-07 2006-06-08 David Anderson Tailoring communication from interactive speech enabled and multimodal services
WO2006069381A2 (en) * 2004-12-22 2006-06-29 Enterprise Integration Group Turn-taking confidence
US8340971B1 (en) * 2005-01-05 2012-12-25 At&T Intellectual Property Ii, L.P. System and method of dialog trajectory analysis
US8085927B2 (en) * 2005-04-15 2011-12-27 Avaya Inc. Interactive voice response system with prioritized call monitoring
US20070015121A1 (en) * 2005-06-02 2007-01-18 University Of Southern California Interactive Foreign Language Teaching
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP5051882B2 (ja) 2007-06-20 2012-10-17 学校法人早稲田大学 音声対話装置、音声対話方法及びロボット装置
CN101187990A (zh) * 2007-12-14 2008-05-28 华南理工大学 一种会话机器人系统
US8275803B2 (en) * 2008-05-14 2012-09-25 International Business Machines Corporation System and method for providing answers to questions
US8380503B2 (en) * 2008-06-23 2013-02-19 John Nicholas and Kristin Gross Trust System and method for generating challenge items for CAPTCHAs
US8843372B1 (en) * 2010-03-19 2014-09-23 Herbert M. Isenberg Natural conversational technology system and method
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
KR20120054845A (ko) * 2010-11-22 2012-05-31 삼성전자주식회사 로봇의 음성인식방법
US9245525B2 (en) * 2011-01-05 2016-01-26 Interactions Llc Automated speech recognition proxy system for natural language understanding
EP2839391A4 (en) * 2012-04-20 2016-01-27 Maluuba Inc CONVERSATION AGENT
US20140036023A1 (en) * 2012-05-31 2014-02-06 Volio, Inc. Conversational video experience
US9576574B2 (en) * 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9443521B1 (en) * 2013-02-14 2016-09-13 Sociometric Solutions, Inc. Methods for automatically analyzing conversational turn-taking patterns
DK2994908T3 (da) * 2013-05-07 2019-09-23 Veveo Inc Grænseflade til inkrementel taleinput med realtidsfeedback
US9318113B2 (en) * 2013-07-01 2016-04-19 Timestream Llc Method and apparatus for conducting synthesized, semi-scripted, improvisational conversations
JP6270661B2 (ja) 2014-08-08 2018-01-31 国立大学法人京都大学 音声対話方法、及び音声対話システム
US10366689B2 (en) * 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
CN105070290A (zh) * 2015-07-08 2015-11-18 苏州思必驰信息科技有限公司 人机语音交互方法及系统
US9728191B2 (en) * 2015-08-27 2017-08-08 Nuance Communications, Inc. Speaker verification methods and apparatus
US10949748B2 (en) * 2016-05-13 2021-03-16 Microsoft Technology Licensing, Llc Deep learning of bots through examples and experience
US10713317B2 (en) * 2017-01-30 2020-07-14 Adobe Inc. Conversational agent for search

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196134A (ja) * 2003-12-12 2005-07-21 Toyota Central Res & Dev Lab Inc 音声対話システム及び方法並びに音声対話プログラム
US20050182618A1 (en) * 2004-02-18 2005-08-18 Fuji Xerox Co., Ltd. Systems and methods for determining and using interaction models
JP2014191029A (ja) * 2013-03-26 2014-10-06 Fuji Soft Inc 音声認識システムおよび音声認識システムの制御方法
JP2017106989A (ja) * 2015-12-07 2017-06-15 ヤマハ株式会社 音声対話装置およびプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6420514B1 (ja) * 2018-04-04 2018-11-07 一般社団法人It&診断支援センター・北九州 会話ロボット
JP2019184694A (ja) * 2018-04-04 2019-10-24 一般社団法人It&診断支援センター・北九州 会話ロボット
JP2019197182A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 音声対話システム、音声対話方法及びプログラム
JP2020034835A (ja) * 2018-08-31 2020-03-05 国立大学法人京都大学 音声対話システム、音声対話方法、プログラム、学習モデル生成装置及び学習モデル生成方法
JP7063779B2 (ja) 2018-08-31 2022-05-09 国立大学法人京都大学 音声対話システム、音声対話方法、プログラム、学習モデル生成装置及び学習モデル生成方法
CN109514573A (zh) * 2018-12-15 2019-03-26 东莞理工学院 一种可对儿童进行诱导说话的机器人
JP2020134545A (ja) * 2019-02-13 2020-08-31 ヤフー株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP7085500B2 (ja) 2019-02-13 2022-06-16 ヤフー株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2021051172A (ja) * 2019-09-24 2021-04-01 学校法人早稲田大学 対話システムおよびプログラム
JP7274210B2 (ja) 2019-09-24 2023-05-16 学校法人早稲田大学 対話システムおよびプログラム

Also Published As

Publication number Publication date
JP6461058B2 (ja) 2019-01-30
CN107798055A (zh) 2018-03-13
US20180068660A1 (en) 2018-03-08
US10339930B2 (en) 2019-07-02
CN107798055B (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
JP6461058B2 (ja) 音声対話装置および音声対話装置を用いた自動対話方法
JP6510484B2 (ja) 音声/テキスト変換の触覚による拡張を目的とするシステムと方法
US9653097B2 (en) Sound output device, network system, and sound output method
US11367443B2 (en) Electronic device and method for controlling electronic device
US20180294001A1 (en) Voice Interaction Apparatus and Voice Interaction Method
JP6585733B2 (ja) 情報処理装置
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
JP5431282B2 (ja) 音声対話装置、方法、プログラム
JP2002169590A (ja) 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2013186228A (ja) 音声認識処理装置及び音声認識処理方法
EP4207805A1 (en) Electronic device and control method thereof
JPH09269889A (ja) 対話装置
CN113287117A (zh) 交互系统和方法
JP6569588B2 (ja) 音声対話装置およびプログラム
JP6728660B2 (ja) 音声対話方法、音声対話装置およびプログラム
JP6657887B2 (ja) 音声対話方法、音声対話装置およびプログラム
JP6657888B2 (ja) 音声対話方法、音声対話装置およびプログラム
JP7143579B2 (ja) 音声入力装置
JP6755509B2 (ja) 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム
JP2021022883A (ja) 音声増幅装置及びプログラム
KR102562180B1 (ko) 웨어러블 음향 변환 장치
WO2017098940A1 (ja) 音声対話装置および音声対話方法
KR20220120197A (ko) 전자 장치 및 그의 제어 방법
WO2021064948A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2005265982A (ja) 同調度検出装置および同調度検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181225

R150 Certificate of patent or registration of utility model

Ref document number: 6461058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250