JP6633250B2 - 対話ロボットおよび対話システム、並びに対話プログラム - Google Patents

対話ロボットおよび対話システム、並びに対話プログラム Download PDF

Info

Publication number
JP6633250B2
JP6633250B2 JP2019521492A JP2019521492A JP6633250B2 JP 6633250 B2 JP6633250 B2 JP 6633250B2 JP 2019521492 A JP2019521492 A JP 2019521492A JP 2019521492 A JP2019521492 A JP 2019521492A JP 6633250 B2 JP6633250 B2 JP 6633250B2
Authority
JP
Japan
Prior art keywords
user
information
server
unit
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019521492A
Other languages
English (en)
Other versions
JPWO2018230345A1 (ja
Inventor
三則 福地
三則 福地
Original Assignee
株式会社Caiメディア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Caiメディア filed Critical 株式会社Caiメディア
Publication of JPWO2018230345A1 publication Critical patent/JPWO2018230345A1/ja
Application granted granted Critical
Publication of JP6633250B2 publication Critical patent/JP6633250B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Manipulator (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Collating Specific Patterns (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Machine Translation (AREA)

Description

本発明は、対話型ロボットを用いた技術に関し、より詳しくは、使用者の表情を伺いながら能動的に様々なパターンの音声で対話することが可能な対話ロボット、対話システムおよび対話プログラムに関する。
情報手段の進歩により、海外の人々と外国語でコミュニケーションを取る機会が増えている。また、輸送手段の進歩により海外に気軽に旅行に行ける時代となり、旅行先の国の言葉を理解したり、話したりする機会も増えている。従って、英語をはじめとする外国語の習得、特に会話力の習得は、年代を問わず重要である。
近年ではインターネットを始めとする通信技術の発達に伴い、ネットワークを介して疑似的に会話を行う技術が種々提案されている。
例えば特許文献1では、豊富な応答文を蓄積させた対話型ロボットや、このロボットをコンピューターと接続することによりロボットのほかにキャラクターと対話することができる対話システムが提案されている。
一方で、例えば特許文献2では、コンピューターを用いた英会話の学習支援システムにおいて、ユーザ(10)の情報を管理しているメタエージェント(11)と、前記ユーザ(10)に指導を行なう各担当別の教師エージェント(13)とを有することを特徴とする学習支援システムが提案されている。
特許第3958253号 特開2002−304114号公報
しかしながら、上述した特許文献1や特許文献2に限らず現在の技術では市場のニーズを適切に満たしているとは言えず、以下に述べるごとき種々の課題が存在する。
すなわち、ネットワークを介した疑似的な会話システムを実現する場合、対話する相手は仮想現実の人物であるため、生身の人間と異なって非日常的な雰囲気がどうしても出てしまう。
例えば特許文献2では、コンピューターの画面上のキャラクターと対話するだけであるため現実性に乏しく、特にユーザーがこどもの場合は興味を示しにくいといった問題がある。
一方で特許文献1では、対話型ロボットや他のキャラクターとの会話が可能である点において趣向性が高く飽きにくいものの、主として音声でのみユーザーとの間で会話を行っているため単調な会話となってしまう感は否めない。
本来、人間同士での会話という行為は、自然に対話が進んで話者同士の感情変化などによっても変化し得るものである。この点において例えば特許文献2で提案されている対話型ロボットを高性能化して膨大な情報を持たせれば、より人間的な対話が実現し得るものの処理動作が遅延する恐れがあり、さらにはロボット自体の価格が非常に高価なものとなってしまう。
このように上記した特許文献を含む従来技術においては、費用がかさまずにユーザーとの間で自然な(あたかも人間同士が会話するような生き生きとした)会話が実現できるレベルのものはなく、まだまだ改善の余地は大きい。
そして上記した英会話などの語学学習に限られず、例えば介護や娯楽などで使用者との間で対話を行うシステムのニーズは将来的に益々増加することが予想される。
本発明は、上記した問題を一例に鑑みて為され、ユーザーとの間で自然な対話が実現できる対話ロボットおよび対話システム、並びに対話プログラムを提供することを目的とする。
上記課題を解決するため、本発明の一実施形態に係る外国語会話ロボットは、(1)ネットワーク上のサーバと通信回線を介して接続されて、ユーザーとの間で外国語会話を行う外国語会話ロボットであって、前記ユーザーの顔面を撮像する撮像部と、前記ユーザーが発した発話音声を認識する音声認識部と、前記ユーザーに対して発話する発声部と、前記通信回線を介して前記顔面に関する顔面情報及び前記音声認識部が認識した音声情報を前記サーバへ送信するユーザー情報送信部と、前記サーバから外国語の応答文情報を受信する応答文情報受信部と、を具備し、前記ユーザー情報送信部は、前記撮像部が撮像した前記顔面情報を前記サーバに送信し、i)前記顔面情報に基づいて前記サーバで前記ユーザーが未登録であると特定した場合に、当該サーバが生成した前記ユーザーの氏名を外国語で質問する氏名質問を含む前記応答文情報を前記応答文情報受信部が受信し、ii)前記顔面情報に基づいて前記サーバで前記ユーザーが登録であると特定した場合に、当該サーバが生成した当該ユーザーの氏名を含む外国語の前記応答文情報を前記応答文情報受信部が受信し、前記発声部は、前記ユーザーが登録済か否かに応じて、当該ユーザーに対して前記氏名質問又は前記ユーザーの氏名を含むスタート発話を外国語で前記ユーザーに対して行い、前記ユーザー情報送信部は、前記音声認識部が認識した前記スタート発話に対する前記ユーザーの発話した外国語の音声情報を前記サーバに送信し、前記ユーザーが登録済の場合には前記ユーザーの学習履歴を反映した外国語の前記応答文情報が前記応答文情報受信部で受信されるとともに、前記ユーザーが未登録の場合には新たに学習の履歴がデータベースに蓄積されることを特徴とする。
さらに上記した課題を解決するため、本発明の一実施形態に係る外国語会話システムは、(2)上記(1)に記載の外国語会話ロボットと、前記サーバと、を含む外国語会話システムであって、前記サーバは、前記ユーザーごとに個別に管理されたデータベースを含み、前記データベースに前記ユーザーとの間の対話に関する情報が記録されることを特徴とする。
また、上記(2)に記載の外国語会話システムにおいては、(3)前記サーバは、前記ユーザー情報送信部から受信した前記ユーザーの発話に関する音声情報をテキスト化し、当該テキスト化した音声情報とデータベース内の応答文情報とのマッチングを行い、当該マッチングに基づく適切な応答文を含む前記応答文情報を前記応答文情報受信部へ送信し、前記外国語会話ロボットは、受信した前記応答文を含む応答文情報に基づいて、前記発声部を介して前記ユーザーに対して発話することが好ましい。
また、上記(3)に記載の外国語会話システムにおいては、(4)前記撮像部は、前記応答文に対する返答中の前記ユーザーを撮像し、前記ユーザー情報送信部は、前記応答文に対して発話した前記ユーザーの音声情報と共に、前記撮像部が撮像した前記返答中の前記ユーザーの画像情報を前記サーバに送信し、前記サーバは、前記ユーザー情報送信部から受信した前記ユーザーの画像情報に基づいて前記ユーザーの表情を判定し、当該表情の判定結果に基づいて内容を変化させた次の応答文を含む前記応答文情報を前記応答文情報受信部へ送信することが好ましい。
また、上記(3)又は(4)に記載の外国語会話システムにおいては、(5)前記サーバは、会話レベルを決定するためのレベル決定用質問を含む応答文情報を前記応答文情報受信部へ送信し、前記外国語会話ロボットは、受信した前記レベル決定用質問を含む応答文を、前記発声部を介して前記ユーザーに対して発声し、前記ユーザーが発した前記レベル決定用質問に対する返答に基づいて前記会話レベルが決定され、前記決定した会話レベルに基づいて前記サーバで前記データベース内の応答文が選択されて前記応答文情報受信部へ送信されることが好ましい。
さらに上記した課題を解決するため、本発明の一実施形態に係る外国語対話プログラムは、外国語会話ロボット又はサーバに、撮像部を用いてユーザーの顔面を撮像させ、撮像された前記ユーザーの顔面に関する情報をサーバに通信回線を介して送信させ、前記顔面に関する情報に基づいて前記ユーザーが未登録であるか特定させ、i)未登録であった場合に前記ユーザーの氏名を外国語で質問する氏名質問を含む外国語の応答文情報を生成させるとともに、ii)登録済であった場合に前記ユーザーの氏名を含む外国語の応答文情報を生成させ、発声部を用いて前記ユーザーに対して前記応答文情報に基づく外国語のスタート発話として発声させ、音声認識部を用いて前記スタート発話に対する前記ユーザーの外国語による発話を音声認識させ、前記音声認識させた前記ユーザーの発話を前記サーバに前記通信回線を介して送信させ、前記ユーザーが登録済の場合には前記ユーザーの学習履歴を反映した外国語の前記応答文情報が前記応答文情報受信部で受信されるとともに、前記ユーザーが未登録の場合には新たに学習の履歴がデータベースに蓄積されることを特徴とする。
本発明によれば、比較的安価な費用で対話ロボットとの対話を行うことができるとともに、この対話ロボットと初めて対話を行うユーザーが自然な形で対話をスタートさせることができ、幅広い年齢層に興味を持って飽きさせずに対話する機会を提供することができる。
第1実施形態の対話システム100の全体構成を示す模式図である。 第1実施形態の対話ロボット10の構成を示す機能ブロック図である。 第1実施形態のサーバ20の構成を示す機能ブロック図である。 第1実施形態の英会話における初期動作を説明するフローチャートである。 第1実施形態における会話内容を決定するフローチャートである。 第2実施形態の対話システム100´の全体構成を示す模式図である。 変形例におけるレベル設定の動作フローを説明するフローチャートである。 変形例におけるレベル設定の動作フローを説明するフローチャートである。
以下では、本発明を実施するための実施形態について、ユーザーがネットワークNを介したサーバ及び対話ロボットと英会話を行う例を説明する。しかしながら本発明は下記に限定されず、例えば英会話だけでなく他の言語による会話でもよいし、複数台の対話ロボットを用いた例であってもよい。また、本実施形態は、下記のごとき語学学習に限られず、介護や娯楽分野でも対話ロボットとして適用が可能である。
≪第1実施形態≫
<対話システム100>
図1は、実施形態に係る対話システム100全体の構成を示す模式図である。
本実施形態に係る対話システム100は、対話ロボット10、及びサーバ20を含んで構成されている。そして対話ロボット10とサーバ20とは、インターネットなどのネットワークNを介して互いに通信可能となるように接続されている。そしてユーザーUは、語学習得などを目的として、サーバ20と通信可能に接続された対話ロボット10に対して英会話を行う。
このように本実施形態の対話システム100は、ユーザーUの英会話を行うための英会話システムとして機能としている。
詳細は後述するが、この対話システム100では以下のように情報処理が行われる。すなわち、まずユーザーUの発話音声は対話ロボット10の音声認識部を経てインターネット経由でサーバ20へ送られる。このサーバ20では、音声変換エンジンによって発話音声がテキスト化される。その後、このテキスト化された発話音声と会話文データベースとのマッチングが行われ、この発話音声に対する最適な応答文が選ばれ、その選ばれた文は音声化エンジンで音声化され、対話ロボット10に送り込まれて対話ロボット10が発話する仕組みとなっている。
なお、後述するとおり、対話システム100は更に情報処理端末50を含んでいてもよい。この場合には、例えばユーザーUは、対話ロボット10だけでなく、情報処理端末50の画面に表示された仮想人物(PC上のキャラクター)も含めた複数人との会話を実行することができる。このPC上のキャラクターについては、上記した特許第3958253号を参照して本実施形態の趣旨に沿った形式で適宜組み入れてもよい。
以下、本実施形態の対話システム100の各構成について詳細に説明する。
<対話ロボット10>
まず図2を用いて本実施形態の対話ロボット10の構成および機能を詳述する。
本実施形態の対話ロボット10は、ネットワークN(例えばインターネット)上のサーバ20と通信回線を介して接続されて、ユーザーUとの間で英会話を行うロボットである。そして本実施形態の対話ロボット10は、例えばユーザーUと英語で対話することができる小鳥の形態を有するロボットである。
同図に示すとおり、この小鳥型の対話ロボット10は、撮像部11、音声認識部12、発声部13、通信インターフェース14(ユーザー情報送信部14a、応答文情報受信部14b)、ROM/RAM部15、および電源16を含んで構成されている。
なお、対話ロボット10は、後述するサーバ20における統括制御部38の機能の一部を、制御部17として含んでいてもよい。この場合における制御部17の具体例としては、公知のCPUなどのプロセッサーが例示できる。
撮像部11は、ユーザーUの顔面などを撮像する機能を有している。撮像部11の具体例としては、CCDやCMOSなどの画像センサーが搭載されたカメラが例示できる。なお本実施形態では小鳥型の対話ロボット10の額部周辺にカメラが搭載されているが、例えば小鳥の目が撮像部11となっていてもよい。小鳥の目が撮像部11となる場合には、例えば可動式のマブタでレンズ表面を任意のタイミング(例えばユーザーUを撮像するトリガーとして)でカバーするようにしてもよい。
音声認識部12は、不図示の集音機(マイクなど)を介してユーザーUが発した発話音声(話し言葉)を抽出し、この抽出した発話音声をコンピューターが認識可能な文字列として変換する機能を有している。なお、この音声認識部12が行う音声認識のアルゴリズムについては特に制限はなく、例えば音響モデルを利用した統計的手法や、あるいは隠れマルコフモデルなどに基づく公知のアルゴリズムを適用できる。かような音声認識は、公知の種々のソフトウェアを適用することもできる。さらに音声認識における他の構成例としては、例えば特許3968133号、特許3361732号など公知の音声認識技術を適用してもよい。
発生部13は、ユーザーUに対して発話する機能を有している。本実施形態における発生部13はスピーカであり、例えば小鳥型の対話ロボット10の腹部付近に搭載されている。
後述するとおり、サーバ20において生成された応答文情報などに基づく発話が、この当該発生部13を介して行われる。
通信インターフェース14は、ネットワークN(例えばインターネット)などの通信回線を介して他の端末と各種のデータを送受信する機能を有しており、本実施形態ではユーザー情報送信部14aと応答文情報受信部14bが含まれている。
このうち、ユーザー情報送信部14aは、ユーザーUに関する情報を上記通信回線によって送信する機能を備えている。なお、「ユーザーUに関する情報」としては、例えば撮像部11が取得したユーザーUを識別するための情報(顔面(表情)に関する画像情報や身体によるジェスチャーなどの画像情報など)や、音声認識部12が取得したユーザーUの発話(発声)情報などが含まれる。
一方で応答文情報受信部14bは、後述するサーバ20が生成した応答文情報を上記通信回線によって受信する機能を備えている。
ROM/RAM部15は、各種の情報を記録保持する機能を備えている。なお、この「各種の情報」としては、例えば撮像部11や音声認識部12が取得した情報や、通信インターフェース14を介して受信した情報などが含まれる。本実施形態のROM/RAM部15の具体例としては、例えばEEPROM、フラッシュメモリなどの不揮発性メモリ、SRAMやDRAMなどの揮発性メモリなどが例示できる。
電源16は、上記した構成を含む対話ロボット10の稼働に必要な電力を供給する機能を有している。なお、電源16としては、公知の商用電源から電力を得るためのコンセントプラグであってもよいし、一次電池または二次電池などの電池であってもよい。
<サーバ20>
次に図3を参照しつつ、本実施形態のサーバ20の詳細な構成について説明する。
本実施形態のサーバ20は、インターネットなどのネットワークNを介して対話ロボット10と情報通信を行うコンピューターとして機能する。
より具体的にサーバ20は、アプリケーションサーバ30と、ストレージサーバ40とを含んで構成されている。かようなサーバ20は、機能的に分類すると、通信インターフェース31、応答文マッチング部32a、応答文音声変換部32b、応答文情報送信部32c、発話音声記録部33、情報解析記録部34、顔面情報マッチング部35、会話レベル設定部36、ROM/RAM部37、統括制御部38およびデータベース40を含んで構成されている。
通信インターフェース31は、インターネットなどのネットワークNに接続する機能を有している。サーバ20は、この通信インターフェース31を介して各種の情報の送受信を行うことが可能となっている。
応答文マッチング部32aは、発話音声のテキスト化を含む内容解析を行う機能を有するとともに、この解析した発話音声の意味内容に対応する応答文を、後述する応答文データベース41から選択する。また、サーバ20が会話レベル設定部36を構成要素に含む場合には、更に、会話レベル設定部36が設定した会話レベルに基づいて、ユーザーUの会話レベルに応じた応答文を応答文データベース41から選択する機能を有していてもよい。
なお応答文マッチング部32aは、ユーザーUの発話音声の内容解析を行った結果、当該発話音声の意味内容が応答文を選択できる意味内容となっていないと判定された場合には、ユーザーUに対して再度発話発声を促す旨の応答文を応答文データベース41から選択して対話ロボット10へ送信してもよい。
応答文音声変換部32bは、上記の応答文マッチング部32aによって選択された応答文を音声データに変換する機能を有している。なお音声データのファイルフォーマットは特に限定されず、WAVなどの非圧縮形式でもよいし、MP3やAACなどの圧縮形式でもよい。かような音声変換は、公知の種々のソフトウェアを適用することもできる。また、応答文音声変換部32bでは、例えばネイティブスピーカーが発声した音声データとなるように変換される。
応答文情報送信部32cは、上記の応答文音声変換部32bによって変換された音声データを応答文情報として対話ロボット10に向けてネットワークNを介して送信する機能を有している。
発話音声記録部33は、応答文マッチング部32aによって内容解析がなされた後の発話音声をデータベース40に記録する機能を有している。より具体的には、発話音声記録部33は、対話ロボット10からネットワークNを介して受信したユーザーUの発話音声を学習履歴DB43に随時記録する。後述するとおり、学習履歴DB43はユーザーごとに管理されており、例えば日付、会話した時間、会話の内容(使用したテーマなど)あるいは質問に対する正答率などとともに学習履歴DB43へ個別に記録される。このように本実施形態では、サーバ20は、ユーザーUごとに個別に管理されたデータベース40を含み、このデータベース40にユーザーUとの間の英会話に関する情報が記録される。
情報解析記録部34は、主として、対話ロボット10のユーザー情報送信部14aから送信された撮像部11が取得した画像情報を解析する機能と、当該解析した後の画像情報をデータベース40に記録する機能を有している。より具体的には、情報解析記録部34は、ユーザー情報送信部14aから受信した上記画像情報に人物が含まれているか解析し、人物が含まれている場合には頭部や上半身の画像などをID情報DB42に記録する。このとき、当該人物を初めてID情報DB42に登録する際には、後述するとおりその人物の氏名情報とともに記録することが好ましい。
なお、取得した画像情報に人物が含まれているか解析をする際には、例えばモルフォロジー処理など公知の人物抽出アルゴリズムが適用できる。また、この人物抽出アルゴリズムでは、抽出した人物の顔面も容易に特定できるので、情報解析記録部34は特定した顔面情報をID情報DB42に記録してもよい。
顔面情報マッチング部35は、対話ロボット10のユーザー情報送信部14aから受信したユーザーUの顔面情報と、ID情報DB42に既に記録されている顔面情報とのマッチングを行う機能を有している。換言すれば、顔面情報マッチング部35は、ユーザー情報送信部14aから受信したユーザーUの顔面情報が登録されているか未登録であるか判定する機能を有していると言える。
会話レベル設定部36は、ユーザーUの質問に対する回答内容に応じて、応答文マッチング部32aが応答文データベース41の中から選択する応答文のレベルを設定する機能を有している。本実施形態の会話レベル設定部36は、難易度が高い順に複数段階(本実施形態では12段階)のレベルを設定することが可能となっている。具体的なレベルの設定方法としては、会話レベル設定部36は、例えば初期値においては中間段階(12段階であれば真ん中のレベル6)のレベルを設定してもよい。そして設定した以後は、対話ロボット10からの応答文は判定されたレベルの英文で応答するように制御する。
また、他の具体的なレベルの設定手法としては、例えば中間段階(レベル6)の応答文を用い、この応答文に対して適切な返答をユーザーUがすればレベルを1つ上げ、誤答となる返答をした場合には1つ下げるなどが考えられる。この応答文と返答の内容は、上記したレベルに対応してそれぞれ複数個の英文例が応答文DB41に格納されている。具体的な質問と回答内容の文例は、例えば公知の英語問題集や公開英語テストの試験問題を適用してもよい。
したがって会話レベル設定部36は、設定するレベルに応じた応答文を応答文DB41から抽出するように応答文マッチング部32aを制御する一方で、音声認識部12から受信したユーザーUの返答が応答文DB41内に格納された返答例と一致するかを判定すればよい。
なお、本実施形態の対話システム100は語学学習としての英会話システムであるため、ユーザーUからの発話内容の正誤に基づくレベル設定が可能であるが、例えば介護分野に本システムを適用する場合などには会話レベル設定部36は必ずしも必要ではない。
ROM/RAM部37は、サーバ20内で稼働するソフトウェアや、対話ロボット10内で稼働するソフトウェアなどを格納する機能を有している。このROM/RAM部37の具体例としては、例えばハードディスクドライブや大容量メモリなどが例示できる。
なお、対話ロボット10で稼働するソフトウェアの一部又は全部は、対話ロボット10自身で格納する形態でもよく、この場合にはROM/RAM部37にはサーバ20内で稼働する各種のソフトウェアが格納される。
統括制御部38は、公知のCPUなどのプロセッサーであり、上記したサーバ20の各構成要素の動作を統括して制御する機能を有している。
データベース40は、対話システム100で用いられる各種のデータを記録して保持する機能を有する。本実施形態のデータベース40は、例えば大容量のハードディスクドライブが例示できる。上述したとおり、本実施形態のデータベース40は、それぞれ上記した応答文DB41、ID情報DB42、及び学習履歴DB43が含まれる。このうち、少なくとも学習履歴DB43は、登録したユーザーの学習履歴が当該ユーザー毎に個別で管理されるように構成されている。
このうち、応答文DB41に蓄積された応答文としては、例えば「おはよう(Good morning)、やあ(Hi)」などがある。なお、蓄積する応答文における他の例としては、例えば国際公開公報WO2005/076258号や特開2012−215645号公報などに開示された公知の種々の文例や公知のデータ構成を適宜用いてもよい。
なお本実施形態は英会話システムであることから上記のごとき例文が応答文DB41に蓄積されるが、例えば介護分野に適用する場合には日常的な会話文例や趣味・娯楽性の話題などが応答文例として蓄積される。すなわち本実施形態の対話システム100の応答文DB41には、その適用される分野(語学学習、介護、娯楽、あるいは受付応対などの業務補助など)に応じて必要とされる例文が蓄積される。
<対話プログラム>
上記した対話システム100に適用されるプログラムは、対話ロボット10及びサーバ20のいずれかに、対話ロボット又はサーバに、撮像部を用いてユーザーの顔面を撮像させ、撮像された前記ユーザーの顔面に関する情報をサーバに通信回線を介して送信させ、前記顔面に関する情報に基づいて前記ユーザーが未登録であるか特定させ、i)未登録であった場合に前記ユーザーの氏名を質問する氏名質問を含む応答文情報を生成させるとともに、ii)登録済であった場合に前記ユーザーの氏名を含む応答文情報を生成させ、発声部を用いて前記ユーザーに対して前記応答文情報に基づくスタート発話として発声させ、音声認識部を用いて前記スタート発話に対する前記ユーザーの発話を音声認識させ、前記音声認識させた前記ユーザーの発話を前記サーバに前記通信回線を介して送信させる。
<起動初期(ユーザー特定)動作フロー>
次に図4を用いて、本実施形態における対話システム100が起動初期におけるユーザー特定動作について詳述する。なお以後に図4〜6で説明されるフローは、サーバ20の統括制御部38と、必要に応じて設けられる対話ロボット10の制御部17との制御下で実行される。
まずステップS10では、対話ロボット10と会話(本例では英会話)を所望するユーザーUが対話ロボット10の電源スイッチ(不図示)をONにすると、対話ロボット10のシステムが起動するとともにネットワークN(以下、インターネットを例にして説明する)を介してサーバ20と接続要求を行う。
次いでステップS11では、サーバ20は、対話ロボット10からの上記接続要求に基づいて、インターネットを介してID情報要求を対話ロボット10に送信する。なお、ID情報としては、ユーザーUが特定可能な情報であれば顔面情報や指紋情報など特に限定はないが、特定の容易さを鑑みると例えばユーザーUの顔面情報であることが好ましい。よって以下では、かようなID情報の例としてユーザーの顔面に関する顔面情報を用いて説明する。
このID情報要求を対話ロボット10が受信すると、次いでステップ12では、撮像部11が稼働してユーザーUのID情報(以下、顔面情報)を取得する。より具体的には、対話ロボット10は、正対するユーザーUの顔面が被写界に入るように撮像部11(カメラ)を調整して撮像する。
そしてステップS13では、対話ロボット10のユーザー情報送信部14aは、撮像部11が撮像したユーザーUの顔面情報をサーバ20に送信する。
次いでステップS14では、サーバ20は受信した顔面情報が既に登録されているか未登録であるかを判定する。より具体的には、サーバ20の顔面情報マッチング部35は、今回受信した顔面情報がID情報DB42に登録済の顔面情報と一致するかを検索する。なお、このとき顔情報のマッチングは顔面の画像から目立つ特徴を抽出することで識別されるが、例えば主成分分析を使った固有顔、線形判別分析、弾性バンチグラフマッチング、ダイナミックリンク照合など公知のアルゴリズムを適用してもよい。
そしてステップS15では、i)受信した顔面情報に基づいてユーザーUが未登録であると特定した場合に、ユーザーUの氏名を質問する氏名質問を含む応答文情報を生成する(S15−1)。なお、この「氏名質問」として例えば「What is your name?」などの例文が応答文DB41に格納されており、統括制御部38は応答文DB41にアクセスして氏名質問を含む応答文情報を生成する。その後に、この生成した応答文情報は、インターネットを介して対話ロボット10の応答文情報受信部14bで受信される。
一方で、ii)受信した顔面情報に基づいてユーザーUが登録であると特定した場合に、当該ユーザーUの氏名を含む応答文情報を生成する(S15−2)。なお、この「氏名を含む応答文」として例えば「Hello,(氏名).」などの例文が応答文DB41に格納されており、統括制御部38は応答文DB41にアクセスするとともに、登録済のユーザーUの氏名と組み合わせた応答文情報を生成する。その後に、この生成した応答文情報は、インターネットを介して対話ロボット10の応答文情報受信部14bで受信される。
そしてステップS16においては、応答文情報受信部14bで応答文情報を受信した対話ロボット10は、発生部13(スピーカ)を介して、受信した応答文をスタート発話として発声する。
このように本実施形態では、発声部13は、ユーザーUが登録済か否かに応じて、当該ユーザーUに対して氏名を問う氏名質問またはユーザーUの氏名を含むスタート発話をユーザーUに対して行う。
次いでステップS17では、発声部13からのスタート発話に応じた回答がユーザーUから為されるので、このユーザーUの発話内容(回答)を音声認識する。より具体的には、対話ロボット10の音声認識部12がユーザーUの回答である発話内容を音声認識する。
そして音声認識されたユーザーUの発話内容は、続くステップS18においてインターネットを経由してサーバ20へ送信される。より具体的には、対話ロボット10のユーザー情報送信部14aは、音声認識部12が認識したスタート発話に対するユーザーの発話した音声情報をサーバ20に送信する。
そして今回のユーザーUが初めて登録された場合、続くステップS19においては、サーバ20の情報解析記録部34は、受信したユーザーUの氏名情報をステップS14で用いたID情報とともにデータベース40に記録する。より具体的に本実施形態では、ユーザーUの顔面情報とともに氏名情報がID情報DB42に記録して保存される。なお、氏名情報とともに記録されるID情報としては、本例では顔面情報であったがステップS14で用いられる情報が指紋情報など他の識別情報の場合には当該他の情報であってもよい。
以上の起動初期(ユーザー特定)動作フローが完了すると、ユーザーUと対話ロボット10による会話が開始される。
なお上記ステップS10では、システム起動が行われたことやオンライン化が成功したことを示すLEDなどの表示手段が対話ロボット10に搭載されていてもよい。この場合、例えばシステム起動、オンラインの順に表示手段の表示色を変化させることが好ましい。
上記で説明したとおり対話ロボット10の電源スイッチが入ってネットワークNと接続されたら、対話ロボット10の撮像部11が作動して対話ロボット10の前にいるユーザーUの顔を撮影する。そして撮像されたユーザーの画像情報は、サーバ20の情報解析記録部34と顔面情報マッチング部35へとネットワークNを介して送信される。そして顔面情報マッチング部35では登録済みの顔面画像とマッチングが行われ、ユーザーが登録済みの誰であるかが特定される。
そして顔面情報マッチング部35で登録済みの顔面画像と一致した場合には、その人物を特定して「Hello,(名前)」の発話を対話ロボットへ送る。一方で登録済み画像内に同一人物と判定できる顔面画像がなければ、そのユーザーUは新規登録者として画像を保存し、「What is your name?」の氏名質問を対話ロボット10へと送る。そしてユーザーUがその質問に答えて自己の名前を発話すると、その名前を先ほどの画像とともに登録する。
<会話内容の決定動作フロー>
次に図5を用いて、対話システム100がユーザーUとの会話内容を決定する動作について詳述する。
まずステップS30では、サーバ20から英会話の主題を何にするか要求するテーマ要求がインターネットを介して対話ロボット10に送信される。具体的にサーバ20の統括制御部38は、応答文DB41の中からテーマ要求に関する応答文を抽出してこの応答文に基づく音声情報を通信インターフェース31経由で対話ロボット10に送信する。また、このテーマ要求の内容としては、例えばユーザーUの母国語で「テーマは何にしますか?」と質問してもよいし、「スポーツ、天気、食事、○○の中からどれにしますか?」など選択肢として提示する質問をしてもよい。また、このテーマ要求自体をユーザーUの母国語でなく習得言語としての英語で行ってもよい。
次いでステップS31では、対話ロボット10は、受信したテーマ要求に関する音声情報を発声部13から発声し、今回行う英会話のテーマ問い合わせをユーザーUに対して実行する。
そしてステップS32では、音声認識部12はユーザーUからのテーマ回答に関する発話を音声認識するとともに、ユーザー情報送信部14aは、この音声認識部12が認識したテーマ回答に関する音声情報をサーバ20に送信する。
次いでステップS33では、サーバ20の情報解析記録部34でテーマ回答に関する音声情報が解析されて、今回学習するテーマが決定される。
そしてステップS33で学習テーマが決定された後は、ステップS34で学習履歴が存在するか否かが判定される。より具体的にサーバ20の統括制御部38は、学習履歴DB43を参照して、今回のユーザーUに関して過去に学習した履歴があるかを検索する。そして過去の学習履歴があると判定された場合、ステップS35において、統括制御部38は、この抽出した学習履歴の内容を今回の英会話に反映させる。具体的な反映内容としては、例えば過去に行った会話レベルを継続することや、既に学習済みのテーマの有無などが挙げられる。
一方で今回のユーザーUが新規である場合には、学習履歴DB43内の履歴は未だゼロなので、今回以降の学習履歴が順次積み上げられることになる。
このようにこのステップS34を経た後は、統括制御部38の制御の下で発話音声記録部33などによって、以後のユーザーUと対話ロボット10の間の会話の記録・管理が行われる。また、以降のユーザーUと対話ロボット10との間の会話が学習履歴DBに記録されるので、ユーザーUの習熟度や会話レベルなどが学習履歴DB内で随時更新されていくことになる。
次に、学習履歴の有無確認およびその反映が完了した後は、ステップS36で今回のテーマに関する具体的な英会話が開始される。すなわち、統括制御部38は、応答文マッチング部32aを制御して応答文DB41の中から今回のテーマに適した応答文を選択する。そして選択された応答文を応答文音声変換部32bによって音声情報に変換した後、応答文情報送信部32cが通信インターフェース31経由で応答文情報として対話ロボット10に送信する。
そしてステップS37では、ステップS36で生成された応答文情報を受信した対話ロボット10は、撮像部11を稼働させて上記した応答文に対する返答中のユーザーUを撮像する。このとき、撮像部11は、ROM/RAM部15を適宜用いて、静止画を1又は複数枚撮影してもよいし回答時の動画を所定時間(例えば数秒〜数分以内)だけ撮影してもよい。
なおこのステップS37は、ユーザーUが応答文に対する返答する際に常に行ってもよいし、例えば5分毎や10分毎など任意のタイミングで実行する形態であってもよい。その場合には、後述するステップS40〜S42は、このステップS37が起動したタイミングで実行されればよい。
ステップS38では、ステップ36で生成された応答文情報に基づいて、発声部13によって応答文が発声される。なお、前述したステップS37とこのステップS38は、その順序が逆であってもよい。
次いでステップS39では、音声認識部12はユーザーUからの応答文に対する発話を音声認識するとともに、ユーザー情報送信部14aは、この音声認識部12が認識した応答文に対する発話(応答文に対する回答となる返答文)に関する音声情報をサーバ20に送信する。
このステップS39と実質的に同時期に、ステップS40では、ステップS37で取得したユーザーUの画像情報(回答時のユーザーUの静止画又は動画)がインターネットを介してサーバ20に送信される。なお、前述したステップS39とこのステップS40は、ほぼ同時に実行されてもよいし、ステップS39が先でも後であってもよい。
このように本実施形態では、対話ロボット10のユーザー情報送信部14aは、応答文に対して発話(返答)したユーザーUの音声情報と共に、撮像部11が撮像した返答中のユーザーUの画像情報をサーバ20に送信する。
ステップS41では、サーバ20は、ユーザー情報送信部14aから受信したユーザーUの画像情報に基づいて当該ユーザーUの表情を判定する。より具体的には、サーバ20は、例えばユーザーUの表情から読み取れる感情要素のうち所定値以上の「怒り」や「哀しみ」の数値が検出された場合には、ユーザーUの表情が困惑している(換言すれば、ユーザーUがつまらないと感じていたり飽きている)と判定する。
この感情要素の数値化としては、例えばMicrosoft社が公開した顔認識技術を利用した「Emotion API」などが適用でき、この技術では画像に含まれる顔を認識し、8つの主要な感情要素である「怒り」、「軽蔑」、「恐れ」、「嫌悪」、「幸福」、「中間」、「悲しみ」、「驚き」を数値化している。なお、この数値が高いほど、その感情が強いことを意味する。
また、上記の他の判定手法としては、例えば特開平3−252775号公報、特開平8−249447号公報、特開平8−249453号公報、特開平10−255043号公報、特開2001−051338号公報等の顔の表情を認識する公知技術を適用し、その表情から「困惑」と関連する感情(「怒り」、「不安」、「憎しみ」など)を抽出して判定するようにしてもよい。
そしてステップS41でユーザーUの表情が困惑していると判定されたときは、ステップS42において、サーバ20は会話レベル設定部36を制御して設定レベルを変更する。より具体的に会話レベル設定部36は、現在設定している会話レベルから1つ又は複数だけレベルを下げる処理を実行する。そして以後は、この変更した会話レベルに基づいて、応答文マッチング部32aが応答文DB41から適切な応答文の候補を選択するように制御される。
なお、ステップS41でユーザーUの表情が困惑していないと判定されたとき、本実施形態では設定レベルは不変となっているが、この態様に限られない。例えばステップS41でユーザーUの表情から読み取れる感情要素のうち所定値以上の「喜び」や「楽しみ」の数値が検出された場合には、会話レベル設定部36を制御して設定レベルを上げてもよい。また、この場合においては、設定レベルを上げる前に、統括制御部38は、設定レベルを上げることを提案する応答文を対話ロボット10へ送信してもよい。かような設定レベルを上げることを提案する種々の応答文も、応答文DB41に予め格納することができる。
このように本実施形態では、ユーザーUにおける表情の判定結果に応じて、ユーザーUでなくシステム側が積極的に対話の内容(話題など)やレベルを変更しているとも言える。
次いでステップS43では、ユーザーUの表情の判定結果に基づいて内容を変化させた次の応答文を含む応答文情報が対話ロボット10へインターネットを介して送信される。より具体的には、応答文マッチング部32aは、設定された会話レベルに基づいて、次の応答文として、応答文DB41から適切な応答文の候補を選択する。そしてこの選択された次の応答文を応答文音声変換部32bが音声情報に変換した後で、応答文情報送信部32cによって通信インターフェース31を介して次の応答文を含む応答文情報が応答文情報受信部14bへ送信される。
なお、このステップS43では、ステップS39でユーザーUが行った発話に対する文法ミスの指摘や矯正あるいは発音の矯正と訓練を促す応答文を対話ロボット10に送信してもよい。
なお、ステップS43において、サーバ20内では以下の処理が実行される。すなわち、まずステップS39においてユーザー情報送信部14aから受信したユーザーの発話(返答)に関する音声情報が発話音声記録部33でテキスト化される。そして当該テキスト化した音声情報と応答文DB41の応答文情報とのマッチングが応答文マッチング部32aで行われる。さらにこのマッチング結果に基づく適切な応答文を含む応答文情報が、応答文音声変換部32bや応答文情報送信部32cを介して生成されて対話ロボット10の応答文情報受信部14bへと送信される。
そしてステップS44では、対話ロボット10は、受信した次の応答文を含む応答文情報に基づいて、発声部13を介してユーザーUに対して発話する。
次いでステップS45では、発話された次の応答文に対するユーザーUの発話(返答)を音声認識部12が音声認識するとともに、この音声認識されたユーザーUの発話内容に関する音声情報がユーザー情報送信部14aを介してサーバ20に送信される。
そしてステップS46では、ステップS45で送信された音声情報をサーバ20が受信した後に、現在行っている英会話のテーマ学習が終了したか否かが判定される。より具体的に統括制御部38は、応答文DB41などを参照して次の応答文が存在するか検索し、テーマ学習が終了したと判定したときは学習を完了する。このとき、インターネットを介して学習が完了した旨の通知を対話ロボット10に送信して発声部13で発声してもよい。また、統括制御部38は、テーマ学習が完了したら会話レベルを更新するなど学習履歴DB43の学習履歴を更新する制御を行ってもよい。
一方でステップS46において統括制御部38がテーマ学習は未だ終了していないと判定したときは、ステップS36に戻り、応答文マッチング部32aは応答文DB41を参照してユーザーUの上記返答に対する適切な応答文を選択する制御を繰り返す。
以上説明したとおり、本実施形態では、対話ロボット10がユーザーUに会話を投げかけるとき、ユーザーUの返答中における顔画像を撮影する。そしてユーザーUが返答している最中の表情がユーザーの発話音声とともにインターネットを介してサーバ20で受信され、その画像をもとにサーバ20でユーザーUの感情を判定する。そして判定の結果、ユーザーUの表情に応じてそれぞれに適応したレベルの応答文に変化させる点などに主とした特徴がある。
≪第2実施形態≫
以下、図6を用いて本発明の第2実施形態に係る対話システム100´を説明する。上記第1実施形態では、対話ロボット10はネットワークNを介して物理的なサーバ20と情報通信可能に接続されていたが、本実施形態ではクラウドコンピューティングを活用している点に違いがある。よって、以下では第1実施形態と異なる点を説明し、既述の構成と同じ機能・作用を奏するものは同じ参照番号を付してその説明は適宜省略する。
図6に示すとおり、本実施形態に係る対話システム100´は、いわゆるクラウドコンピューティングを用いたシステムであって、対話ロボット10、論理的な仮想サーバ20´、及び物理的なデータセンター60を含んで構成されている。対話ロボット10と仮想サーバ20´とは、インターネットを介して互いに通信可能となるように接続されている。そしてユーザーUは、語学習得などを目的として、仮想サーバ20´と通信可能に接続された対話ロボット10と英会話を行う。
また、この仮想サーバ20´は、物理的な各種が配置されたデータセンター60とネットワークNを介して接続されている。
そして仮想サーバ20´内では、論理的な仮想アプリケーションサーバ30´と、仮想ストレージサーバ40´とが構成されている。なお、具体的な仮想サーバ20´の機能は第1実施形態と同じであるので、その説明は省略する。
すなわち本実施形態では、対話ロボット10は、クラウド内の仮想サーバ20´とネットワークN(例えばインターネット)を介して情報通信を行うこととなっている。
このように本発明は、物理的なサーバ20と直接情報のやり取りを行う場合に限られず、クラウドコンピューティングを活用して実施することも可能となっている。
上記した各実施形態は、本発明の趣旨を逸脱しない範囲で種々の変形が可能である。以下、各実施形態に適用が可能な変形例について説明する。
<会話レベルの決定動作フロー>
以下、図7を用いて変形例に係る会話レベルの決定動作フローを説明する。
なお、図7においては、レベル決定ルーチンであるステップR1〜R7以外のステップS30〜S46は、上記した第1実施形態の図5と同じ内容の処理であるので、適宜その説明は省略する。
すなわち、ステップS34及びS35で学習履歴の反映が適宜実行された後で、サーバ20の統括制御部38は、ステップR1においてレベル決定ルーチンが発動しているかを判定する。このレベル判定ルーチンは、対話ロボット10がユーザーUへ質問を数問投げかけ、その質問にユーザーUがどう答えるかによってユーザーUの会話レベルを多段階で判定するものである。そしてレベル決定ルーチンで会話レベルが決定された以降の対話ロボット10からの応答文は、この判定された会話レベルに基づいて応答文DB41の中から適切に選択されるようになる。
本変形例では、上記した会話レベル設定部36が設定する会話レベル(12段階のレベル)に対応させて、レベル決定ルーチンによる処理が実行される。
なお、レベル決定ルーチンの発動頻度としては特に制限はなく任意のタイミングで発動してもよく、例えばユーザーUが対話ロボット10の不図示のスイッチを操作して発動したり、10分など所定時間毎にレベル決定が行われるように発動したり、あるいは対話ロボット10が起動された初期に1回だけ発動するようにしてもよい。
ステップR1でレベル決定ルーチンが発動されていれば、サーバ20の会話レベル決定部36は、応答文マッチング部32aを制御して応答文DB41からレベル決定用質問を選択して抽出させる。次いで応答文音声変換部32bがこのレベル決定用質問を含む応答文を音声情報に変換した後、変換された音声情報(応答文情報)が応答文情報送信部32cによって通信インターフェース31を介して対話ロボット10に送信される。
なお、この会話レベルを決定するためのレベル決定用質問としては、上記公知の英語問題集や公開英語テストの試験問題などに基づいた複数個の英文例が適用でき、かようなレベル決定用質問が応答文DB41に格納されている。
次いでステップR3では、対話ロボット10は、受信したレベル決定用質問を含む応答文情報に基づいて、発声部13によって質問文を発声する。
そして続くステップR4では、音声認識部12がユーザーUからの質問文に対する発話(返答)を音声認識するとともに、音声認識部12が認識した質問文に対する発話(質問文に対する回答となる返答)に関する音声情報をユーザー情報送信部14aがサーバ20に送信する。
ステップR5では、ユーザーUからの音声情報を受信したサーバ20は、ユーザーUが行った返答の内容に関する正誤を照合する。より具体的には、上記したとおり、対話ロボット10から受信したユーザーUの返答が応答文DB41内に格納された返答例と一致するかが判定される。
次いでステップR6では、サーバ20で所定の質問数に到達したか否かが判定されて、未だ到達していなければステップR2へと戻って質問を繰り返す制御が実行される。一方で所定の質問数に到達した場合には、ステップR7において、それまで行った質問に対する正誤の状況に基づいて適正な会話レベルが設定される。
なお所定の質問数としては特に制限はないが、例えば会話レベルの階層数に応じた数の質問(例えばレベルが12まであれば12問)の質問をユーザーUに行ってその正答率によって会話レベルを決定してもよい。
このように、第1実施形態ではユーザーUの返答時における表情を解析して会話レベルを変更させていたが、この変形例においては上記表情に加えてユーザーUの実際の回答内容に応じて会話レベルを設定することを行っている。
以上説明した内容は本発明を実施する上での一例であって、本発明の趣旨を逸脱しない限り上記で説明した各実施形態および変形例の要素を適宜組み合わせてもよい。
例えば上記した実施形態および変形例では、適切な応答文を選択する情報処理などは対話ロボット10側で実行せずにネットワークNを介したサーバ側で行っていたが、この態様に限らない。
すなわちサーバ側はデータベース40だけを管理し、対話ロボット10の制御部17で上記した各種の情報処理を行う形態であってもよい。この場合には、対話ロボット10は、上記した応答文マッチング部32a、応答文音声変換部32b、応答文情報送信部32c、発話音声記録部33、情報解析記録部34、顔面情報マッチング部35、及び会話レベル設定部36の機能を有することになる。あるいは、対話ロボット10は、応答文マッチング部32a、応答文音声変換部32b、応答文情報送信部32c、発話音声記録部33、情報解析記録部34、顔面情報マッチング部35及び会話レベル設定部36の少なくとも1つの機能を分担し、残りをサーバ側で処理する形態としてもよい。
また、上記実施形態ではユーザーUと対話ロボット10とが二者で会話する例を説明したが、上述のとおり本発明はこの形態に限らず三者以上で会話する形態でもよい。この場合には、例えば以下の会話形態が考えられる。
(a)介護分野での応用例において、ユーザーU、対話ロボット10、及び介護者の三者で対話する形態:
この場合には、対話ロボット10に対して2人の人間が加わっている。そして対話ロボット10の音声認識部12で変換された音声情報は、サーバ20で個別に(ユーザーUと介護者で区別されて)管理される。そして応答文マッチング部32aは、話者ごとに適切な応答文を応答文DB41から選択して会話ロボット10にネットワークNを介して送信する。
(b)娯楽分野などでの応用例において、ユーザーU、対話ロボット10、及び情報処理端末50(スマートフォンなどの携帯型の情報機器であってもよい)中のキャラクターの三者で対話する形態:
この場合には、情報処理端末50はネットワークNを介してサーバ20と接続され、ユーザーU一人に対して複数の情報機器が対話に加わることとなる。そして応答文マッチング部32aは、情報処理端末50からの応答文情報を受信し、当該情報処理端末50からの応答文情報にも基づいて、適切な応答文を応答文DB41から選択して会話ロボット10にネットワークNを介して送信する。
例えば対話内容が英会話学習の場合には、ユーザーUが情報処理端末50に表示されたデジタルキャラクターと対話(英会話)を行っているときに、対話ロボット10がユーザーUに応答内容のヒントを出し、あるいはユーザーUに代わって対話ロボット10がデジタルキャラクターに応答するようにしてもよい。換言すれば、かような場合には対話ロボット10はユーザーUの補助者としての機能を担うことになる。
なお、上記(a)の場合には3人以上の人間が加わってもよく、この場合には話者ごとに会話内容がサーバ20で識別される形態であってもよい。また、上記(b)の場合には対話ロボット10の他に2台以上の情報端末が加わってもよい。
さらに、上記(a)及び(b)の場合において、サーバ20は、話者ごとに音声情報を識別可能である場合には、話者ごとに異なる会話の内容(テーマ)を設定してもよい。また、サーバ20又は情報処理端末50や上記情報機器から、積極的にテーマに関連した情報を提示するようにしてもよい。
また、本発明の対話システムおよび対話ロボット並びに対話プログラムは、家庭内や教室などで行う上記した英会話を含む語学学習の分野に限られず、例えば介護分野や娯楽分野などユーザーとの間で何らかの対話が必要な様々な分野に広く応用が可能である。
<設定レベル変更前の事前処理>
なお上記した第1実施形態においては、ステップS41でユーザーUの表情が困惑していると判定されたときに、続くステップS42ではすぐに会話レベル設定部36を制御して設定レベルを変更した。
しかしながら本発明はこの態様に限られず、以下のごとき設定レベル変更前の事前処理を実行してもよい。
すなわち、以下の変形例では、ユーザーUの表情認識にいくつかのパターン(例えば「困惑」、「笑顔」、「無表情」など)を事前に設定しておき、サーバ20で判定したユーザーUの表情に応じてサーバ20からの応答内容を変化させる。その一例として、例えばユーザーUの表情を判定した後で、会話の設定レベルを変更する前に回答催促や事前予告など各種の事前通知を行う。
より具体的には、例えば図8のステップS41a、S41bに示すように、ユーザーUの表情の認識結果に基づいて、ユーザーUに対する回答の催促や設定レベル変更の意思確認を行う。
まずステップS41では、上記第1実施形態と同様にしてユーザーUの表情を判定する。そしてサーバ20は、ユーザーUの表情が困惑していた場合、ユーザーUからの返答文に関する音声情報を受信していないときには、ステップS41aでユーザーUへ回答を促すメッセージを送信する。かようなメッセージの例としては、例えば「どうしたの?」や「もう少しお待ちしましょうか?」などが例示できる。
なおステップS41aでメッセージを送信した後にユーザーUからの返答を受信する場合は、例えばユーザーUからの予想回答パターン(「はい」、「いいえ」あるいは「大丈夫だよ」など)を予め保持しておき、実際のユーザーUからの返答と照合すればよい。もちろん、ユーザーUから有意な返答を得られなくとも、所定の時間が経過した場合には続くステップS41bに進んでもよい。
そして続くステップS41bでは、ユーザーUに対して現在の会話レベルからの設定レベル変更を促すメッセージを送信する。かようなメッセージの例としては、例えば「もっと分かりやすく話すね」や「話題を変えましょうね」などの事前予告が例示できる。
このようなステップS41bまでの催促や事前予告を経たうえで、上記第1実施形態と同様にステップS42で会話の設定レベルを変更する処理を行う。なおステップS41aとステップS41bは共に実行される必要はなく、少なくとも一方が実行される形態であってもよい。
一方、サーバ20は、ユーザーUの表情が困惑していない場合には、ステップS41cでユーザーUの表情が笑顔か判定する。そしてサーバ20は、ユーザーUの表情が笑顔出会った場合には、ステップS41dでユーザーUへ笑顔の理由を問いかけるメッセージを送信する。かようなメッセージの例としては、例えば「良いことでもあったのかな?」や「楽しい?」などが例示できる。なお本ステップは、ユーザーUからの返答文に関する音声情報を受信していないときでも実行してもよい。
なお、ステップS35で過去の学習履歴を反映している場合には、過去のユーザーUからの返答内容(過去に行った応答文に対する発話やその表情)と比較して、当該過去の返答内容と今回の変更内容(ステップS38の応答文に対する発話やその表情)は異なる場合には「何かあったの?」などというごとき背景問い合わせを行うように構成してもよい。
<ビッグデータの活用>
また、本発明においては、他のユーザーとのやりとりで取得した応答文例をビッグデータとしてサーバ20が保持し、このビッグデータを活用してユーザーUへのサーバ20から送信するメッセージを変更するようにしてもよい。
より具体的には、図8においては、ユーザーUからの返答(ステップS38の応答文に対する発話)の内容に応じて、ビッグデータを参考にしてユーザーUへの次の応答文選択を行う点にも特徴を有している。
すなわちステップP1では、ユーザーUからの返答(ステップS38の応答文に対する発話)の内容が正答であるか判定する。
そしてユーザーUからの返答が、例えば予め保持している想定された返答内容とかけ離れた内容であった場合や文法上の間違いがあった場合などの正答でなかった場合には、ステップP2でビッグデータを参照する。
ここでサーバ20は、他のユーザーやユーザーUとの過去のやりとりを共有したり学習したりしており、例えば応答文ごとに出現頻度の高い返答文の例もデータベース化することができる。
従ってサーバ20は、例えばユーザーUからの返答内に頻度の高い文法上の間違いがあった場合には、続くステップS43においてその文法に関連する内容の応答文を選択してユーザーUへ送信するようにしてもよい。また、サーバ20は、例えばユーザーUからの返答内容が想定される返答内容に含まれない場合には、続くステップS43において設定レベルを下げた応答文を選択してユーザーUへ送信するようにしてもよい。
なお、図8を用いて説明した「ステップS41a〜ステップS41d」と「ステップP1、P2」は、少なくとも一方が実行される形態であってもよい。
また、図8においても、図7を用いて説明したレベル決定ルーチン(ステップR1〜R7)が実行されるように構成されていてもよい。
以上説明したように、本発明の対話ロボット及び対話システム並びに対話プログラムは、ユーザーとの間で自然な会話を構築するのに適している。
U ユーザー
10 対話ロボット
11 撮像部
12 音声認識部
13 発声部
14 通信インターフェース
15 ROM/RAM部
16 電源
17 制御部
20 サーバ
20´ 仮想サーバ
30´ 仮想アプリケーションサーバ
31 通信インターフェース
32a 応答文マッチング部
33 発話音声解析記録部
34 情報解析記録部
35 顔面情報マッチング部
36 会話レベル設定部
37 ROM/RAM部
38 統括制御部
40 データベース
41 応答文DB
42 ID情報DB
43 学習履歴DB
100 対話システム

Claims (6)

  1. ネットワーク上のサーバと通信回線を介して接続されて、ユーザーとの間で外国語会話を行う外国語会話ロボットであって、
    前記ユーザーの顔面を撮像する撮像部と、
    前記ユーザーが発した発話音声を認識する音声認識部と、
    前記ユーザーに対して発話する発声部と、
    前記通信回線を介して前記顔面に関する顔面情報及び前記音声認識部が認識した音声情報を前記サーバへ送信するユーザー情報送信部と、
    前記サーバから外国語の応答文情報を受信する応答文情報受信部と、を具備し、
    前記ユーザー情報送信部は、前記撮像部が撮像した前記顔面情報を前記サーバに送信し、
    i)前記顔面情報に基づいて前記サーバで前記ユーザーが未登録であると特定した場合に、当該サーバが生成した前記ユーザーの氏名を外国語で質問する氏名質問を含む前記応答文情報を前記応答文情報受信部が受信し、
    ii)前記顔面情報に基づいて前記サーバで前記ユーザーが登録であると特定した場合に、当該サーバが生成した当該ユーザーの氏名を含む外国語の前記応答文情報を前記応答文情報受信部が受信し、
    前記発声部は、前記ユーザーが登録済か否かに応じて、当該ユーザーに対して前記氏名質問又は前記ユーザーの氏名を含むスタート発話を外国語で前記ユーザーに対して行い、
    前記ユーザー情報送信部は、前記音声認識部が認識した前記スタート発話に対する前記ユーザーの発話した外国語の音声情報を前記サーバに送信し、
    前記ユーザーが登録済の場合には前記ユーザーの学習履歴を反映した外国語の前記応答文情報が前記応答文情報受信部で受信されるとともに、
    前記ユーザーが未登録の場合には新たに学習の履歴がデータベースに蓄積されることを特徴とする外国語会話ロボット。
  2. 請求項1に記載の外国語会話ロボットと、
    前記サーバと、を含む外国語会話システムであって、
    前記サーバは、前記ユーザーごとに個別に管理されたデータベースを含み、前記データベースに前記ユーザーとの間の対話に関する情報が記録される外国語会話システム。
  3. 前記サーバは、前記ユーザー情報送信部から受信した前記ユーザーの発話に関する音声情報をテキスト化し、当該テキスト化した音声情報とデータベース内の応答文情報とのマッチングを行い、当該マッチングに基づく適切な応答文を含む前記応答文情報を前記応答文情報受信部へ送信し、
    前記外国語会話ロボットは、受信した前記応答文を含む応答文情報に基づいて、前記発声部を介して前記ユーザーに対して発話する請求項2に記載の外国語会話システム。
  4. 前記撮像部は、前記応答文に対する返答中の前記ユーザーを撮像し、
    前記ユーザー情報送信部は、前記応答文に対して発話した前記ユーザーの音声情報と共に、前記撮像部が撮像した前記返答中の前記ユーザーの画像情報を前記サーバに送信し、
    前記サーバは、前記ユーザー情報送信部から受信した前記ユーザーの画像情報に基づいて前記ユーザーの表情を判定し、当該表情の判定結果に基づいて内容を変化させた次の応答文を含む前記応答文情報を前記応答文情報受信部へ送信する請求項3に記載の外国語会話システム。
  5. 前記サーバは、会話レベルを決定するためのレベル決定用質問を含む応答文情報を前記応答文情報受信部へ送信し、
    前記外国語会話ロボットは、受信した前記レベル決定用質問を含む応答文を、前記発声部を介して前記ユーザーに対して発声し、
    前記ユーザーが発した前記レベル決定用質問に対する返答に基づいて前記会話レベルが決定され、
    前記決定した会話レベルに基づいて前記サーバで前記データベース内の応答文が選択されて前記応答文情報受信部へ送信される請求項3又は4に記載の外国語会話システム。
  6. 外国語会話ロボット又はサーバに、
    撮像部を用いてユーザーの顔面を撮像させ、
    撮像された前記ユーザーの顔面に関する情報をサーバに通信回線を介して送信させ、
    前記顔面に関する情報に基づいて前記ユーザーが未登録であるか特定させ、i)未登録であった場合に前記ユーザーの氏名を外国語で質問する氏名質問を含む外国語の応答文情報を生成させるとともに、ii)登録済であった場合に前記ユーザーの氏名を含む外国語の応答文情報を生成させ、
    発声部を用いて前記ユーザーに対して前記応答文情報に基づく外国語のスタート発話として発声させ、
    音声認識部を用いて前記スタート発話に対する前記ユーザーの外国語による発話を音声認識させ、
    前記音声認識させた前記ユーザーの発話を前記サーバに前記通信回線を介して送信させ
    前記ユーザーが登録済の場合には前記ユーザーの学習履歴を反映した外国語の前記応答文情報が前記応答文情報受信部で受信されるとともに、
    前記ユーザーが未登録の場合には新たに学習の履歴がデータベースに蓄積されることを特徴とする外国語会話プログラム。
JP2019521492A 2017-06-15 2018-05-30 対話ロボットおよび対話システム、並びに対話プログラム Active JP6633250B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017118012 2017-06-15
JP2017118012 2017-06-15
PCT/JP2018/020735 WO2018230345A1 (ja) 2017-06-15 2018-05-30 対話ロボットおよび対話システム、並びに対話プログラム

Publications (2)

Publication Number Publication Date
JPWO2018230345A1 JPWO2018230345A1 (ja) 2019-11-07
JP6633250B2 true JP6633250B2 (ja) 2020-01-22

Family

ID=64659733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019521492A Active JP6633250B2 (ja) 2017-06-15 2018-05-30 対話ロボットおよび対話システム、並びに対話プログラム

Country Status (3)

Country Link
JP (1) JP6633250B2 (ja)
CN (1) CN109643550A (ja)
WO (1) WO2018230345A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024117292A1 (ko) * 2022-11-29 2024-06-06 주식회사 아이오테드 메타버스 연동 챗봇 로봇 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689781A (zh) * 2019-10-31 2020-01-14 北京光年无限科技有限公司 基于儿童教育的数据处理方法和系统
KR102302137B1 (ko) * 2019-10-31 2021-09-15 주식회사 엘지씨엔에스 외국어 학습장치 및 이를 이용하는 외국어 학습서비스 제공방법
WO2021181679A1 (ja) 2020-03-13 2021-09-16 日本電信電話株式会社 対話支援装置、対話支援方法及びプログラム
CN114461066A (zh) * 2021-12-29 2022-05-10 上海盛付通电子支付服务有限公司 用于追忆已故对象的方法、设备、介质及程序产品
JP2023142373A (ja) * 2022-03-25 2023-10-05 学校法人早稲田大学 情報処理方法、情報処理プログラム及び情報処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP2004021121A (ja) * 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置
JP2004101901A (ja) * 2002-09-10 2004-04-02 Matsushita Electric Works Ltd 音声対話装置及び音声対話プログラム
JP2005106876A (ja) * 2003-09-26 2005-04-21 Cai Media Kyodo Kaihatsu:Kk 語学学習用ロボット及び語学学習システム
JP2006078802A (ja) * 2004-09-09 2006-03-23 Nisshinbo Ind Inc 学習支援装置、学習支援方法及びプログラム
JP4671898B2 (ja) * 2006-03-30 2011-04-20 富士通株式会社 音声認識装置、音声認識方法、音声認識プログラム
JP2010282058A (ja) * 2009-06-05 2010-12-16 Tokyobay Communication Co Ltd 外国語学習補助方法及び装置
KR101211796B1 (ko) * 2009-12-16 2012-12-13 포항공과대학교 산학협력단 외국어 학습 장치 및 그 제공 방법
JP2012215645A (ja) * 2011-03-31 2012-11-08 Speakglobal Ltd コンピュータを利用した外国語会話練習システム
JP5701935B2 (ja) * 2013-06-11 2015-04-15 富士ソフト株式会社 音声認識システムおよび音声認識システムの制御方法
JP2016080894A (ja) * 2014-10-17 2016-05-16 シャープ株式会社 電子機器、家電、制御システム、制御方法、および制御プログラム
JP6583765B2 (ja) * 2015-01-16 2019-10-02 国立大学法人大阪大学 エージェント対話システムおよびプログラム
JP6192126B2 (ja) * 2015-04-16 2017-09-06 トヨタ自動車株式会社 着信通知制御システム
JP6084654B2 (ja) * 2015-06-04 2017-02-22 シャープ株式会社 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024117292A1 (ko) * 2022-11-29 2024-06-06 주식회사 아이오테드 메타버스 연동 챗봇 로봇 시스템

Also Published As

Publication number Publication date
WO2018230345A1 (ja) 2018-12-20
JPWO2018230345A1 (ja) 2019-11-07
CN109643550A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
JP6633250B2 (ja) 対話ロボットおよび対話システム、並びに対話プログラム
US11222632B2 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11017779B2 (en) System and method for speech understanding via integrated audio and visual based speech recognition
US20240168933A1 (en) Ai story platform with customizable personality for education, entertainment, and therapy
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
CN107340865B (zh) 多模态虚拟机器人交互方法和系统
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
US20190371318A1 (en) System and method for adaptive detection of spoken language via multiple speech models
US11222634B2 (en) Dialogue method, dialogue system, dialogue apparatus and program
US11200902B2 (en) System and method for disambiguating a source of sound based on detected lip movement
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
WO2019161249A1 (en) System and method for visual scene construction based on user communication
KR20220123170A (ko) 인공지능 아바타 튜터를 활용한 회화 학습 시스템 및 그 방법
JPWO2020070923A1 (ja) 対話装置、その方法、およびプログラム
KR20210123545A (ko) 사용자 피드백 기반 대화 서비스 제공 방법 및 장치
CN114745349B (zh) 一种点评方法、电子设备及计算机可读存储介质
JP7474211B2 (ja) ユーザから発話された名詞を忘却する対話プログラム、装置及び方法
JP7425681B2 (ja) 社会的能力生成装置、社会的能力生成方法、およびコミュニケーションロボット
Senarathne et al. Automated Sinhala Voice Assistant to Manage Tasks using Natural Language Processing-ශ්‍රී Voice
WO2023212261A1 (en) Retrieval of augmented parameters for artificial intelligence-based characters
WO2024145628A1 (en) Real-time animation of artificial intelligence characters
JP2022139436A (ja) 会議支援装置、会議支援システム、会議支援方法、およびプログラム
CN115730048A (zh) 一种会话处理方法、装置、电子设备及可读存储介质
CN116189682A (zh) 文本信息显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190419

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191211

R150 Certificate of patent or registration of utility model

Ref document number: 6633250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250