JP4629560B2 - 対話型情報システム - Google Patents

対話型情報システム Download PDF

Info

Publication number
JP4629560B2
JP4629560B2 JP2005340314A JP2005340314A JP4629560B2 JP 4629560 B2 JP4629560 B2 JP 4629560B2 JP 2005340314 A JP2005340314 A JP 2005340314A JP 2005340314 A JP2005340314 A JP 2005340314A JP 4629560 B2 JP4629560 B2 JP 4629560B2
Authority
JP
Japan
Prior art keywords
news
database
conversation
priority
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005340314A
Other languages
English (en)
Other versions
JP2006171719A (ja
Inventor
誉羽 竹内
厚 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2006171719A publication Critical patent/JP2006171719A/ja
Application granted granted Critical
Publication of JP4629560B2 publication Critical patent/JP4629560B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Description

この発明は、人型ロボットを用いた対話型情報システムに関する。
人とロボット(例えば、人型ロボット)との対話を成立させる対話システムの従来例として、以下のものが挙げられる。
その一つは、タスク指向型とよばれるもので、特定のタスクをロボットに行わせるための対話システムである。単純なものでは、公知のロボットのように、音声命令に対応して決められた回答を行わせるものがある。例えば「今日の天気を教えて」といった、ユーザである人の発話(命令)に対して、ロボットは今日の天気予報を音声で伝える。これらの命令と回答のセットは予め一意に定められているのが一般的である。
更に複雑な対話システムでは、ユーザとやりとりをした上でロボットが所定の動作を行うものがある(非特許文献1)。このようなタイプの対話システムの多くには、音声対話システムの技術が応用されている。単なる情報提供だけでなく、ユーザ指令に応じて実際に誰かを呼びに行ったりするような移動や動作を伴うタスクをこなさせる点が、ロボットを用いた対話システムならではの特徴的な部分と言える。
もう一つは、雑談型と呼ばれるもので、ロボットに特有のタスクをさせるというより、ユーザがロボットとの会話を楽しむためのシステムである(非特許文献2)。これは公知のchatbot(人工無能)対話システムを応用している。このような対話システムは、実空間においてロボットのジェスチャ等の動きを加えることで、生身の人間と自然に会話しているかのような感覚をユーザに与えることができる。
上記のchatbot対話システムとは、ユーザと日常会話を行なうためのシステムである。その基本は所定の対話パターンをデータベース化しておき、対話時の入力内容に応じて相応しい応答内容を検索し、それをシステム側から出力する点にある(非特許文献3)。例えば、対話システムに対してユーザが「何が好きですか?」とキーボードやマイク等を通じて入力すると、システム側は「何−が−好き−です−か?」といった単語列に最も合致する応答データを検索する。データベースには予め入力例とそれに対応する応答文とが大量に格納されている。対話システムは検索結果によって選ばれた応答文を取り出し、それをスピーカやモニターを介してユーザに対して出力する。データベース中の応答内容の格納方法を工夫することで、ユーザの入力の一部を応答文に挿入することもできる。
例えば、「昨日、『父親』に叱られた」とユーザがキーボードやマイク等を通じて入力したとき、対話システムが「あなたにとって『父親』はどういう存在ですか?」という出力を返すようにすることもできる。これは「あなたにとって○○○はどういう存在ですか?」という出力テンプレートが予め用意されており、この○○○の部分にユーザが入力した文章中の単語をはめ込むことにより実現できる。
何れにしても、chatbot対話システムは、予め想定問答集のようなものをデータベースに入れておいて、それを常に参照しながらユーザの入力に対して応えていくシステムである。
[Nakano] M. Nakano, Y. Hasegawa, K. Nakadai, T. Nakamura, J. Takeuchi, T. Torii, H. Tsujino, N. Kanda, H.G. Okuno, "A two-layer model for behavior and dialogue planning in conversational service robots," in Proc. IROS-2005. 2005 [Valerie] Valerie Web Site : http://www.roboceptionist.com/ [Akiyama]秋山智俊 , "恋するプログラム〜 Rubyでつくる人工無脳 ," 毎日コミュニケーションズ , 2005,
ロボット、特に人型ロボットが日常社会に普及していくには、それが役に立つかどうかということの他、ユーザが違和感無く使えるだけの十分な親和性を持ったものかどうかということも考慮しなければならない。ロボットに組み込まれる対話システムの性質や性能がそれらを左右する要因の一つであると考えられるが、上述の従来技術では以下のような問題があった。
chatbot対話システムにおいて、固定した対話用データベースを予め準備しておくことは短期的には可能である。しかし、ユーザに日常的に使用されることを想定して、長期的に様々な状況に柔軟に対応できる対話システムとするには膨大かつ複雑なデータベースが必要となり、事前のデータベースの構築が困難である。また、ユーザとの対話から自動的にキーワードを取り出して、所定のテンプレートにそのキーワードを挿入することで新たな対話を作成する仕組みを取り入れても類似内容の域を脱せず、そのユーザにとって新規の対話内容に発展していきづらい。発展性の乏しい対話システムでは、ユーザとの自然な対話を継続、発展させるといった観点からは不適である。
上記の問題を解決するためには、適当なタイミングで外から新たな情報を取り入れて、対話中のユーザに提示する方法が考えられる。しかし、ユーザが指定した情報を単に検索して提示するような周知の情報検索システムを応用するだけでは自然な対話の継続、発展には不十分である。この場合、改めて「情報を要求/検索する」といったユーザの何らかの能動的な行動が無ければ、情報検索の処理自体が開始されないからである。これは、上記の従来技術が受動的なシステムであることに起因する。このような対話システムでは、ユーザがストレスや煩雑さを感じるため、ユーザが日常生活において長期に使用することは期待できない。
本発明は上記の点に鑑みてなされたものであり、より自然にユーザとの対話を継続、発展させることのできる対話型情報システムを提供することを目的とする。
この発明の対話型情報システムは、音声を認識する音声認識装置、音声を合成する音声合成装置、人型ロボット、音声を受け取るマイクロホンおよび前記合成された音声を発するスピーカを備えている。このシステムは、インターネットに接続してニュースを取り込むニュース収集手段、取り込まれたニュースを保存するニュースデータベース、および一般的な会話に用いられる問いおよび回答の集合を保存する一般会話データベースを少なくとも含む会話データベースを備えている。さらにこのシステムは、会話エンジンを備え、この会話エンジンは、音声認識装置により認識されたユーザの発話からキーワードを抽出し、キーワードによりニュースデータベースおよび会話データベースの少なくとも一つを検索し、ヒットしたコンテンツを応答として出力するよう構成されている。
この発明によると、人型ロボットが話すことができる内容が頻繁に更新されるので、話題が豊富になる。
この発明の一実施形態では、会話データベースは、さらにランダム会話データベースを備える。
また、この発明の一つの形態では、ニュースデータベースおよび前記会話データベースのコンテンツには優先度が割り当てられており、会話エンジンは、ヒットし出力したコンテンツの優先度を他のコンテンツの優先度に対し相対的に低下させるための優先度変更手段を有する。
さらに、この発明のもう一つの形態では、会話データベースは、言い換えデータベースを備える。
また、この発明の他の実施形態では、会話エンジンは、ユーザの発話に含まれる複数の単語を用いてニュースデータベースおよび会話データベースの少なくとも一つを検索し、複数のコンテンツがヒットされるときは、複数の単語との一致度および優先度に基づいて一つのコンテンツを選択して出力するよう構成されている。
この発明の一実施形態では、ニュース収集手段は、所定の時間間隔で最新のニュースを取得するヘッドラインセンサであり、ニュースデータベースは、ヘッドラインセンサからの入力に基づいて記憶内容を更新する。
また、この発明の一実施形態では、会話エンジンは、音声合成装置に出力するコンテンツのスクリプトを解析し、スクリプトがあらかじめ定めた複数の会話パターンの一つに属するとき、予約会話フラグをセットするよう構成されている。
さらに、この発明のもう一つの実施形態では、会話エンジンは、予約会話フラグがセットされているとき、ユーザからの発話に応じて会話パターンに従った応答を出力するよう構成されている。
次に図面を参照して、この発明の実施形態を説明する。図1aは、この発明の一実施例の対話型情報システムの全体的な構成を示す。このシステムの基本的な構成要素は、コンピュータ10および人型ロボット31である。コンピュータ10は、たとえば汎用のワークステーションまたはパーソナルコンピュータで構成することができ、人型ロボット31は、たとえば本願の出願人が開発し公開している二足歩行ロボット“ASIMO”である。
二足歩行ロボットの制御として、例えば本願の出願人による特開2002−326173号や特開2004−299025号の技術を適用することができる。コンピュータ10には、無線通信によって人型ロボット31と情報の送受信を行なうための通信機27が接続されている。
コンピュータ10は、ロボット31を介してユーザと会話を行うための会話エンジン11を備える。ユーザの音声による発話内容は、ロボット31に備えられるマイクロホンで電気信号に変換され、この電気信号がロボット31に備えられる通信機(送受信機)からコンピュータ31側へ送信される。なお、図1aにはロボット31が備えるマイクロホン及び通信機は図示していない。また、ユーザの音声発話を取得するマイクロホンは、ロボット31内に限らず、ユーザの口元近くに配置されるようにしてもよい。
コンピュータ10に接続された通信機(送受信機)27がロボット31側から与えられた電気信号を受信し音声認識エンジン21に渡す。音声認識エンジン21は、この電気信号をテキストデータに変換する。音声認識エンジン21は、例えば、IBM社製の「Via Voice(商標)」等、既に実用化されている周知の音声認識プログラムまたはこれを改良したプログラムで構成される。
コンピュータ10は、インターネット19にも接続されており、ヘッドラインセンサ17により、所定の時間間隔(例えば、4〜5時間毎)でインターネット19上のウェブサイトを検索してニュース記事を収集する。ヘッドラインセンサ17は、インターネット上のサイトから定期的にテキスト情報及び画像のバイナリ情報を取得し、データベース13内の記憶内容を更新していく周知のソフトウェアであり、RSSリーダとも呼ばれる。RSS(Rich Site Summary)とは、ウェブサイトの見出しや要約などのメタデータを構造化して記述するXMLベースのフォーマットであり、主にサイトの更新情報を公開するのに使われる。RSSで記述された文書には、ウェブサイトの各ページのタイトル、アドレス、見出し、要約、更新時刻などが記述されている。ニュースサイトの多くは、更新情報をRSSで公開している。また、指定したサイトのRSS情報を取り込むアンテナ(巡回)ソフトが開発されている。
ヘッドラインセンサ17によって収集されたRSS情報は、XMLデータ形式でニュースデータベース13に保存される。ニュースデータベース13は、典型的にはハードディスク装置に保存され、キーワードを使った検索プログラムによって検索することができる。
コンピュータ10は、会話データベース15を備えており、会話データベース15には、予め用意された一般的な会話の「問い」と「応答」の組が多数格納されており、これらの「問い」および「応答」に関連してロボット31に実行させるジェスチャを示すコマンドも格納されている。
本発明の要部である会話エンジン11は、音声認識エンジン21から渡されるテキストデータを分析し、その内容に応じてニュースデータベース13または会話データベース15、またはこの両方を検索し、応答に適したコンテンツ(内容)を選択する。こうして選択されたコンテンツのテキストデータが音声合成器23に渡され、音声信号に変換される。音声合成器23は、市販のソフトウェアで構成することができ、たとえば、NTT社の製品FineVoice(商標)を使用することができる。会話データベース15内から選択された応答内容によってはロボット31の所定のジェスチャも対応つけられている。この場合、ジェスチャに応じた制御信号をコントローラ25が作成し、音声信号とジェスチャの制御信号とがロボット31に出力されるようになっている。
すなわち、会話データベース15の検索結果に応じて、音声信号とロボット31の動作を指示する制御信号との少なくとも一方が通信機27を介してロボット31に送信される。
ロボット31は、この音声信号や制御信号を受信し、ロボット31に備えられた図示しないスピーカを介して発話し、また、制御信号に応じたジェスチャまたは行動を実行する。
会話エンジン11は、データベース13、15から得られるコンテンツを表示装置29に送ってコンテンツを画像表示させる表示サーバとしての機能をも有している。本発明では、ユーザに提示するニュースの量が予め設定された所定量よりも多いとき、またはコンテンツにイメージデータが含まれるとき等は、表示装置29にコンテンツを表示するようにした。表示装置29は、光学系を用いてスクリーンにコンテンツを投影するプロジェクタ、コンピュータ10に備えられるディスプレイ、またはテレビジョンで構成することができる。
ここで、会話データベース15は図1bに示す如く、それぞれ予め用意された一般会話データベース15a、言い換えデータベース15b、及び、ランダム会話データベース15cから成るが、その詳細は後述する。
次に図2aを参照してこの発明の一実施例のシステムの全体的な処理を説明する。図2aは、主に会話エンジン11が実行する処理内容を示す。
先ず、ユーザがロボット31に話しかけると、ロボット31のマイクロホンによって音声が逐次、電気信号に変換される。この電気信号は、ロボット31の通信装置から無線送信され、通信機27によって受信される(S101)。受信した電気信号は、音声認識エンジン21に渡され、音声認識エンジン21によって音声の電気信号がテキストデータに変換され(S102)、会話エンジン11に渡される。
会話エンジン11は、供給されたテキストデータに対して形態素解析を実行して会話テキストを単語(品詞)に分解する(S103)。例えば、「今日」−「は」−「よい」−「天気」−「です」−「ね」のように処理される。形態素解析のプログラムは、各種のものが開発されており、公知である。本発明の要部ではないのでその詳細な説明は省略する。
次に、会話エンジン11は、形態素解析された単語について言い換えデータベース15bを検索し、予め決められた同意語を共通の単語に変換する。たとえば、発話するユーザを表す「私、僕、俺」などの単語は、「私」に統一される。すなわち、ユーザが「僕」という単語を発音すると、「僕」をキーワードに言い換えデータベース15bを検索し(S105)、ヒットするとこのキーワードを統一用語に変換する(S107)。いまの例では、「私」に変換される。この処理は、会話データベース15の構造を簡単化し、検索の効率を向上させるためのものである。
続いて、ステップS109に進み、会話エンジン11に予約会話フラグがセットされているかどうか判断される。予約会話フラグは、所定の応答を実行していくためのものである。会話エンジン11は、常に2つの変数X1とY1とを有する。変数X1は予約会話フラグに関する変数であり、変数Y1はスクリプト指定変数である。この変数については後述する。
ステップS109では変数X1が「1」、すなわち予約会話フラグがセットされている場合、次にステップS111の処理が実行される。また、ステップS109において変数X1が「0」、すなわち予約会話フラグがセットされていない場合、次にステップS117のサブルーチン処理と応答出力処理(ステップS119)が実行される。このステップS117及びS119の詳細については後述する。
図2bは、一般会話データベース15aの一例を示す図である。一般会話データベース15aには、複数のコンテンツ毎に「ユーザスクリプト」、「応答スクリプト」、「予約会話フラグ情報」、「スクリプト指定変数」、「元の優先度」、「優先度の増減値」、「現優先度」の項目が設けられている。なお、図2bの例では所定のジェスチャ指令情報は省いて図示している。図2bに示すように、この段階で最も優先度が高いのは、コンテンツD1である。何故なら、コンテンツD1の「現優先度」は「100(元の優先度)−0(優先度の増減値)=100」で、一般会話データベース15aのコンテンツ中、最も現優先度が高いからである。
ステップS109にて予約会話フラグがセット(すなわち、予約会話フラグが「1」)されていると判断された場合、会話エンジン11のスクリプト指定変数Y1が指定するコンテンツに含まれる応答スクリプトが会話エンジン11から出力され(ステップS111)、音声合成器23及び通信機27を介してロボット31から音声返答される(ステップS113)。例えば、図2bのコンテンツD1ではスクリプト指定変数Y1がD2を示す。これにより、コンテンツD2の応答スクリプト、「僕の体重は50kgです。」が出力される。このとき、一般会話データベース15a内から選択された応答スクリプトによっては、対応付けられたロボット31の所定のジェスチャも同時に実行される。
そして、会話エンジン11が有する、予約会話フラグに関する変数X1の値が「0」にリセットされ、かつスクリプト指定変数Y1の値もキャンセルされる(ステップS115)。上述のステップS111、S113、S115の処理は一般会話データベース15aについてのものである。後述するように、ステップS119でニュースデータベース13からの応答出力がされた場合、ステップS129で予約会話フラグが「1」にセットされると、続くステップS111及びS113では予め決められた応答「もっと知りたいですか?」が出力される。
ステップS119又はステップS115の処理が終了すると、続いて優先度定義データ変更処理が実行される(ステップS121)。図2dおよび図2eは、ニュースデータベース13の一例を示す図である。ニュースデータベース13には、ヘッドラインセンサ17で所定の時間毎に収集/更新された複数のニュース毎に「タイトル」、「ニュースの中身(文字及び画像等)」、「元の優先度(可変)」、「優先度の個別増減値」、「優先度の全体増減値」、「現優先度」の項目が設けられている。図2dに示すように、この段階で最も優先度が高いのは、ニュースN1である。何故なら、ニュースN1の「現優先度」は「100(可変優先度)−0(個別増減値)−5(全体増減値)=95」で、ニュースデータベース13のニュース中、最も現優先度が高いからである。
今、ステップS119において、例えば図2dに示すニュースN1が応答された場合、ニュースN1の「優先度の個別増減値」が「30」減らされ、他のニュースの「優先度の個別増減値」はそれぞれ「1」だけ増やされる。また、全ニュースの「優先度の全体増減値」がそれぞれ「5」だけ減らされて「−10」となる。この結果、優先度定義データ変更処理の結果として、図2eに示すようなニュースデータベース13の内容となる(ステップS121)。この段階で最も優先度が高いのは、ニュースN2である。
一方、ステップS119において、例えば図2bに示すコンテンツD1が応答された場合、コンテンツD1の「優先度の増減値」が「30」減らされ、他のコンテンツの優先度の増減値がそれぞれ「10」増やされる。この結果、優先度定義データ変更処理の結果として、図2cに示すような内容となる(ステップS121)。この段階で最も優先度が高いのは、コンテンツD2である。
ステップS121では、常に一般会話データベース15aとニュースデータベース13の両方が更新される。ステップS121の直前で一般会話データベース15a内から応答出力がされた場合、その出力されたコンテンツの優先度は元の優先度から「30」減らされ、他のコンテンツの優先度は元の優先度から「10」増やされて、それぞれの現優先度が得られる。このときニュースデータベース13の全てのニュースに対してその個別増減値が「1」だけ増やされ、全体増減値が「5」だけ増やされて新たな現優先度が算出される。
一方、ステップS121の直前でニュースデータベース13内から応答出力がされた場合、出力されたニュースの個別増減値が「−30」減らされ、他のニュースの個別増減値は「1」増やされる。これと同時に、ニュースデータベース13中からの応答があったことを反映して全てのニュースの全体増減値が「5」減らされて新たな現優先度が算出される。
このように、ステップS121の処理の度に一般会話データベース15aとニュースデータベース13の優先度が柔軟に変更されていくので、
同じ応答が繰り返し出力されるといった退屈な会話が回避される。また、ニュースデータベース13内からの応答が出力がされた場合、ニュース全体の優先度が低減(本実施例では−5)されるため、ニュースだけが繰り返し応答されることも回避される。更に、ニュースデータベース13は所定の時間毎(例えば、4〜5時間毎)に新たに更新されていき、後述する応答データ検索及び出力処理(ステップS117とS119)では、場合によっては外部から得た最新のニュースが出力されるため、ユーザとロボット31との間の会話に発展性や意外性が得られる。
なお、データベース15a、13における優先度の増減値「−30」、「+10」、「+1」、「−5」はこれに限らず、他の数値でもよい。たとえば、図2cに示す「優先度の増減値」の最大値と、図2eに示す「優先度の個別増減値」の最大値を「0」に設定しておき、出力されたコンテンツについては「優先度の増減値」において現在の増減値に「―30」を加え、他のすべてのコンテンツの「優先度の増減値」およびニュースの「優先度の個別増減値」については、「0」を上限に現在の増減値に「+1」を加えたうえで、新たな「現優先度」が算出されるようにしてもよい。これら数値をどのようにするかによって、会話内容の可変性、非連続性などを調整することが可能である。
続く、ステップS123では、先のステップS119においてどのデータベースから応答出力がされたかが判別される。
そして、ステップS123において、先のステップS119でニュースデータベース13からの応答出力がされたと判断された場合には、次のステップS129において会話エンジン11の変数X1が「1」にセットされる。また、ステップS123において、先のステップS119で一般会話データベース15aからの応答出力がされたと判断された場合には、次のステップS129において、ステップS119で出力がされたコンテンツに対して予約会話フラグ情報が「1」か「0」かを一般会話データベース15aを参照して判別する。例えば、ステップS119でコンテンツD1が応答された場合、その予約会話フラグ情報を参照し、会話エンジン11のスクリプト指定変数Y1を「D2」にセットすると同時に予約会話フラグに関する変数X1を「1」にセットする(ステップS129)
この実施例においてステップS127からステップS101に戻ったとき、ユーザの発話がないときは、ステップS109に移る。また、ステップS113およびS115の後のステップS123からステップS127に移るようにしてあるが、これに限らない。たとえば、一般会話デー亜ベース15aからのコンテンツがステップS113で応答出力された場合、ステップS119で一般会話データベース15aに基づき応答出力された場合と同様の処理をステップS123で行うようにしてもよい。さらに、ステップS119またはS115の応答出力がなされる前に、別のユーザ発話を受信した場合、ステップS119またはS115の応答の後に、予約会話の設定をスキップして、最新のユーザ発話に応じてステップS102以降の応答処理がなされるようにしてもよい。こうすることによって、ちぐはぐな会話の発生を回避することができる。
次に、図3を参照して、ステップS117及びステップS119のサブルーチン処理を説明する。まず、形態素解析処理(ステップS103)及び言い換えデータベース検索処理(ステップS105)をした後の、ユーザの発話に含まれる単語をキーワードしてニュースデータベース13を検索する(ステップS201)。この検索では、ユーザの発話中の「名詞」、「代名詞」が抽出され、抽出された単語を用いて検索がされる。例えば、ユーザが「今日はよい天気ですね。」と発話した場合、その発話の中にある名詞「今日」と「天気」の両方でニュースデータベース13の中から検索が実行される。「今日」及び「天気」を用いた検索で複数のニュースが抽出された場合、互いの現優先度が比較され1つのニュースが選択される(ステップS203)。このとき1つもニュースが抽出されない場合、「今日」のみで検索され、その後「天気」のみでも検索が実行される。そして、これらの処理で抽出されたニュース間の現優先度が比較され最も高いニュースが選択される(ステップS203)。すなわち、ユーザ発話内容と最も一致度の高い順にユーザの発話中の全ての名詞、代名詞及びそれらの組み合わせで該当ニュースが検出されるまで検索していく。なお、本発明では、「名詞」と「代名詞」に限らず「形容詞」をも検索対象にしたり、他の品詞の組み合わせで検索を実行してもよい。
「今日はよい天気ですね。」といったユーザ発話があった場合、図2dの例の場合、ニュースN1が抽出される。また、「今日のニュースを教えて。」といったユーザ発話があった場合、図2dの例では、ニュースN1とN3とが抽出され、現優先度の高いニュースN1が選択される。ステップS203で選択されたニュースは、会話エンジン11が具備する応答リストに一時的に格納される(ステップS205)。一つもニュースが選択されない場合、応答リストに格納されるニュースは無い。
続いて、一般会話データベースに対しても同様の処理が実行される(ステップS207〜S211)。例えば、「あなたの身長は?」といったユーザからの問いかけについては、「あなた」と「身長」を用いて検索が実行され、図2bの例では、コンテンツD1が抽出される。また、「あなたは誰?」とユーザからの問いかけについては、「あなた」と「誰」を用いて検索が実行され、図2bの例では、「あなた」にヒットするコンテンツD1、D2、D3、D4、D5、D8、D9、D10が抽出される。そして、ステップS209の現優先度の比較処理の結果、コンテンツD1が選択される。ステップS209で選択されたコンテンツは、会話エンジン11が具備する応答リストに一時的に格納される(ステップS211)。一つもコンテンツが選択されない場合、応答リストに格納されるコンテンツは無い。
次いでステップS213に進み、予め用意されたランダム会話データベース15cからランダムに応答を選択し、これを応答リストに追加する。ランダム会話データベース15cには、話題を変えたり、一般会話データベース15aやニュースデータベース13内に適当な応答が無い場合に使用される複数の会話データが用意されている。これらの会話データには、比較的低い現優先度(例えば、固定値60)が付与されている。ランダム会話データの現優先度は他の値でもよい。これは、ユーザとの会話にどの程度の非連続性や発展性、意外性を持たせるかといった意図によって変更するのが望ましい。ランダム会話データの例としては、「最近いいことあった?」、「別の話題にしようよ。」、「よく分からないなあ。」、「そうなんだ。」、「もう一度言って。」、「外に行ってみたいなあ。」、「なるほどね。」、「何かニュースを見てみる?」等がある。
ステップS215では、1つずつ選択されたニュースとコンテンツとランダム会話データベースからの会話データの現優先度が比較され、最も現優先度の高いコンテンツが応答出力とされる(図2a、S119)。優先度が同順位のコンテンツがヒットしているときは、ランダムにそのうちの一つを選択する。ここで、ニュースデータベース13からニュースが選択されて出力される場合、そのタイトルが音声出力される。また、ランダム会話データベース15cからの応答出力があった場合、ステップS121では、一般会話データベース15aに対して全てのコンテンツの優先度が「10」増やされ、ニュースデータベース13の全てのニュースの個別増減値が「1」増やされ、全体増減値が「5」増やされる。また、ランダムデータベースからの応答出力があった場合、ステップS123では特別な処理は行われず、続いてステップS127の継続か否かの判別処理が実行される。
ロボット31は人間の目に相当する撮像装置を備えており、ユーザを認識する機能を持っている。ユーザがロボット31の近くにいるときは、会話が続くものとして(S127)、ユーザの発話を待つ状態に入る(S101)。ユーザがロボットから遠ざかったときは、会話は終了したものとして、対話モードを終了する。但し、スイッチや音声指令などで本発明のON/OFFを操作してもよい。
図4は、ヘッドラインセンサ17による処理を示す。予め選択したニュースポータルを定期的にアクセスし、RSSを公開しているサイトについては、RSSを取り込み(S305)、RSSを公開していないサイトについては、HTML文書を取り込んで、解析しテキストデータを取り出す(S303)。取り込んだRSSファイルに含まれるHTML文書を解析してテキストデータを取り出す。このようにして、取り出されたテキストデータは、ニュースデータベース13に保存される(S309)。取り込まれたニュースは最新のものほど高い優先度が付与されて、順次ニュースデータベース13内に格納されていく。その際、たとえば優先度の最高値が「100」とされ、以下、「5」または「1」ずつ低い優先度が個々のニュースに付与される。ヘッドラインセンサ17が4〜5時間の周期で所定量(又は所定タイトル数)の最新ニュースを取り込んでいく場合、ニュースデータベース13は、例えば50サイクル分又は1週間分のニュースを蓄積できるのが好ましい。
以上にこの発明を具体的な実施例について説明したが、この発明は、このような実施例に限定されるものではない。例えば、図1のコンピュータ10や通信機27等は、ロボット31に設けてもよいし、他の場所に設けてもよい。
本発明によれば、優先度の柔軟な変更や一般会話データベース15aのみならず、ニュースデータベース13やランダム会話データベース15cをも有しているため、会話に発展性や意外性を持たせることができる。また、情報を検索するというユーザの能動的な意図が無くても、ランダム会話データベース15cから選択した発話や最新ニュースを提供することで、ユーザに負荷なく会話を継続させることができる。
本発明では人型のロボットを使用したため、ユーザがより親近感を抱き易く、自然な会話が可能となった。
この発明のシステムの全体的な構成を示す図。 会話データベースの構成を示す図。 この発明の実施例における処理の流れを示すフローチャート。 一般会話データベース15aの構造の一例を示す図。 一般会話データベース15aにおける優先度の更新態様を示す図。 ニュースデータベース13の構造の一例を示す図。 ニュースデータベース13のもう一つの構造例を示す図。 図2aに示す応答データ検索のサブルーチンを示すフローチャート。 ヘッドラインセンサによる処理を示すフローチャート。
符号の説明
10 コンピュータ
31 人型ロボット

Claims (4)

  1. 音声を認識する音声認識装置、音声を合成する音声合成装置、人型ロボット、音声を受け取るマイクロホン、および前記合成された音声を発するスピーカを備えた対話型情報システムであって、
    インターネットに接続してニュースを取り込むニュース収集手段と、
    前記取り込まれたニュースを保存するニュースデータベースと、
    一般的な会話に用いられる問いおよび回答の集合を保存する一般会話データベースを少なくとも含む会話データベースと、
    前記音声認識装置により認識されたユーザの発話からキーワードを抽出し、該キーワードにより前記ニュースデータベースおよび前記会話データベースの少なくとも一つを検索し、ヒットしたコンテンツを応答として前記スピーカを介して出力するよう構成されている会話エンジンと、を備え、さらに
    前記ニュースデータベースのニュース全体とコンテンツ、および前記会話データベースのコンテンツには優先度が割り当てられており、
    前記会話エンジンは、ヒットし出力したコンテンツの優先度を他のコンテンツの優先度に対し相対的に低下させ、その際に前記ニュースデータベースのコンテンツの優先度が低下した場合は、当該ニュースデータベースのニュース全体の優先度を低下させるための優先度変更手段を有する、対話型情報システム。
  2. 前記会話エンジンは、前記ユーザの発話に含まれる複数の単語を用いて前記ニュースデータベースおよび前記会話データベースの少なくとも一つを検索し、複数のコンテンツがヒットされるときは、該複数の単語との一致度および前記優先度に基づいて一つのコンテンツを選択して出力するよう構成されている、請求項1に記載の対話型情報システム。
  3. 前記ニュース収集手段は、所定の時間間隔で最新のニュースを取得するヘッドラインセンサであり、前記ニュースデータベースは、ヘッドラインセンサからの入力に基づいて記憶内容を更新する、請求項1に記載の対話型情報システム。
  4. 前記会話データベースは、さらにランダム会話データベースおよび言い換えデータベースの少なくともいずれか1つを備える、請求項1〜3のいずれかに記載の対話型情報システム。
JP2005340314A 2004-12-01 2005-11-25 対話型情報システム Expired - Fee Related JP4629560B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US63275204P 2004-12-01 2004-12-01

Publications (2)

Publication Number Publication Date
JP2006171719A JP2006171719A (ja) 2006-06-29
JP4629560B2 true JP4629560B2 (ja) 2011-02-09

Family

ID=36672482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005340314A Expired - Fee Related JP4629560B2 (ja) 2004-12-01 2005-11-25 対話型情報システム

Country Status (2)

Country Link
US (1) US7711569B2 (ja)
JP (1) JP4629560B2 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
WO2008000046A1 (en) * 2006-06-29 2008-01-03 Relevancenow Pty Limited Social intelligence
US8108501B2 (en) 2006-11-01 2012-01-31 Yahoo! Inc. Searching and route mapping based on a social network, location, and time
US7917154B2 (en) 2006-11-01 2011-03-29 Yahoo! Inc. Determining mobile content for a social network based on location and time
KR100849848B1 (ko) * 2006-11-30 2008-08-01 삼성전자주식회사 음성 출력 장치 및 방법
US20080168033A1 (en) * 2007-01-05 2008-07-10 Yahoo! Inc. Employing mobile location to refine searches
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법
KR101553521B1 (ko) * 2008-12-11 2015-09-16 삼성전자 주식회사 지능형 로봇 및 그 제어방법
AU2009335623B2 (en) 2009-01-08 2012-05-10 Servicenow, Inc. Chatbots
JP4992925B2 (ja) * 2009-03-23 2012-08-08 トヨタ自動車株式会社 音声対話装置及びプログラム
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US20120059781A1 (en) * 2010-07-11 2012-03-08 Nam Kim Systems and Methods for Creating or Simulating Self-Awareness in a Machine
US10157342B1 (en) * 2010-07-11 2018-12-18 Nam Kim Systems and methods for transforming sensory input into actions by a machine having self-awareness
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US9443518B1 (en) 2011-08-31 2016-09-13 Google Inc. Text transcript generation from a communication session
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
US20130311528A1 (en) * 2012-04-25 2013-11-21 Raanan Liebermann Communications with a proxy for the departed and other devices and services for communicaiton and presentation in virtual reality
US10223636B2 (en) * 2012-07-25 2019-03-05 Pullstring, Inc. Artificial intelligence script tool
US20140039675A1 (en) * 2012-08-03 2014-02-06 Nimer Mohammed Ead Instructional humanoid robot apparatus and a method thereof
US8612211B1 (en) 2012-09-10 2013-12-17 Google Inc. Speech recognition and summarization
JP6166889B2 (ja) * 2012-11-15 2017-07-19 株式会社Nttドコモ 対話支援装置、対話システム、対話支援方法及びプログラム
US9460455B2 (en) * 2013-01-04 2016-10-04 24/7 Customer, Inc. Determining product categories by mining interaction data in chat transcripts
US20140278403A1 (en) * 2013-03-14 2014-09-18 Toytalk, Inc. Systems and methods for interactive synthetic character dialogue
FR3011375B1 (fr) 2013-10-01 2017-01-27 Aldebaran Robotics Procede de dialogue entre une machine, telle qu'un robot humanoide, et un interlocuteur humain, produit programme d'ordinateur et robot humanoide pour la mise en œuvre d'un tel procede
CN104714981B (zh) * 2013-12-17 2020-01-10 腾讯科技(深圳)有限公司 语音消息搜索方法、装置及系统
US9514748B2 (en) * 2014-01-15 2016-12-06 Microsoft Technology Licensing, Llc Digital personal assistant interaction with impersonations and rich multimedia in responses
JP6291303B2 (ja) * 2014-03-25 2018-03-14 国立大学法人埼玉大学 コミュニケーション支援ロボットシステム
US11271887B2 (en) 2014-04-07 2022-03-08 Nec Corporation Updating and transmitting action-related data based on user-contributed content to social networking service
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
EP2933071A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems for managing dialogs of a robot
CN104123939A (zh) * 2014-06-06 2014-10-29 国家电网公司 基于变电站巡检机器人的语音交互控制方法
US9716674B2 (en) * 2014-08-22 2017-07-25 Fvmc Software, Llc Systems and methods for virtual interaction
JP6120927B2 (ja) * 2015-09-24 2017-04-26 シャープ株式会社 対話システム、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム
JP6376096B2 (ja) 2015-09-28 2018-08-22 株式会社デンソー 対話装置及び対話方法
JP6589514B2 (ja) * 2015-09-28 2019-10-16 株式会社デンソー 対話装置及び対話制御方法
US10313403B2 (en) 2016-03-15 2019-06-04 Dopplet, Inc. Systems and methods for virtual interaction
US20180012595A1 (en) * 2016-07-07 2018-01-11 Intelligently Interactive, Inc. Simple affirmative response operating system
US9619202B1 (en) * 2016-07-07 2017-04-11 Intelligently Interactive, Inc. Voice command-driven database
US10272349B2 (en) * 2016-09-07 2019-04-30 Isaac Davenport Dialog simulation
TWI646529B (zh) * 2017-07-25 2019-01-01 雲拓科技有限公司 主動聊天裝置
US10636424B2 (en) * 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US11019004B1 (en) * 2018-01-04 2021-05-25 Amdocs Development Limited System, method, and computer program for performing bot engine abstraction
CN108280189B (zh) * 2018-01-24 2020-09-04 广东小天才科技有限公司 一种基于智能笔的语音搜题方法及系统
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP6993314B2 (ja) * 2018-11-09 2022-01-13 株式会社日立製作所 対話システム、装置、及びプログラム
CN112015852A (zh) * 2019-05-31 2020-12-01 微软技术许可有限责任公司 在关于事件的会话中提供响应
CN110727772A (zh) * 2019-10-09 2020-01-24 浙江百应科技有限公司 一种机器人通过条件判断实现动态交互的方法
US11875362B1 (en) 2020-07-14 2024-01-16 Cisco Technology, Inc. Humanoid system for automated customer support
US11907670B1 (en) 2020-07-14 2024-02-20 Cisco Technology, Inc. Modeling communication data streams for multi-party conversations involving a humanoid
CN112735410A (zh) * 2020-12-25 2021-04-30 中国人民解放军63892部队 一种自动语音交互式兵力模型控制方法及系统
US11756574B2 (en) 2021-03-11 2023-09-12 Apple Inc. Multiple state digital assistant for continuous dialog
US11955137B2 (en) 2021-03-11 2024-04-09 Apple Inc. Continuous dialog with a digital assistant

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175657A (ja) * 1999-12-21 2001-06-29 Ricoh Co Ltd 自然言語対話装置、その方法および記憶媒体
JP2001188788A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2002132292A (ja) * 2000-10-26 2002-05-09 Daisuke Murakami 音声によるホームオートメーションシステム
JP2002202991A (ja) * 2000-12-28 2002-07-19 Canon Inc ネットワークによる印刷データ配信装置、方法、システム、媒体、並びにプログラム
JP2004070876A (ja) * 2002-08-09 2004-03-04 Casio Comput Co Ltd 会話システム及び会話処理プログラム
JP2004295294A (ja) * 2003-03-26 2004-10-21 Sony Corp Web対応電子機器装置、Webコンテンツの閲覧表示方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5924068A (en) * 1997-02-04 1999-07-13 Matsushita Electric Industrial Co. Ltd. Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
JPH11219363A (ja) * 1998-01-30 1999-08-10 Toshiba Corp データベースの検索支援システム
US6629087B1 (en) * 1999-03-18 2003-09-30 Nativeminds, Inc. Methods for creating and editing topics for virtual robots conversing in natural language
US9076448B2 (en) * 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7725307B2 (en) * 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US6721706B1 (en) * 2000-10-30 2004-04-13 Koninklijke Philips Electronics N.V. Environment-responsive user interface/entertainment device that simulates personal interaction
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
US6795808B1 (en) * 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
JP3726032B2 (ja) * 2001-04-27 2005-12-14 本田技研工業株式会社 脚式移動ロボットの目標運動生成装置
US7403938B2 (en) * 2001-09-24 2008-07-22 Iac Search & Media, Inc. Natural language query processing
WO2004049306A1 (en) * 2002-11-22 2004-06-10 Roy Rosser Autonomous response engine
JP2004299025A (ja) 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
US7505892B2 (en) * 2003-07-15 2009-03-17 Epistle Llc Multi-personality chat robot
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
US20070101313A1 (en) * 2005-11-03 2007-05-03 Bodin William K Publishing synthesized RSS content as an audio file

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175657A (ja) * 1999-12-21 2001-06-29 Ricoh Co Ltd 自然言語対話装置、その方法および記憶媒体
JP2001188788A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2002132292A (ja) * 2000-10-26 2002-05-09 Daisuke Murakami 音声によるホームオートメーションシステム
JP2002202991A (ja) * 2000-12-28 2002-07-19 Canon Inc ネットワークによる印刷データ配信装置、方法、システム、媒体、並びにプログラム
JP2004070876A (ja) * 2002-08-09 2004-03-04 Casio Comput Co Ltd 会話システム及び会話処理プログラム
JP2004295294A (ja) * 2003-03-26 2004-10-21 Sony Corp Web対応電子機器装置、Webコンテンツの閲覧表示方法およびプログラム

Also Published As

Publication number Publication date
JP2006171719A (ja) 2006-06-29
US20060155765A1 (en) 2006-07-13
US7711569B2 (en) 2010-05-04

Similar Documents

Publication Publication Date Title
JP4629560B2 (ja) 対話型情報システム
US8521677B2 (en) Artificial intelligence system
KR101622111B1 (ko) 대화 시스템 및 그의 대화 방법
US9263039B2 (en) Systems and methods for responding to natural language speech utterance
US7620549B2 (en) System and method of supporting adaptive misrecognition in conversational speech
US6985852B2 (en) Method and apparatus for dynamic grammars and focused semantic parsing
JP2005088179A (ja) 自律移動ロボットシステム
US20210134278A1 (en) Information processing device and information processing method
JP4186992B2 (ja) 応答生成装置、方法及びプログラム
CN102385860A (zh) 信息处理设备、信息处理方法及程序
CN110675871B (zh) 一种语音识别方法及装置
US10529333B2 (en) Command processing program, image command processing apparatus, and image command processing method
CN111933135A (zh) 终端控制方法、装置、智能终端及计算机可读存储介质
CN111816168A (zh) 一种模型训练的方法、语音播放的方法、装置及存储介质
JP6889597B2 (ja) ロボット
US20220161131A1 (en) Systems and devices for controlling network applications
CN113763925B (zh) 语音识别方法、装置、计算机设备及存储介质
CN112307186A (zh) 基于情绪识别的问答服务方法、系统、终端设备及介质
JP7142403B1 (ja) 会話処理プログラム、会話処理システムおよび会話型ロボット
CN112802470A (zh) 一种离线语音控制方法及终端
JP2010015266A (ja) 会話制御システム、並びに端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4629560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees