WO2018043112A1 - 情報提示装置、および情報提示方法 - Google Patents

情報提示装置、および情報提示方法 Download PDF

Info

Publication number
WO2018043112A1
WO2018043112A1 PCT/JP2017/029341 JP2017029341W WO2018043112A1 WO 2018043112 A1 WO2018043112 A1 WO 2018043112A1 JP 2017029341 W JP2017029341 W JP 2017029341W WO 2018043112 A1 WO2018043112 A1 WO 2018043112A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
presentation
agent
user
voice
Prior art date
Application number
PCT/JP2017/029341
Other languages
English (en)
French (fr)
Inventor
真里 斎藤
広 岩瀬
真一 河野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018537101A priority Critical patent/JPWO2018043112A1/ja
Priority to EP17846120.8A priority patent/EP3506083A4/en
Priority to CN201780051501.4A priority patent/CN109643224A/zh
Priority to US16/310,633 priority patent/US10878799B2/en
Publication of WO2018043112A1 publication Critical patent/WO2018043112A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Abstract

本技術は、音声として出力される提示情報をユーザに理解し易くすることができるようにする情報提示装置、および情報提示方法に関する。 本技術の一側面である情報提示装置は、ユーザに対して提示するための提示情報を取得する取得部と、取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成部と、前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示部とを備える。本技術は、例えば、ロボット、サイネージ装置、カーナビゲーション装置、見守りシステム、動画再生装置等に適用できる。

Description

情報提示装置、および情報提示方法
 本技術は、情報提示装置、および情報提示方法に関し、特に、音声出力の要点を明示的に提示できるようにした情報提示装置、および情報提示方法に関する。
 従来、文字情報を読み上げる技術、すなわち、文字情報に対応する音声を合成して出力することによりユーザに提示する技術が存在する。
 ただし、人が読むことを前提として書かれている新聞の記事等に対応する音声を合成して出力する場合、その音声出力は平坦なものとなってしまい、どこが要点であるのかをユーザが理解しづらい問題があった。
 そこで、従来、文字情報に基づいて音声出力を行う場合にユーザがより理解し易くなる方法が提案されている。具体的には、言葉を話すキャラクタ(以下、エージェントと称する)を画面上に表示させ、文字情報の内容に合わせてエージェントが人間のような感情を表現しながら音声出力を行う方法(例えば、特許文献1参照)が提案されている。また、書き言葉から成る文字情報を話し言葉に変換してから読み上げる方法(例えば、特許文献2参照)が提案されている。
特表2003-509976号公報 特開2000-339250号公報
 エージェントが感情を表現しながら話す方法では、話の要点を明示的に表すものではなくユーザがエージェントの表情からそれを読み取る必要があり、依然として、要点等が理解しづらいことがあった。
 話し言葉に変換して読み上げる方法では、書き言葉を読み上げるよりは理解し易いものの、やはり要点等が理解しづらいことがあった。
 本技術はこのような状況に鑑みてなされたものであり、音声として出力される提示情報をユーザに理解し易くするものである。
 本技術の一側面である情報提示装置は、ユーザに対して提示するための提示情報を取得する取得部と、取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成部と、前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示部とを備える。
 前記提示部は、前記第1のエージェントのキャラクタ像を表示することにより、前記サポート情報に対応して合成された音声を前記第1のエージェントの発言として出力することができる。
 前記生成部は、さらに、前記提示情報に対応する音声を合成することができ、前記提示部は、さらに、前記提示情報に対応して合成された音声を第2のエージェントの発言として出力することができる。
 前記提示部は、前記第2のエージェントのキャラクタ像を表示することにより、前記提示情報に対応して合成された音声を前記第2のエージェントの発言として出力することができる。
 本技術の一側面である情報提示装置は、取得された前記提示情報を解析する解析部をさらに備えることができ、前記生成部は、前記提示情報の解析結果に基づき、前記サポート情報を生成することができる。
 本技術の一側面である情報提示装置は、ユーザの状態を検出する検出部をさらに備えることができ、前記提示部は、検出された前記ユーザの状態に応じて、前記サポート情報に対応して合成された音声を第1のエージェントの発言として出力することができる。
 前記検出部は、さらにユーザの属性を検出することができ、前記提示部は、検出された前記ユーザの属性に応じて、前記サポート情報に対応して合成された音声を第1のエージェントの発言として出力することができる。
 前記生成部は、前記提示情報に対する感情語を含む前記サポート情報を生成することができる。
 前記生成部は、前記提示情報の要点を含む前記サポート情報を生成することができる。
 前記生成部は、前記提示情報の内容に対する質問を含む前記サポート情報を生成することができる。
 前記生成部は、前記提示情報に関連するユーザ情報を含む前記サポート情報を生成することができる。
 前記生成部は、前記提示情報に関連する映像を説明する説明文に基づいて前記サポート情報を生成することができる。
 前記生成部は、前記第1のエージェントの発言として提示する前記サポート情報に対し、前記第2のエージェントによる応答の発言として提示する応答情報を生成して、前記応答情報に対応する音声を合成することができ、前記提示部は、さらに、前記応答情報に対応して合成された音声を第2のエージェントの発言として出力することができる。
 前記生成部は、前記第2のエージェントの発言として提示した前記提示情報に対するユーザからの発言に対し、前記第2のエージェントによる応答の発言として提示する応答情報を生成して、前記応答情報に対応する音声を合成することができ、前記提示部は、さらに、前記応答情報に対応して合成された音声を第2のエージェントの発言として出力することができる。
 本技術の一側面である情報提示方法は、情報提示装置による、ユーザに対して提示するための提示情報を取得する取得ステップと、取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成ステップと、前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示ステップとを含む。
 本技術の一側面においては、ユーザに対して提示するための提示情報が取得され、取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報が生成され、生成された前記サポート情報に対応する音声が合成され、前記サポート情報に対応して合成された音声が第1のエージェントの発言として提示される。
 本技術の一側面によれば、音声として出力される提示情報をユーザに理解し易くすることができる。
サポート情報として感情語を提示する例を示す図である。 サポート情報として要点を復唱する例を示す図である。 サポート情報として要点が回答となる質問を提示する例を示す図である。 サポート情報として要点が回答となる質問を提示する例を示す図である。 サポート情報として関連するユーザの情報を提示する例を示す図である。 サポート情報として関連するユーザの情報を提示する例を示す図である。 本技術を適用した情報提示装置の構成例を示すブロック図である。 提示情報の解析の一例を示す図である。 静的情報提示処理を説明するフローチャートである。 動的情報提示処理を説明するフローチャートである。 情報提示装置をサイネージ装置に適用した応用例を示す図である。 サイネージ装置が動的にサポート提示を変更する例を示す図である。 サイネージ装置が動的にサポート提示を変更する例を示す図である。 情報提示装置をカーナビゲーション装置に適用した場合のサポート情報の例を示す図である。 VQA技術を説明するための図である。 情報提示装置を遠隔家族の見守りシステムに適用した場合のサポート情報の例を示す図である。 遠隔家族の家の撮像した映像の例を示す図である。 情報提示装置を動画教材の再生装置に適用した場合のサポート情報の例を示す図である。 情報提示装置を動画教材の再生装置に適用した場合のサポート情報の例を示す図である。 汎用のコンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
 <本技術の概要説明>
 始めに、本技術の概要について説明する。本技術は、文字情報(以下、提示情報と称する)に対応する音声をユーザに提示するものであり、言葉を話す2種類のエージェント(メインエージェントとサブエージェント)が設定される。
 メインエージェントは、提示情報に対応する音声を話し、サブエージェントは、メインエージェントに対する所謂、合いの手のように、提示情報に基づいて生成されるサポート情報に対応する音声を話すようにする。ここで、サポート情報とは、提示情報に対するユーザの理解を深めたり、関心を引いたりするためのものである(詳細後述)。
 ただし、サブエージェントによるサポート情報の音声は、ユーザの状態に拘わりなく常に出力する場合(静的情報提示処理)と、ユーザの状態に応じて出力を開始、終了する場合(動的情報提示処理)のいずれかに設定できるようにする。
 両エージェントはディスプレイに表示され、音声出力の内容に合わせて各種の表現動作を行う(身振り手振りを加えて話す、驚く、喜ぶ、悲しむ、がっかりする等の感情を表す身振り、手振り、顔の表情等を変化させる)。
 両エージェントは、ユーザが区別できるように、声質を換えたり、話し方を換えたり、一方の音声を左側のスピーカから、他方の音声を右側のスピーカから出力したりする。また、両エージェントの体形、服装等の外観を変えてもよい。さらに、例えば、明るいニュースははしゃいだ話し方、暗いニュースは落ち着いた話し方にする等、提示情報およびサポート情報の内容に応じて話し方を変えてもよい。また、さらに、両エージェントを複数用意し、提示情報およびサポート情報の内容に応じてエージェントを変更してもよい。
 なお、両エージェントは、それぞれ1体ずつに限るものではなく2体以上存在してもよい。例えば、1体のメインエージェントと2体以上のサブエージェントを同時に登場させてもよい。
 また、ディスプレイに両エージェントの一方だけを表示するようにしてもよい。その場合、例えば、ディスプレイにメインエージェントを表示せずに提示情報を表示してその音声を出力し、サブエージェントだけを表示させて、サポート情報に対応する音声を出力するようにしてもよい。
 さらに、ディスプレイに両エージェントを表示せず、提示情報とサポート情報を表示して、それぞれに対応する音声を出力するようにしてもよい。
 上述したように、本技術ではエージェントを表示するとともに、その音声を出力するので、例えば、テレビジョン受像機やタブレット型PC等のように、少なくともスピーカとディスプレイを備える装置への適用が想定される。ただし、本技術はディスプレイを備えていない装置にも適用できる。また、例えば、本技術をロボットに適用して1台のロボットにメインエージェントとサブエージェントの役割を演じさせたり、複数のロボットに適用してあるロボットにはメインエージェントを、他のロボットにはサブエージェントの役割を演じさせたりすることができる。
 <サブエージェントがサポート情報として感情語を提示する例>
 図1は、サブエージェント12がサポート情報として感情語を提示する例を示している。
 同図の例では、メインエージェント11が話す提示情報「東京の桜は来週満開だって」が解析され、その解析結果に応じて感情語を含むサポート情報「楽しそうだね」が生成され、サブエージェント12の音声として出力される。感情語を含むサポート情報の音声を出力することにより、提示情報に対してユーザの関心を引く効果が期待できる。なお、感情語の代わりに感嘆詞(へえ、わあ等)を用いてもよい。
 <サブエージェントがサポート情報として要点を復唱する例>
 図2は、サブエージェントがサポート情報として提示情報の要点を復唱する例を示している。
 同図の例では、メインエージェント11が話す提示情報「来月初旬に東京の桜が満開になるよ。今年の人出は去年より多くなりそうだよ」が解析され、その解析結果に応じて要点(いまの場合、来月初旬に満開)が抽出され、抽出された要点を含むサポート情報「来月初旬に満開なんだね」が生成され、サブエージェント12の音声として復唱される。なお、抽出された要点の言葉を倒置してサポート情報「満開になるのは来月初旬なんだね」を生成するようにしてもよい。サポート情報として要点を復唱することにより、ユーザの理解をより深める効果が期待できる。
 <サブエージェントがサポート情報として要点が回答となる質問を提示する例>
 図3および図4は、サブエージェントがサポート情報として提示情報の要点が回答となる質問を提示する例を示している。サポート情報としての質問は、5W1H(when,where,who,what,why,how)の中から要点に応じて選択される。
 図3の例では、メインエージェント11が話す提示情報「東京の桜は来週満開だって」が解析され、その解析結果に応じて要点(いまの場合、来週)が抽出され、抽出された要点が回答となるサポート情報として質問「いつ?」が選択され、サブエージェント12の音声として出力される。さらに、サブエージェント12からの質問に答えるようにメインエージェント11から「来週だよ」の音声が出力される。
 図4の例では、メインエージェント11が話す提示情報「今週末、ABC公園で花火大会があるよ」が解析され、その解析結果に応じて要点(いまの場合、ABC公園)が抽出され、抽出された要点が回答となるサポート情報として質問「どこで?」が選択され、サブエージェント12の音声として出力される。さらに、サブエージェント12からの質問に答えるようにメインエージェント11から「ABC公園だよ」の音声が出力される。
 サブエージェント12がサポート情報として要点が回答となる質問を行うことにより、メインエージェント11が提示情報の要点を繰り返し話すことになるので、ユーザの理解をより深めるとともに、要点の聞き逃しを防ぐ効果が期待できる。
 なお、サブエージェント12が質問を行う前にユーザからの同様の質問を行う発声が検知された場合、ユーザの質問に対してメインエージェント11が音声により回答することもできる。
 すなわち、ユーザの反応にメインエージェント11が反応するようにしてもよい。この場合、ユーザは疑問点や聞き逃した言葉をメインエージェント11に尋ね、その回答を得ることができるので、ユーザの理解をより深めるとともに、要点の聞き逃しを防ぐ効果が期待できる。
 <サブエージェントがサポート情報として関連するユーザの情報を提示する例>
 図5および図6は、サブエージェントがサポート情報として提示情報に関連するユーザの情報を提示する例を示している。提示情報に関連するユーザの情報は、ユーザDB上から検索されるものとする。なお、ユーザDBには、ユーザのスケジュール、メール、アドレス帳、作成文書、検索履歴、閲覧履歴、入力文字、音楽、画像、動画等が登録されているものとする。
 図5の例では、メインエージェント11が話す提示情報「東京の桜は来週満開だって。お花見する人が増えそうだよ。」が解析され、重要な単語(いまの場合、お花見)が抽出されてユーザDB上で検索が行われる。抽出された重要な単語がユーザDBに登録されている場合には、その検索結果に基づきサポート情報「去年はXX公園にお花見に行ったね」が生成され、その音声がサブエージェント12から出力される。
 なお、重要な単語に関連する音楽や効果音を再生したり、画像や動画を表示したりしてもよい。
 図6の例では、メインエージェント11が話す提示情報「先週、Brexitが決まったね。」が解析され、その解析結果に応じて重要な単語(いまの場合、Brexit)が抽出されてユーザDB上から検索される。ユーザDBに抽出された重要な単語が登録されていない場合には、その重要な単語を質問するサポート情報「Brexitってなに?」が生成され、サブエージェント12から出力される。
 さらに、ユーザDBに登録されていない重要な単語(いまの場合、Brexit)がインターネット上のWikiPedia等で検索され、その検索結果に基づく提示情報「英国がEUを離脱することだよ。国民投票で決まったんだ」が生成されて、その音声がサブエージェント12からの質問に答えるようにメインエージェント11から出力される。
 サブエージェントがサポート情報として提示情報に関連するユーザの情報を話すことにより、提示情報に対してユーザの関心を引く効果が期待できる。また、ユーザが知らない単語の意味を教えることができ、ユーザの満足度を上げる効果が期待できる。
 なお、サポート情報の例は上述したものにかぎられるものではない。また、上述したサポート情報の例は、適宜組み合わせることが可能である。
 <本技術の実施の形態である情報提示装置の構成例>
 次に、図7は、本技術の実施の形態である、上述した様々な例を実現する情報提示装置の構成例を示している。
 この情報提示装置20は、提示情報取得部21、提示情報解析部22、ユーザDB23、エージェント発話制御部24、表現DB25、ユーザ状態処理部26、ディスプレイ27、スピーカ28、マイク29、およびセンサ30を備える。
 提示情報取得部21は、例えば、インターネット上の所定のサーバからユーザに音声として提示するため提示情報(テキストデータ)を取得して提示情報解析部22に供給する。提示情報解析部22は、提示情報に対して例えば自然言語解析等の解析を行い、その解析結果をエージェント発話制御部24に出力する。
 ユーザDB23には、ユーザのスケジュール、メール、アドレス帳、作成文章、検索履歴、閲覧履歴、入力文字等が登録されているものとする。
 エージェント発話制御部24は、メインエージェント11およびサブエージェント12の音声を制御する。すなわち、提示情報に対応する音声を合成してメインエージェント11の音声としてスピーカ28から出力させる。また、提示情報の解析結果に基づきサポート情報を生成してそれに対応する音声を合成し、サブエージェント12の音声としてスピーカ28から出力させる。
 さらに、上述した例に示されたように、サブエージェント12の発言(質問等)に対するメインエージェント11の応答となる応答情報を生成し、その音声を合成してスピーカ28から出力させる。
 なお、提示情報、サポート情報、および応答情報に対応する音声は、それぞれ表現DB25を参照して、その表現方法を変更することができる。
 さらに、エージェント発話制御部24は、メインエージェント11およびサブエージェント12の表示を制御する。具体的には、ディスプレイ27にメインエージェント11およびサブエージェント12を表示させ、音声出力に合わせて各種の表現動作(身振り手振りを加えて話す、驚く、がっかりする等)を実行させる。
 表現DB25には、メインエージェント11とサブエージェント12に適用するための、例えば、性別、年齢、職業、出身地等の違いに応じた様々な話し方や表現動作が登録されている。エージェント発話制御部24は、表現DB25を参照して、メインエージェント11およびサブエージェント12の音声を生成することができ、両エージェントに各種の表現動作を実行させることができる。ユーザは、音声を聞くことにより、それがメインエージェント11のものであるか、サブエージェント12のものであるかを区別することができる。
 ユーザ状態処理部26は、マイク29から入力されるユーザの発声と、センサ30から入力される映像等に基づき、ユーザの状態(提示情報に対する反応の程度、反応の頻度、表情等を指す)を識別し、識別結果をエージェント発話制御部24に通知する。
 ディスプレイ27は、エージェント発話制御部24からの制御に従い、メインエージェント11およびサブエージェント12の画像を表示する。スピーカ28は、エージェント発話制御部24からの制御に従い、メインエージェント11およびサブエージェント12の音声を出力する。
 マイク29は、ユーザの発声や情報提示装置20の周囲の音声を収集してユーザ状態処理部26に出力する。センサ30は、ユーザや情報提示装置20の周囲の映像を撮像してユーザ状態処理部26に出力する。
 なお、上述した情報提示装置20の構成要素のうち、ディスプレイ27、スピーカ28、マイク29、およびセンサ30については、ユーザの近傍に配置する必要があるものの、これらの全てが必ずしも一筐体内に収める必要はない。すなわち、例えば、ディスプレイ27とスピーカ28をそれぞれ別の筐体に収めてもよい。
 さらに、情報提示装置20の構成要素のうち、ディスプレイ27、スピーカ28、マイク29、およびセンサ30以外のものについては、それらが互いに通信可能な任意の場所に配置するようにしてもよい。例えば、インターネット上のいわゆるクラウドサーバに配置してもよい。
 <提示情報の解析の一例>
 次に、提示情報解析部22による提示情報の解析と、エージェント発話制御部24によるサポート情報の生成と、サポート情報としてのサブエージェント12からの質問やユーザからの質問に対して回答するメインエージェント11の発言の例について説明する。
 図8は、提示情報解析部22による提示情報の解析の一例を示している。同図に示されるように、提示情報解析部22に提示情報が供給されると、自然言語解析によって構造分解が行われる。その結果が、エージェント発話制御部24に通知され、各文節の係り受けと格(時間格、場所格、主格、対象格、目的格、原因格等)に基づき、メインエージェント11とサブエージェント12(またはユーザ)との対話(質問と回答)が生成される。
 図8の例では、提示情報「5月29日の日曜日にXYZ競技場でサッカーリーグ第1ステージ第14節の試合が行われ、暫定首位を走るチーム川崎はチーム磐田に相手のオウンゴールで挙げた得点が決勝点となり1対0で勝ちました。」が取得されると構造分解が行われる。そして、提示情報の5W1H等として「(いつ)5月29日の日曜日」、「(どこで)XYZ競技場」、「(だれが)チーム川崎」、「(何を)チーム磐田に勝った」、「(どのように)相手のオウンゴールで挙げた得点が決勝点となり1対0です」の対話が生成される。
 <情報提示装置20による静的提示処理について>
 次に、図9は、情報提示装置20による静的情報提示処理を説明するフローチャートである。
 静的情報提示処理は、ユーザの状態に拘わりなく、提示情報の音声の出力の進行に合わせて、サポート情報の音声を出力する処理である。
 ステップS1において、提示情報取得部21は、例えば、インターネット上の所定のサーバから提示情報を取得して提示情報解析部22に供給する。ステップS2において、提示情報解析部22は、提示情報を解析し、その解析結果をエージェント発話制御部24に出力する。ステップS3において、エージェント発話制御部24は、提示情報の解析結果に基づきサポート情報を生成する。
 ステップS4において、エージェント発話制御部24は、提示情報に対応する音声を合成してメインエージェント11の音声としてスピーカ28から出力させる。ステップS5において、エージェント発話制御部24は、サポート情報に対応する音声を合成してサブエージェント12の音声としてスピーカ28から出力させる。
 ステップS6において、エージェント発話制御部24は、提示情報およびサポート情報に対応する音声の出力が終了したかを判定し、終了したと判定するまで処理をステップS4に戻して、ステップS4乃至S6の処理を繰り返す。そして、提示情報およびサポート情報に対応する音声の出力が終了したと判定した場合、該静的情報提示処理を終了する。
 該静的情報提示処理によれば、単にメインエージェント11が提示情報の音声を話すだけでなく、サブエージェント12がサポート情報の音声を話すので、提示情報に対するユーザの理解をより深めることが可能となる。
 <情報提示装置20による動的提示処理について>
 次に、図10は、情報提示装置20による動的情報提示処理を説明するフローチャートである。
 動的情報提示処理は、ユーザの状態に応じて、提示情報の音声の出力の進行に合わせて、サポート情報の音声を出力する処理である。
 ステップS11において、提示情報取得部21は、例えば、インターネット上の所定のサーバから提示情報を取得して提示情報解析部22に供給する。ステップS12において、提示情報解析部22は、提示情報を解析し、その解析結果をエージェント発話制御部24に出力する。ステップS13において、エージェント発話制御部24は、提示情報の解析結果に基づきサポート情報を生成する。なお、サポート情報の生成は、後述するステップS16にてサポート情報に対応する音声の出力を開始する場合に実行するようにしてもよい。
 ステップS14において、エージェント発話制御部24は、提示情報に対応する音声を合成してメインエージェント11の音声としてスピーカ28から出力させる。
 ステップS15においては、エージェント発話制御部24は、ユーザ状態処理部26からユーザの状態を表すユーザ状態情報を取得する。ステップS16において、エージェント発話制御部24は、ユーザ状態情報が表わすユーザの状態に応じて、サポート情報に対応する音声を合成してサブエージェント12の音声としてスピーカ28から出力させる。
 ここで、ユーザの状態とは、メインエージェント11の音声による提示情報に対する反応の程度、反応の頻度、表情等を指し、提示情報に対するユーザの注意がそれたときに、サポート情報に対応する音声の出力を開始するようにする。そして、提示情報に対するユーザの注意が戻ったときに、サポート情報に対応する音声の出力を停止するようにする。
 なお、例えば、提示情報の音声の出力を開始してから所定の時間が経過する等、ユーザの状態以外の条件に応じて、サポート情報に対応する音声の出力を制御してもよい。
 ステップS17において、エージェント発話制御部24は、提示情報に対応する音声の出力が終了したかを判定し、終了したと判定するまで処理をステップS14に戻して、ステップS14乃至S17の処理を繰り返す。そして、提示情報に対応する音声の出力が終了したと判定した場合、該動的情報提示処理を終了する。
 該動的情報提示処理によれば、単にメインエージェント11が提示情報の音声を話すだけでなく、ユーザの状態に対応して、サブエージェント12がサポート情報の音声を話し出すので、提示情報に対するユーザの理解をより深めることができるとともに、提示情報に対してユーザの注意や興味を引く効果が期待できる。
 <情報提示装置20の応用例>
 以下、情報提示装置20の様々な応用例について説明する。
 <サイネージ装置への適用>
 図11は、情報提示装置20を例えば観光施設等に設置する案内用のサイネージ装置50に適用した応用例であり、複数のユーザ61および62によって使用される場合を示している。
 この場合、サイネージ装置50は、ユーザ61および62の状態や属性(大人と子供、男性と女性、親と子等)を識別して、動的にサポート情報を変更することができる。
 図12および図13は、図11に示されたサイネージ装置50がユーザの反応の有無に応じて、動的に提示する情報を変更する例を示している。ここで、ユーザの反応があった場合とは、例えば、ユーザが画面に近づいたり、顔を向けたり、目を見開いたりする動作が検出されたことを指す。
 図12の例では、ユーザ61および62を区別せず、反応の有無だけが検出される。そして、メインエージェント11の音声として提示情報「この施設では、科学の発見や最新技術を紹介しているよ」が出力され、提示情報の音声に対してユーザの反応があった場合、サブエージェント12の音声としてサポート情報「最新の技術ってどんなものがあるのかな?」が出力され、さらに、メインエージェント11の音声として情報「最新のロボットとゲーム対戦できるよ」が出力される。
 反対に、ユーザ61および62の反応がない場合、サブエージェント12の音声としてサポート情報「ほかに何かウリがある?」が出力され、さらに、メインエージェント11の音声として情報「実はショップで買える科学グッズが面白いよ」が出力される。
 図12の例によれば、ユーザの反応の有無に応じ、動的にサポート情報を変更することができ、それに応じてメインエージェント11が話す情報も変更することができる。よって、ユーザの反応がある場合には、その情報を詳細に伝えることができ、ユーザの反応がない場合には、他の話題を伝えることができ、結果的にユーザの関心を引く効果が期待できる。
 図13の例では、ユーザ61および62を区別して、その属性(同図の例では、大人と子供)と反応の有無が検出される。そして、メインエージェント11の音声として提示情報「この施設では、科学の発見や最新技術を紹介しているよ」が出力され、それに対して大人のユーザ61の反応があった場合、サブエージェント12の音声として大人向けのサポート情報「どんな内容なのかな?」が出力され、さらに、メインエージェント11の音声として大人向けの情報「AA技術やBB素材の仕組みについて解説するよ」が出力される。
 また、子供のユーザ62の反応があった場合、サブエージェント12の音声として子供向けのサポート情報「どんなふうに楽しめるの?」が出力され、さらに、メインエージェント11の音声として子供向けの情報「CCを作って遊ぶコーナーがあるよ」が出力される。
 図13の例によれば、ユーザの属性(同図の例では、大人と子供)を区別してそれぞれの反応の有無が検出され、大人のユーザ61に反応があった場合と、子供のユーザ62に反応があった場合とで、動的にサポート情報を変更することができ、それに応じてメインエージェント11が話す情報も変更することができる。これにより、属性の異なるユーザが同時に存在する場合にも、結果的に両ユーザの関心を引く効果が期待できる。
 なお、図示は省略するが、大人のユーザ61に反応がない場合と、子供のユーザ62に反応がない場合とで、動的にサポート情報を変更し、それに応じてメインエージェント11が話す情報も変更するようにすることも可能である。
 <カーナビゲーション装置への適用>
 次に、図14は、情報提示装置20をカーナビゲーション装置に適用した応用例におけるサポート情報の例を示している。
 図14の例では、メインエージェント11の音声として提示情報「500m先右折です。」が出力される。また、提示情報から間もなく右折が行われることが判明され、それを支援するためにサブエージェント12の音声としてサポート情報「対向車は混雑し始めているよ。」が出力される。また、サポート情報としては近隣の施設の紹介として「XYシェフのレストランがあるよ」が出力されたり、注意喚起として「歩行者の飛び出し注意」が出力されたりする。上述した近隣の施設の紹介は、例えばGPSに基づく位置情報や、撮像された車外の映像内の看板等に基づいて情報検索が行われることにより実現される。上述した注意喚起は、ユーザ(運転者)の運転歴や運転時の視線等を分析したり、撮像された車外の映像を解析したりした結果から実現される。
 なお、サポート情報の生成については、カーナビゲーション装置が搭載されている車両から運転中に車外を撮影した、例えば図15に示されるような映像に対してVQA技術を適用することにより生成される文書に基づいて行うようにしてもよい。ここで、VQA技術とは、映像内に写っている被写体を検出して、その説明文を生成する技術である。
 図15は、車両から撮影される車外の映像の一例を示している。この映像には、横断歩道、対向車線、対向車、信号、歩行者、看板、住宅等が写っている。この映像にVQA技術を適用した場合、例えば「画面縦方向中程に横方向に横断歩道が存在する。横断歩道の右側に歩行者がいて横断しそう。横断歩道の上方に信号が存在し、緑色に点灯している。画面横方向中央からやや右側に対向車線が存在し、対向車が向かってきている。画面左側、横断歩道の先には看板が存在する。画面右側、歩行者の先には住宅が存在する。」が生成される。この文書を用いれば、例えば、自走車線や対向車線の交通量を監視したり、歩行者の横断を予測したりすることができるので、ユーザ(運転者)にとって有効なサポート情報を音声として出力することが可能となる。
 <見守りシステムへの適用>
 次に、図16は、情報提示装置20を遠隔家族の見守りシステムに適用した応用例におけるサポート情報の例を示している。ここで、遠隔家族とは、家で留守番をしている子供や、独居老人等を指す。
 図16の例では、メインエージェント11が話す提示情報「今日は、6時に起床して、...」が解析され、その解析結果に応じて感情語を含むサポート情報「いつもよりのんびりしていたみたいだね」が生成され、サブエージェント12の音声として出力される。
 なお、メインエージェント11が話す提示情報については、遠隔家族の家を撮像している映像に対してVQA技術を適用することにより生成される文書に基づいて生成される。
 図17は、遠隔家族の家の中を撮像している映像の例を示している。例えば、同図Aに示されるようにリビングの入り口を撮像し、その映像を解析したり、VQA技術を適用したりすれば、リビングへの出入り回数を記録できる。また、同図Bに示されるように、台所を撮像し、その映像を解析したり、VQA技術を適用したりすれば、料理時間帯を記録できる。さらに、同図Cに示されるようにリビングを撮像し、その映像を解析したり、VQA技術を適用したりすれば、ソファーに座っている時間を記録できる。また、いずれの映像も、解析したり、VQA技術を適用したりすれば、遠隔家族の転倒等の危険を監視することできる。
 そして、遠隔家族の家を撮像している映像から危険な事象が検出された場合、映像に対してVQA技術を適用することにより生成される文書に基づいてサポート情報が生成され、サブエージェント12の音声として「大変!リビングで倒れているよ」や「3日間外出していないようです」等が出力される。
 上述したように、情報提示装置20を遠隔家族の見守りシステムに適用すれば、ユーザは、平常時には遠隔家族の様子を音声で分かり易く知ることができる。また、異常発生時には、音声によって発生している異常の具体的な内容を知ることができる。
 <動画教材への適用>
 次に、図18および図19は、情報提示装置20を動画教材の再生装置に適用した応用例におけるサポート情報の例を示している。
 図18の例では、メインエージェント11は登場せず、1体のサブエージェント12が登場する。ただし、サブエージェント12は画面上に表示してもよいし、しなくてもよい。そして、動画の中に実際に登場する人物(いまの場合、講義を行う講師)が話す説明「これはAAであり、BBの働きがあります」が提示情報とされ、これが解析され、その解析結果に応じてユーザが疑問に思いそうな言葉(いまの場合、BBの働き)が抽出され、抽出された言葉を説明するためのサポート情報「BBの働きってbbbすることだね」が生成され、サブエージェント12の音声として出力される。
 なお、ユーザが疑問に思いそうな言葉については、提示情報の解析結果から抽出する以外に、例えば、当該講義に対する過去の質問履歴から予め収集しておいてもよい。その場合、ユーザが疑問に思いそうな言葉を説明するためのサポート情報についても予め生成しておけばよい。また、ユーザが疑問に思った言葉をリアルタイムに収集するようにしてもよい。
 図18の例によれば、ユーザ自身が疑問な言葉を質問しなくてもサブエージェント12が、それを解説してくれるので、講義内容に対するユーザの理解を深める効果が期待できる。
 図19の例では、メインエージェント11は登場せず、2体のサブエージェント12-1および12-2が登場する。ただし、サブエージェント12-1および12-2は画面上に表示してもよいし、しなくてもよい。そして、メインエージェント11は登場せず、動画の中に実際に登場する人物(いまの場合、講義を行う講師)が話す説明「これはAAであり、BBの働きがあります」が提示情報とされ、これが解析され、その解析結果に応じてユーザが疑問に思いそうな言葉(いまの場合、BBの働き)が抽出され、抽出された言葉を含む質問のサポート情報「BBの働きってなにかな?」がサブエージェント12-1の音声として出力される。さらに、抽出された言葉を説明するためのサポート情報「bbbすることだよ」が生成され、サブエージェント12-2の音声として出力される。
 なお、ユーザが疑問に思いそうな言葉については、図18の例と同様に、例えば、当該講義に対する過去の質問履歴から予め収集しておいてもよい。その場合、ユーザが疑問に思いそうな言葉を説明するためのサポート情報についても予め生成しておけばよい。また、ユーザが疑問に思った言葉をリアルタイムに収集するようにしてもよい。
 図19の例によれば、ユーザ自身が疑問な言葉を質問しなくてもサブエージェント12-1がそれを質問し、サブエージェント12-2が解説してくれるので、講義内容に対するユーザの理解を深める効果が期待できる。
 <上述した一連の処理をソフトウェアにより実行する場合について>
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図20は、上述した情報提示装置20による一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
 バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続されている。
 入力部106は、キーボード、マウス、マイクロフォンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動する。
 以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 なお、コンピュータ100が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 本技術は以下のような構成も取ることができる。
(1)
 ユーザに対して提示するための提示情報を取得する取得部と、
 取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成部と、
 前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示部と
 を備える情報提示装置。
(2)
 前記提示部は、前記第1のエージェントのキャラクタ像を表示することにより、前記サポート情報に対応して合成された音声を前記第1のエージェントの発言として出力する
 前記(1)に記載の情報提示装置。
(3)
 前記生成部は、さらに、前記提示情報に対応する音声を合成し、
 前記提示部は、さらに、前記提示情報に対応して合成された音声を第2のエージェントの発言として出力する
 前記(1)または(2)に記載の情報提示装置。
(4)
 前記提示部は、前記第2のエージェントのキャラクタ像を表示することにより、前記提示情報に対応して合成された音声を前記第2のエージェントの発言として出力する
 前記(3)に記載の情報提示装置。
(5)
 取得された前記提示情報を解析する解析部をさらに備え、
 前記生成部は、前記提示情報の解析結果に基づき、前記サポート情報を生成する
 前記(1)から(4)のいずれかに記載の情報提示装置。
(6)
 ユーザの状態を検出する検出部をさらに備え、
 前記提示部は、検出された前記ユーザの状態に応じて、前記サポート情報に対応して合成された音声を第1のエージェントの発言として出力する
 前記(1)から(5)のいずれかに記載の情報提示装置。
(7)
 前記検出部は、さらにユーザの属性を検出し、
 前記提示部は、検出された前記ユーザの属性に応じて、前記サポート情報に対応して合成された音声を第1のエージェントの発言として出力する
 前記(6)に記載の情報提示装置。
(8)
 前記生成部は、前記提示情報に対する感情語を含む前記サポート情報を生成する
 前記(1)から(7)のいずれかに記載の情報提示装置。
(9)
 前記生成部は、前記提示情報の要点を含む前記サポート情報を生成する
 前記(1)から(7)のいずれかに記載の情報提示装置。
(10)
 前記生成部は、前記提示情報の内容に対する質問を含む前記サポート情報を生成する
 前記(1)から(7)のいずれかに記載の情報提示装置。
(11)
 前記生成部は、前記提示情報に関連するユーザ情報を含む前記サポート情報を生成する
 前記(1)から(7)のいずれかに記載の情報提示装置。
(12)
 前記生成部は、前記提示情報に関連する映像を説明する説明文に基づいて前記サポート情報を生成する
 前記(1)から(7)のいずれかに記載の情報提示装置。
(13)
 前記生成部は、前記第1のエージェントの発言として提示する前記サポート情報に対し、前記第2のエージェントによる応答の発言として提示する応答情報を生成して、前記応答情報に対応する音声を合成し、
 前記提示部は、さらに、前記応答情報に対応して合成された音声を第2のエージェントの発言として出力する
 前記(3)から(12)のいずれかに記載の情報提示装置。
(14)
 前記生成部は、前記第2のエージェントの発言として提示した前記提示情報に対するユーザからの発言に対し、前記第2のエージェントによる応答の発言として提示する応答情報を生成して、前記応答情報に対応する音声を合成し、
 前記提示部は、さらに、前記応答情報に対応して合成された音声を第2のエージェントの発言として出力する
 前記(3)から(12)のいずれかに記載の情報提示装置。
(15)
 情報提示装置の情報提示方法において、
 前記情報提示装置による、
  ユーザに対して提示するための提示情報を取得する取得ステップと、
  取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成ステップと、
  前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示ステップと
 を含む情報提示方法。
 11 メインエージェント, 12 サブエージェント, 20 情報提示装置, 21 提示情報取得部, 22 提示情報解析部, 23 ユーザDB, 24 エージェント発話制御部, 25 表現DB, 26 ユーザ状態処理部, 27 ディスプレイ, 28 スピーカ, 29 マイク, 30 センサ, 50 サイネージ装置, 100 コンピュータ, 101 CPU

Claims (15)

  1.  ユーザに対して提示するための提示情報を取得する取得部と、
     取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成部と、
     前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示部と
     を備える情報提示装置。
  2.  前記提示部は、前記第1のエージェントのキャラクタ像を表示することにより、前記サポート情報に対応して合成された音声を前記第1のエージェントの発言として出力する
     請求項1に記載の情報提示装置。
  3.  前記生成部は、さらに、前記提示情報に対応する音声を合成し、
     前記提示部は、さらに、前記提示情報に対応して合成された音声を第2のエージェントの発言として出力する
     請求項2に記載の情報提示装置。
  4.  前記提示部は、前記第2のエージェントのキャラクタ像を表示することにより、前記提示情報に対応して合成された音声を前記第2のエージェントの発言として出力する
     請求項3に記載の情報提示装置。
  5.  取得された前記提示情報を解析する解析部をさらに備え、
     前記生成部は、前記提示情報の解析結果に基づき、前記サポート情報を生成する
     請求項2に記載の情報提示装置。
  6.  ユーザの状態を検出する検出部をさらに備え、
     前記提示部は、検出された前記ユーザの状態に応じて、前記サポート情報に対応して合成された音声を第1のエージェントの発言として出力する
     請求項2に記載の情報提示装置。
  7.  前記検出部は、さらにユーザの属性を検出し、
     前記提示部は、検出された前記ユーザの属性に応じて、前記サポート情報に対応して合成された音声を第1のエージェントの発言として出力する
     請求項6に記載の情報提示装置。
  8.  前記生成部は、前記提示情報に対する感情語を含む前記サポート情報を生成する
     請求項2に記載の情報提示装置。
  9.  前記生成部は、前記提示情報の要点を含む前記サポート情報を生成する
     請求項2に記載の情報提示装置。
  10.  前記生成部は、前記提示情報の内容に対する質問を含む前記サポート情報を生成する
     請求項2に記載の情報提示装置。
  11.  前記生成部は、前記提示情報に関連するユーザ情報を含む前記サポート情報を生成する
     請求項2に記載の情報提示装置。
  12.  前記生成部は、前記提示情報に関連する映像を説明する説明文に基づいて前記サポート情報を生成する
     請求項2に記載の情報提示装置。
  13.  前記生成部は、前記第1のエージェントの発言として提示する前記サポート情報に対し、前記第2のエージェントによる応答の発言として提示する応答情報を生成して、前記応答情報に対応する音声を合成し、
     前記提示部は、さらに、前記応答情報に対応して合成された音声を第2のエージェントの発言として出力する
     請求項3に記載の情報提示装置。
  14.  前記生成部は、前記第2のエージェントの発言として提示した前記提示情報に対するユーザからの発言に対し、前記第2のエージェントによる応答の発言として提示する応答情報を生成して、前記応答情報に対応する音声を合成し、
     前記提示部は、さらに、前記応答情報に対応して合成された音声を第2のエージェントの発言として出力する
     請求項3に記載の情報提示装置。
  15.  情報提示装置の情報提示方法において、
     前記情報提示装置による、
      ユーザに対して提示するための提示情報を取得する取得ステップと、
      取得された前記提示情報に基づき、前記提示情報とともにユーザに提示するためのサポート情報を生成し、生成した前記サポート情報に対応する音声を合成する生成ステップと、
      前記サポート情報に対応して合成された音声を第1のエージェントの発言として提示する提示ステップと
     を含む情報提示方法。
PCT/JP2017/029341 2016-08-29 2017-08-15 情報提示装置、および情報提示方法 WO2018043112A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018537101A JPWO2018043112A1 (ja) 2016-08-29 2017-08-15 情報提示装置、および情報提示方法
EP17846120.8A EP3506083A4 (en) 2016-08-29 2017-08-15 INFORMATION PRESENTATION DEVICE AND INFORMATION PRESENTATION PROCEDURE
CN201780051501.4A CN109643224A (zh) 2016-08-29 2017-08-15 信息提示装置和信息提示方法
US16/310,633 US10878799B2 (en) 2016-08-29 2017-08-15 Information presenting apparatus and information presenting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016166783 2016-08-29
JP2016-166783 2016-08-29

Publications (1)

Publication Number Publication Date
WO2018043112A1 true WO2018043112A1 (ja) 2018-03-08

Family

ID=61300632

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029341 WO2018043112A1 (ja) 2016-08-29 2017-08-15 情報提示装置、および情報提示方法

Country Status (5)

Country Link
US (1) US10878799B2 (ja)
EP (1) EP3506083A4 (ja)
JP (1) JPWO2018043112A1 (ja)
CN (1) CN109643224A (ja)
WO (1) WO2018043112A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019231587A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Providing audio information with a digital assistant
JPWO2018190099A1 (ja) * 2017-04-10 2020-02-27 ヤマハ株式会社 音声提供装置、音声提供方法及びプログラム
JP2020173774A (ja) * 2019-04-08 2020-10-22 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド ナレーションを生成するための方法、装置、サーバー、コンピュータ可読記憶媒体及びコンピュータプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018043112A1 (ja) * 2016-08-29 2019-06-24 ソニー株式会社 情報提示装置、および情報提示方法
CN111161704A (zh) * 2018-10-22 2020-05-15 联想图像(天津)科技有限公司 一种电子设备的控制方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000266551A (ja) * 1999-03-19 2000-09-29 Equos Research Co Ltd 目的地設定装置及びエージェント装置
JP2000339250A (ja) 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 対話メッセージ生成方法、その装置、そのプログラムを記録した媒体
JP2001275058A (ja) * 2000-01-21 2001-10-05 Jisedai Joho Hoso System Kenkyusho:Kk 映像内容の説明文生成方法、映像内容説明文生成装置、ダイジェスト映像の番組化方法、ダイジェスト映像の番組化装置およびその方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003509976A (ja) 1999-09-10 2003-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 受信可能番組に関して助言する方法及び装置
JP2005100382A (ja) * 2003-09-01 2005-04-14 Matsushita Electric Ind Co Ltd 対話装置及び対話方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2095820C (en) * 1990-11-14 2004-04-13 Robert Macandrew Best Linked video game system and portable game system
US5553864A (en) * 1992-05-22 1996-09-10 Sitrick; David H. User image integration into audiovisual presentation system and methodology
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
US6356837B1 (en) * 2001-03-19 2002-03-12 Alpine Electronics, Inc. Navigation system
JP2002318594A (ja) * 2001-04-20 2002-10-31 Sony Corp 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
US7775885B2 (en) * 2005-10-14 2010-08-17 Leviathan Entertainment, Llc Event-driven alteration of avatars
US8180486B2 (en) * 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
CA2732268C (en) * 2008-07-28 2020-07-21 Breakthrough Performancetech, Llc Systems and methods for computerized interactive skill training
JP5821824B2 (ja) * 2012-11-14 2015-11-24 ヤマハ株式会社 音声合成装置
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
US9898849B2 (en) * 2014-11-05 2018-02-20 Intel Corporation Facial expression based avatar rendering in video animation and method
US20160216941A1 (en) * 2015-01-23 2016-07-28 Duane Ramseur System for avatar to voice read messages
JP6665446B2 (ja) * 2015-08-21 2020-03-13 ヤマハ株式会社 情報処理装置、プログラム及び音声合成方法
JPWO2018043112A1 (ja) * 2016-08-29 2019-06-24 ソニー株式会社 情報提示装置、および情報提示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000266551A (ja) * 1999-03-19 2000-09-29 Equos Research Co Ltd 目的地設定装置及びエージェント装置
JP2000339250A (ja) 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 対話メッセージ生成方法、その装置、そのプログラムを記録した媒体
JP2003509976A (ja) 1999-09-10 2003-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 受信可能番組に関して助言する方法及び装置
JP2001275058A (ja) * 2000-01-21 2001-10-05 Jisedai Joho Hoso System Kenkyusho:Kk 映像内容の説明文生成方法、映像内容説明文生成装置、ダイジェスト映像の番組化方法、ダイジェスト映像の番組化装置およびその方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005100382A (ja) * 2003-09-01 2005-04-14 Matsushita Electric Ind Co Ltd 対話装置及び対話方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3506083A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018190099A1 (ja) * 2017-04-10 2020-02-27 ヤマハ株式会社 音声提供装置、音声提供方法及びプログラム
WO2019231587A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Providing audio information with a digital assistant
CN112154412A (zh) * 2018-06-01 2020-12-29 苹果公司 用数字助理提供音频信息
KR20210005200A (ko) * 2018-06-01 2021-01-13 애플 인크. 디지털 어시스턴트를 이용한 오디오 정보 제공
KR102488285B1 (ko) * 2018-06-01 2023-01-13 애플 인크. 디지털 어시스턴트를 이용한 오디오 정보 제공
KR20230010845A (ko) * 2018-06-01 2023-01-19 애플 인크. 디지털 어시스턴트를 이용한 오디오 정보 제공
US11609739B2 (en) 2018-06-01 2023-03-21 Apple Inc. Providing audio information with a digital assistant
US11861265B2 (en) 2018-06-01 2024-01-02 Apple Inc. Providing audio information with a digital assistant
KR102651249B1 (ko) 2018-06-01 2024-03-27 애플 인크. 디지털 어시스턴트를 이용한 오디오 정보 제공
JP2020173774A (ja) * 2019-04-08 2020-10-22 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド ナレーションを生成するための方法、装置、サーバー、コンピュータ可読記憶媒体及びコンピュータプログラム
JP7030095B2 (ja) 2019-04-08 2022-03-04 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド ナレーションを生成するための方法、装置、サーバー、コンピュータ可読記憶媒体及びコンピュータプログラム

Also Published As

Publication number Publication date
EP3506083A1 (en) 2019-07-03
EP3506083A4 (en) 2019-08-07
US10878799B2 (en) 2020-12-29
JPWO2018043112A1 (ja) 2019-06-24
CN109643224A (zh) 2019-04-16
US20190180733A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
WO2018043112A1 (ja) 情報提示装置、および情報提示方法
US20220284896A1 (en) Electronic personal interactive device
EP3766066B1 (en) Generating response in conversation
Schweinberger et al. Hearing facial identities
JP2022534708A (ja) 動的に反応する仮想キャラクターのためのマルチモーダルモデル
JP2020056996A (ja) 音色選択可能なボイス再生システム、その再生方法、およびコンピュータ読み取り可能な記録媒体
WO2018118420A1 (en) Method, system, and apparatus for voice and video digital travel companion
JP2023552854A (ja) ヒューマンコンピュータインタラクション方法、装置、システム、電子機器、コンピュータ可読媒体及びプログラム
CN109817244A (zh) 口语评测方法、装置、设备和存储介质
Chastagnol et al. Designing an emotion detection system for a socially intelligent human-robot interaction
KR20190109651A (ko) 인공지능 기반의 음성 모방 대화 서비스 제공 방법 및 시스템
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
CN114048299A (zh) 对话方法、装置、设备、计算机可读存储介质及程序产品
Mattheij et al. Mirror mirror on the wall
JP7070546B2 (ja) 情報処理装置および情報処理方法
CN106113057A (zh) 基于机器人的音视频宣传方法和系统
JP6619072B2 (ja) 音合成装置、音合成方法、及びそのプログラム
JP5689774B2 (ja) 対話型情報発信装置、対話型情報発信方法、及びプログラム
JP2016201678A (ja) 認識装置、映像コンテンツ提示システム
CN115222857A (zh) 生成虚拟形象的方法、装置、电子设备和计算机可读介质
CN114201596A (zh) 虚拟数字人使用方法、电子设备和存储介质
JP4741817B2 (ja) 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法
CN116137662A (zh) 页面展示方法及装置、电子设备、存储介质和程序产品
JP2018055232A (ja) コンテンツ提供装置、コンテンツ提供方法、及びプログラム
JP2004101637A (ja) オンライン教育システム、情報処理装置、情報提供方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17846120

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018537101

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017846120

Country of ref document: EP