JP4508917B2 - 情報呈示装置、情報呈示方法、および、情報呈示用プログラム - Google Patents

情報呈示装置、情報呈示方法、および、情報呈示用プログラム Download PDF

Info

Publication number
JP4508917B2
JP4508917B2 JP2005085592A JP2005085592A JP4508917B2 JP 4508917 B2 JP4508917 B2 JP 4508917B2 JP 2005085592 A JP2005085592 A JP 2005085592A JP 2005085592 A JP2005085592 A JP 2005085592A JP 4508917 B2 JP4508917 B2 JP 4508917B2
Authority
JP
Japan
Prior art keywords
information
character
voice
scenario data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005085592A
Other languages
English (en)
Other versions
JP2006268428A (ja
Inventor
健 根木
俊彦 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2005085592A priority Critical patent/JP4508917B2/ja
Publication of JP2006268428A publication Critical patent/JP2006268428A/ja
Application granted granted Critical
Publication of JP4508917B2 publication Critical patent/JP4508917B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報呈示装置、情報呈示方法、および、情報呈示用プログラムに関する。
近年、ユーザ一人ひとりの嗜好に合わせたアドバイスを行ったり、商品またはサービスを紹介したりする、いわゆるエージェント機能が種々提案されている。
このようなエージェント機能を有する装置では、例えば、人の形を模したキャラクタ等を表示させ、ユーザからの質問等に当該キャラクタが応答するように構成されているものがある。
ところで、このようなエージェント機能を有する装置の場合、常に同じキャラクタが表示されると、ユーザが飽きを感じてしまう。そこで、特許文献1に示すように、キャラクタを必要に応じて変更することができる技術が提案されている。
特開2003−173451号公報(特許請求の範囲、要約書)
ところで、特許文献1に示す技術は、キャラクタについては変更することができるが、キャラクタが発生する音声および応答パターンについては変更することができない。このため、ユーザが飽きを感じてしまったり、ユーザが求めているのとは異なる応答がなされてしまったりするという問題点がある。
本発明は、上記の事情に基づきなされたもので、その目的とするところは、ユーザが真に求めている情報を呈示することができるとともに、呈示される情報に飽きを感じにくい情報呈示装置、情報呈示方法、および、情報呈示用プログラムを提供することを目的とする。
上述の目的を達成するため、本発明の情報呈示装置は、ユーザの入力情報に対応する情報をキャラクタによる応答として呈示する情報呈示装置において、キャラクタの応答パターンを示す複数のシナリオデータを記憶する第1の記憶手段と、キャラクタが応答する際の音声情報を記憶する第2の記憶手段と、音声情報に対応するキャラクタに関する情報を記憶する第3の記憶手段と、ユーザから所定の入力情報が供給された場合には、シナリオデータに基づいて音声情報、および、キャラクタに関する情報を第1〜第3の記憶手段から取得する取得手段と、取得手段によって取得された音声情報、および、キャラクタに関する情報を所定の出力装置にそれぞれ出力する出力手段と、第1の記憶手段に記憶されている複数のシナリオデータの中から選択されるシナリオデータに基づいてキャラクタの応答パターンを変更する変更手段と、を有している。
また、本発明の情報呈示装置は、上述の発明に加えて、音声情報が、キャラクタに応じた音声を出力するための情報であり、キャラクタに関する情報が、キャラクタを表示するための画像情報であるようにしている。
また、本発明の情報呈示装置は、上述の発明に加えて、変更手段が、シナリオデータ、音声情報、および、キャラクタに関する情報を他の記憶装置から取得して変更するようにしている。
また、本発明の情報呈示装置は、上述の発明に加えて、変更手段が、ユーザの入力情報に対応する専門分野に属するシナリオデータに変更すると共に、当該専門分野に応じたキャラクタおよび音声情報に変更するようにしている。
また、本発明の情報呈示装置は、上述の発明に加えて、変更手段が、ユーザからの要求に応じてぼけ役またはつっこみ役を示すキャラクタに変更し、シナリオデータおよび音声情報についても該当する情報に変更するようにしている。
また、本発明の情報呈示装置が実行する情報呈示方法は、ユーザの入力情報に対応する情報をキャラクタによる応答として呈示する情報呈示装置が実行する情報呈示方法において、ユーザから所定の入力情報が供給された場合には、応答パターンを示すシナリオデータに基づいて音声情報、および、キャラクタに関する情報を記憶装置から取得し、取得された音声情報、および、キャラクタに関する情報を所定の出力装置にそれぞれ出力し、複数のシナリオデータの中から選択されるシナリオデータに基づいてキャラクタの応答パターンを変更するようにしている。
また、本発明の情報呈示用プログラムは、ユーザの入力情報に対応する情報をキャラクタによる応答として呈示する処理をコンピュータに機能させるコンピュータ読み取り可能な情報呈示用プログラムにおいて、コンピュータを、キャラクタの応答パターンを示す複数のシナリオデータを記憶する第1の記憶手段、キャラクタが応答する際の音声情報を記憶する第2の記憶手段、音声情報に対応するキャラクタに関する情報を記憶する第3の記憶手段、ユーザから所定の入力情報が供給された場合には、シナリオデータに基づいて音声情報、および、キャラクタに関する情報を第1〜第3の記憶手段から取得する取得手段、取得手段によって取得された音声情報、および、キャラクタに関する情報を所定の出力装置にそれぞれ出力する出力手段、第1の記憶手段に記憶されている複数のシナリオデータの中から選択されるシナリオデータに基づいてキャラクタの応答パターンを変更する変更手段、として機能させるようにしている。
本発明は、ユーザが真に求めている情報を呈示することができるとともに、呈示される情報に飽きを感じにくい情報呈示装置、情報呈示方法、および、情報呈示用プログラムを提供することができる。
以下、本発明の一実施の形態について図に基づいて説明する。
図1は、本発明の実施の形態に係る情報呈示装置の構成例を示すブロック図である。この図に示すように、本発明の実施の形態に係る情報呈示装置10は、CPU(Central Processing Unit)10a、ROM(Read Only Memory)10b、RAM(Random Access Memory)10c、HDD(Hard Disk Drive)10d、ビデオ回路10e、I/F(Interface)10f、バス10g、表示装置10h、記憶装置10i、音声入力装置10j、および、音声出力装置10kを有している。
ここで、取得手段および変更手段としてのCPU10aは、HDD10dに格納されているプログラムに応じて、各種演算処理を実行するとともに、装置の各部を制御する中央処理装置である。
ROM10bは、CPU10aが実行するプログラムを格納した半導体記憶装置である。RAM10cは、CPU10aが実行するプログラムを一時的に記憶する半導体記憶装置である。
第1の記憶手段、第2の記憶手段、および、第3の記憶手段としてのHDD10dは、CPU10aが実行するプログラムおよびデータを格納している。具体的には、HDD10dは、音声処理プログラム10d1、エージェント処理プログラム10d2、キャラクタ情報DB(Data Base)10d3、および、キャラクタ変更プログラム10d4を有している。ここで、音声処理プログラム10d1は、図2を参照して後述するように、音声の入出力および音声認識に関する処理を実行するためのプログラムである。エージェント処理プログラム10d2は、同じく、図2を参照して後述するように、音声処理プログラム10d1の処理に基づいて入力された音声に対応した所定の応答情報を取得し、音声として出力するためのプログラムである。キャラクタ情報DB10d3は、キャラクタに関する情報を格納するデータベースである。キャラクタ変更プログラム10d4は、キャラクタを変更する必要が生じた場合に、キャラクタ情報DB10d3に格納されている情報を他のキャラクタのものに変更するとともに、関連する情報を対応する情報に変更する処理を実行するプログラムである。
出力手段としてのビデオ回路10eは、CPU10aから供給された描画コマンドに応じた描画処理を実行するとともに、描画処理の結果として得られた画像を映像信号に変換して表示装置10hへ出力する。
出力手段としてのI/F10fは、記憶装置10iおよび音声入力装置10jからの出力される信号の表現形式を変換して入力するとともに、記憶装置10iおよび音声出力装置10kに対して出力する信号の表現形式を変換する。バス10gは、CPU10a、ROM10b、RAM10c、HDD10d、ビデオ回路10e、および、I/F10fを相互に接続し、これらの間で情報の授受を可能とするための信号線群である。
表示装置10hは、ビデオ回路10eから出力される映像信号を表示するための装置であり、CRT(Cathode Ray Tube)モニタ等によって構成される。記憶装置10iは、例えば、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)−ROMに記録された情報を読み出す装置である。また、記憶装置10iとしては、記録可能な記録媒体(例えば、CD−R(Recordable)、DVD−R、DVD−RAM)から情報を読み出すとともに、情報を書き込むことができる装置としてもよい。
音声入力装置10jは、ユーザの音声を電気信号に変換した後に、ディジタルデータに変換して出力する装置であり、例えば、マイクロフォンおよびA/D(Analog to Digital)変換器等によって構成される。音声出力装置10kは、ディジタル信号をアナログ信号に変換した後に、音声として出力する装置であり、例えば、D/A(Digital to Analog)変換器およびスピーカ等によって構成される。
図2は、図1に示すHDDに記憶されている音声処理プログラム10d1、エージェント処理プログラム10d2、および、キャラクタ変更プログラム10d4によって、実現される機能のブロックを説明するための図である。
この図において、音声認識部50は、音声入力装置10jを介して入力された音声データに含まれている雑音を除去する処理等を実行した後、エージェント処理部52の単語データベース52cを参照して、音声データに対する認識処理を施し、この音声データに対応する単語の候補と、それぞれの候補の尤度(スコア)とを出力する。
具体的には、音声認識部50は、例えば、入力された音声データと、単語データベース52cに登録されているすべての単語とのマッチング処理を行ってスコアを算出し、どの単語のスコアが最も高いかを検討する。例えば、ユーザの発話が「え〜と、???が減ったよ。」である場合に、???の部分が「お腹」とも「お墓」とも認識され得るときは、音声認識部50は、「???」の部分については単語「お腹」に対するスコアが80%で、単語「お墓」に対するスコアが65%のようにスコアを計算する。そして、最も高いスコアを有する単語「お腹」を発話「???」に対する単語であるとして選択する。そして、音声認識部50は、「え〜と、お腹が減ったよ。」というテキスト文字列(または単語ID(Identifier))を生成して、自然言語解析部51に供給する。
なお、音声認識部50が行う音声認識の手法は任意である。また、スコアの値が所定値を下回る単語については、候補として選択しないようにしてもよい。また、1つの音声入力に対して複数の単語の候補が選択されるようにしてもよい。具体的には、上述のように「お腹」を1つ選択するのではなく、「お腹」と「お墓」の双方を選択して、出力するようにすることも可能である。その場合には、特定した候補とそのスコアを示すデータ(以下、「単語データ」と称する)を生成して出力する。単語データは、単語情報そのものとスコアを含むものとしてもよいが、実際には単語IDとスコアを含むものとした方がデータの取り扱い上有利である。
自然言語解析部51は、音声認識部50から供給された単語データ(またはテキストデータ)に形態素解析処理を施すことにより、単語データを構成する単語を品詞毎に分類し、分類結果を示すデータを単語データに付して、エージェント処理部52に供給する。なお、自然言語解析部51が行う分類の手法は任意であり、例えば、奈良先端技術大学で開発された日本語形態素解析の手法である“Chasen”を用いることができる。具体的には、自然言語解析部51は、入力音声から所定の品詞(例えば、名詞、動詞のみ)を抽出して出力する。この結果、入力音声がユーザの自然な発話である場合(例えば、「あ〜お腹がすいたな。」)でも、処理に必要なキーワード(「お腹」および「すいた」)が抽出される。
エージェント処理部52は、I/F52a、カテゴリ辞書52b、単語データベース52c、処理項目データベース52d、および、ワイヤデータベース52eを有し、自然言語解析部51から供給された単語の品詞に基づいて、ユーザへの問いかけなどの処理を行う。例えば、ユーザが「お腹がすいたなあ」と発話した場合には、エージェント処理部52はこれに対する問いかけとして「食事に行きますか」を音声合成処理部53に出力する。
ここで、I/F52aは、図示せぬ他の処理部との間でデータを授受する場合に、データのフォーマット等を変換する。
カテゴリ辞書52bは、単語を示すデータと、当該単語が属するカテゴリを示すデータとを相互に関連付けて格納している。例えば、単語「減った」はカテゴリ「食事」に対応付けられている。なお、1個の単語が複数のカテゴリに属するようにしてもよい(例えば、単語「昼食」を、カテゴリ「腹具合」および「時間帯」の双方に対応付けしてもよい)。
単語データベース52cは、単語とその発音データとを関連付けして格納しており、音声認識部50が入力された音声データを認識処理する際に利用される。
処理項目データベース52dは、エージェント処理部52が実行するトリガ取得処理、判別処理、および、入出力処理の内容を処理項目(ポインタ)毎に記述するデータを格納している。ここで、トリガ取得処理の内容を記述するデータは、一連の処理を開始するきっかけとなるトリガを指定するデータと、後述する進行方向の確率係数とを有している。取得するデータは、任意のものでよく、例えば、自然言語解析部51から供給される単語データ、図示せぬクロックから供給される時刻を示すデータ、または、エージェント処理部52自身が実行する処理から引き渡されるデータ等がある。
判別処理の内容を記述するデータは、進行方向の確率係数を、とり得る判別結果毎に記述したデータを含んでおり、また、後述する戻り方向の確率係数を含んでいる。なお、エージェント処理部52は、後述するワイヤ(遷移定義データ)に基づいて処理の手順を決定するものであり、どのワイヤが示す遷移を実行するかは、直接的には上述の確率係数に従って決定するのではなく、後述する重み係数に従って決定する。
判別処理では、判別に用いるデータを、任意の取得源から取得することができる。例えば、取得源として、自然言語解析部51、エージェント処理部52が実行する他の処理等が考えられる。また、判別処理では、判別に先立って所定の出力先にデータを出力することもできる。例えば、所定の質問を示す音声データを、音声合成処理部53に出力する等である。
入出力処理の内容を記述するデータは、入力あるいは出力するデータの内容を指定するデータからなっている。入力または出力するデータは、任意の内容を有していてよく、例えば、出力するデータは、音声合成処理部53を介して音声出力装置10kから音声として出力する音声データであってもよいし、入力するデータは外部の機器から供給されるデータであってもよい。
ワイヤデータベース52eは、複数の処理間の遷移を記述するデータ、つまり、遷移定義データ(以下、定義遷移データを「ワイヤ」と称する)の集合からなっている。ワイヤは、例えば、図3に示すような書式で記述されたデータからなっており、図示するように、先行する処理から後続する処理への遷移について、当該先行する処理と、当該後続する処理と、当該遷移に対して与えられた重み係数と、を指定するデータである。ただし、先行の処理が判別処理である場合には、当該判別処理のどの判別結果からの遷移であるかまで記述される必要がある。
なお、上述した処理項目データが記述する確率係数を、接続されるワイヤが示す遷移が実行された実績に従ってエージェント処理部52等によって書き換えるようにしてもよい。例えば、特定のワイヤが示す遷移が実行される頻度が所定値よりも高い場合、このワイヤが示す遷移元の処理項目を示す処理項目データに記述されている確率係数の値を従前よりも大きな値にエージェント処理部52が書き換えることによって、このワイヤが示す遷移が起こりやすくする等である。そのような方法によれば、結果的にユーザの意図する応答がなされる確率が高くなる。
エージェント処理部52は、処理項目データベース52dおよびワイヤデータベース52eが全体として表しているフローを実行する。処理項目データベース52dおよびワイヤデータベース52eは、例えば、図4に示すフローチャートとして表すことができる。
ここで、エージェント処理部52の処理が、具体的にどのように行われるかについて、図4を参照して説明する。エージェント処理部52は、図示するように、先行する第1の処理P1を実行して後述の第2の処理P2に遷移するようにワイヤW01により定義されており、第2の処理P2を実行して後続の第3の処理P3に遷移するようにワイヤW03によって定義されているとき、以下の処理が実行される。
なお、処理P1は、単語「痛い」を表す単語データが供給されたか否かを判断する処理であるとし、処理P2は、単語「頭」を表す単語データが供給されたか否かを判断する処理であるとし、処理P3は、「めまい」があるか否かを判定する処理である。なお、図示するように、処理P1〜P3の進行方向の確率係数はいずれも0.5であるものとする。また、エージェント処理部52は、音声認識部50が自然言語と分類された単語データのうち、自然言語解析部51において名詞または動詞に分類された単語データのみを取得するものとする。
まず、エージェント処理部52が第1の処理P1に達したとき、エージェント処理部52は、ワイヤW01,W03,W05のそれぞれの重み係数を計算し、計算結果をワイヤW01,W03,W05に書き込む。これらの値は、各処理に予め設定されている進行方向の確率係数によって決定される。
具体的には、処理P1に処理が到達したとき、ワイヤW01の重み係数は、処理P1のワイヤに係る確率係数の値すなわち0.5となる。処理P2のワイヤW03の重み係数は、処理P1のワイヤW01に係る重み係数0.5に処理P2のワイヤW03に係る確率係数0.5を乗じた結果すなわち0.25となる。ワイヤW05の重み係数は、処理P1のワイヤW01に係る確率係数0.5に処理P2のワイヤW03に係る確率係数0.5を乗じた結果にさらに処理P3のワイヤW05に係る確率係数0.5を乗じた結果、すなわち、0.125となる。
このようにして、ある処理を基点としたときのそれぞれのワイヤの重み係数が計算される。よって、現在の状況が遷移すると、現在の処理を基点としてその都度重み係数が計算されることになる。
具体的には、現在の状態が処理P2に遷移すると、ワイヤW03の重み係数は、処理P2のワイヤW03に係る確率係数に等しい値0.5となり、ワイヤW05の重み係数は、処理P2のワイヤW03に係る確率係数0.5と、処理P3のワイヤW05に係る重み係数0.5との積すなわち0.25となる。また、このとき、エージェント処理部52は、逆方向、つまり処理P1に戻る方向に係るワイヤW01の重み係数も再度書き込む。処理P2に遷移した場合では、ワイヤW01に係る戻り方向の重み係数0.1がそのままワイヤW01の重み係数となる。処理P3に遷移した場合は、さらに、ワイヤW03に係る戻り方向の確率係数0.1がそのままワイヤW03の重み係数となる。そして、処理P3に遷移した状態におけるワイヤW01の重み係数は、処理P3に遷移した状態におけるワイヤW03の重み係数0.1に、処理P2の戻り方向の確率係数0.1を乗じた値すなわち0.01となる。
重み係数の計算は、関連するフローの処理のみではなく、すべてのフローのすべてのワイヤについて設定される。ここで、現在の処理に関連のないワイヤについては、予め定められた低い計数値を割り当てるようにすればよい。しかし、特に、トリガ取得処理を先行の処理とするワイヤについては、重み係数をある程度高く設定するようにする。そのようにすることで、直前までなされていた会話と著しく異なる内容の会話にもジャンプすることが可能になる。
エージェント処理部52は、判別条件に係る1個または複数個の単語データもしくは状態データが自然言語解析部51等から供給されると、以下の処理を実行する。なお、簡単のため、以下では、単語データが供給された場合を例に挙げて説明するが、状態データが供給された場合においても同様の処理がなされるものとする。
まず、前述の処理によって各ワイヤに対して設定された重み係数と、供給された単語データが示すスコアとの積を計算する。例えば、図4に示すフローの処理が実行されている場合において、単語「痛い」を示す単語データがスコア80%で供給され、単語「頭」を示す単語データがスコア50%で供給されたとし、また、単語「痛い」を条件とするワイヤW01の重み係数が0.5、単語「頭」を条件とするワイヤW03の重み係数が0.25であったとする。この場合、ワイヤW01およびW03について求められる判別結果は、以下の式(1)および式(2)のようになる。
〔数1〕
ワイヤW01についての判別結果:「痛い」に対するスコア80%×ワイヤW01の重み係数0.5=40
〔数2〕
ワイヤW03についての判別結果:「頭」に対するスコア50%×ワイヤW03の重み係数0.25=12.5
エージェント処理部52は、スコアと重み係数との積を求める上述の処理を、フローの処理が有するワイヤのうち、少なくともスコアが設定されたすべてのワイヤについて行う。その結果、例えば、ワイヤW01について求めた積(つまり、判別結果)が最も高い値を示した場合、入力された音声は単語「痛い」を示すものであったと認識して、ワイヤW01が後続の処理としている処理P2に遷移することになる。
図2に戻って、音声合成処理部53は、音片合成用データベース53a、音素合成用データベース53b、素片合成用データベース53cを有しており、エージェント処理部52から供給されたテキストデータに対応する音声を合成して出力する。
ここで、音片合成用データベース53aは、音片合成を実行する際に用いる音片データを格納している。ここで、音片とは、1つ以上の音素からなる音声の集合である。例えば、音片として「食事に」と「行きますか?」をそれぞれ格納しておき、これらをつなぎ合わせて合成することにより「食事に行きますか?」という自然な音声を得ることができる。
音素合成用データベース53bは、音素合成を実行する際に用いる音素データを格納している。ここで、音素とは、語と語の意味を区別する機能を有する音声の最小単位をいう。本実施の形態では、音片合成を優先して音声合成が実行されるが、音片データが存在しない場合には、音素を合成することにより、必要な音声データを生成する。
素片合成用データベース53cは、音片合成用データベース53aに格納されている音片と、音素合成用データベース53bに格納されている音素とを用いて音声を合成する場合に、これらを合成するためのデータを格納している。
音声出力装置10kは、音声合成処理部53から出力された音声データをD/A変換し、増幅器で増幅した後、スピーカから音声として出力する。
つぎに、本発明の実施の形態に係る情報呈示装置の動作について説明する。
図5は、本発明の実施の形態に係る情報呈示装置の動作を説明するためのフローチャートである。このフローチャートの処理が開始されると以下のステップが実行される。
ステップS10:CPU10aは、音声入力装置10jの出力を参照し、ユーザが発話を行ったことが検出された場合には、音声の入力を開始する。
ステップS11:CPU10aは、音声処理プログラム10d1に基づいて音声認識を開始する。具体的には、音声入力装置10jは、ユーザの発話を音声信号(アナログ信号)に変換した後、さらに、ディジタル信号に変換し、音声認識部50に供給する。音声認識部50では、当該発話が、対応するテキストデータに変換され、自然言語解析部51に供給される。自然言語解析部51では、当該発話を形態素(意味を有する最小単位)に分解し、それぞれの形態素の品詞を特定して出力する。
ステップS12:CPU10aは、ステップS11の認識結果に基づいて、キャラクタを表示する。具体的は、CPU10aは、HDD10dのキャラクタ情報DB10d3に格納されているデフォルトのキャラクタ画像データを読み出し、ビデオ回路10eに供給して表示する。その結果、表示装置10hには、図6に示すような画像が表示される。この例では、枠70が表示され、枠70内の最上部には、表示されているキャラクタを説明するタイトル71として「薬の専門家」が表示されている。また、その下には、薬の専門家としてのキャラクタ72が表示されている。なお、キャラクタ72をアニメーション画像(動画像)とし、ユーザから入力された音声情報や時間の経過に応じて所定の動作を行うようにしてもよい。
ステップS13:CPU10aは、ステップS11における音声認識処理の結果に応じて応答処理を実行する。例えば、図4のフローを例に挙げると、処理P1においてユーザから音声データ「痛い」が入力されたと判断され、処理P2において音声データ「頭」が入力されたと判断され、さらに、処理P3において「めまい」があると判断された場合には、例えば、エージェント処理部52は、処理項目データベース52dから該当するコメント「薬効成分アセサルチル酸が配合された○○○を食後に1錠服用すると良いでしょう。」を取得し、音声合成処理部53に供給する。その結果、音声出力装置10kからは前述のメッセージが図6に示すキャラクタの音声として出力される。なお、このとき、図6に示すキャラクタが音声に応じて口唇を動かしたり、身体の一部(例えば、手や足等)を動かしたりするようにしてもよい。
ステップS14:CPU10aは、ステップS11の音声認識処理において、キャラクタを変更するようにユーザから要求がなされたか否かを判定し、要求がなされたと判定した場合には、ステップS15に進み、それ以外の場合にはステップS16に進む。例えば、ユーザが「投資の専門家に相談したい。」のような発話を行った場合には、ステップS11においてキャラクタの変更が要求されていると判断し、ステップS15に進む。
ステップS15:CPU10aは、キャラクタを変更する処理を実行する。この処理の詳細は、図8を参照して後述する。ステップS15に示す処理が実行されてキャラクタが変更されると、表示装置10hには、例えば、図7に示すような画像が表示されることになる。この例では、枠80が表示され、枠80内の最上部には、表示されているキャラクタを説明するためのタイトル81として「投資の専門家」が表示されている。また、その下には、投資の専門家としてのキャラクタ82が表示されている。なお、この新たなキャラクタは、図6のキャラクタと比較すると、キャラクタ自体の姿態が異なるのみならず、声質、話し方、会話に登場する専門用語、および、動作が異なっている。すなわち、後述するように、キャラクタの画像情報のみならず、音声情報、および、応答情報についても併せて変更される。
ステップS16:CPU10aは、処理を終了するか否かを判定し、終了しない場合にはステップS10に戻って同様の処理を繰り返し、それ以外の場合には処理を終了する。
つぎに、図8を参照して、図5のステップS15に示すキャラクタ変更処理の詳細について説明する。なお、1つのキャラクタは、図9に示すような複数のデータによって構成されている。この例では、キャラクタを構成するデータ100としては、例えば、キャラクタ画像データ101、キャラクタ音声データ102、および、シナリオデータ103がある。ここで、キャラクタに関する情報としてのキャラクタ画像データ101は、図6または図7に示すキャラクタ72およびキャラクタ82を表示するための静止画または動画データである。音声情報としてのキャラクタ音声データ102は、キャラクタの音声および発話内容に関するデータであり、声色、口調、方言、使用する専門用語に関するデータである。応答情報としてのシナリオデータ103は、キャラクタのユーザに対する応答パターンを示すデータである。
図8のフローチャートの処理が開始されると、以下のステップが実行される。
ステップS30:CPU10aは、例えば、記憶装置10iまたは図示せぬサーバ装置からネットワークを介してキャラクタ画像データ101を受信する。
ステップS31:CPU10aは、キャラクタ画像データ101の受信が完了したか否かを判定し、終了した場合にはステップS32に進み、それ以外の場合には同様の処理を繰り返す。
ステップS32:CPU10aは、データが正常に受信できたか否かを判定し、受信できたと判定した場合にはステップS33に進み、それ以外の場合にはステップS30に戻って受信処理を繰り返す。
ステップS33:CPU10aは、例えば、記憶装置10iまたは図示せぬサーバ装置からネットワークを介してキャラクタ音声データ102を受信する。
ステップS34:CPU10aは、キャラクタ音声データ102の受信が完了したか否かを判定し、終了した場合にはステップS35に進み、それ以外の場合には同様の処理を繰り返す。
ステップS35:CPU10aは、データが正常に受信できたか否かを判定し、受信できたと判定した場合にはステップS36に進み、それ以外の場合にはステップS33に戻って受信処理を繰り返す。
ステップS36:CPU10aは、例えば、記憶装置10iまたは図示せぬサーバ装置からネットワークを介してシナリオデータ103を受信する。
ステップS37:CPU10aは、シナリオデータ103の受信が完了したか否かを判定し、終了した場合にはステップS38に進み、それ以外の場合には同様の処理を繰り返す。
ステップS38:CPU10aは、データが正常に受信できたか否かを判定し、受信できたと判定した場合にはステップS39に進み、それ以外の場合にはステップS36に戻って受信処理を繰り返す。
ステップS39:CPU10aは、以上の処理により受信したキャラクタ画像データ101、キャラクタ音声データ102、および、シナリオデータ103をHDD10dに格納する。具体的には、CPU10aは、キャラクタ変更処理部54により、単語データベース52c、処理項目データベース52d、ワイヤデータベース52e、音片合成用データベース53a、音素合成用データベース53b、素片合成用データベース53c、および、キャラクタ情報DB10d3に格納されているデータを、新たに受信したキャラクタ画像データ101、キャラクタ音声データ102、および、シナリオデータ103に含まれているデータにより更新する。
以上の処理によれば、ユーザからの要求がなされた場合には、表示装置10hに表示されるキャラクタの画像が変更されるとともに、キャラクタの発する音声およびシナリオが変更されるので、ユーザの嗜好や目的に合ったキャラクタを選択することが可能になる。
また、キャラクタとともに対応可能な専門用語およびシナリオを併せて変更することにより、限られた記憶容量で、複数の専門分野に対応することが可能になる。
また、それぞれの専門分野に応じたキャラクタが表示されることから、ユーザが親しみ安いインターフェースを提供することが可能になる。
ところで、以上の実施の形態では、ユーザの要求に応じた専門分野に対応するキャラクタが表示されるようにしたが、例えば、漫才等に見られるいわゆる「ぼけ」および「つっこみ」のキャラクタを実現し、それぞれのキャラクタと対話するだけでなく、例えば、漫才の練習等に役立てることも可能である。
図10は、漫才の練習に用いる場合の動作モードの一例を示す図である。この例では、練習モードとしては、ぼけ練習モード、つっこみ練習モード、および、自動実行モードを有している。ここで、ぼけ練習モードは、ユーザがぼけ役であり、情報呈示装置10がつっこみ役であるモードであり、情報呈示装置10がユーザの音声を認識し、その言葉に応じた音声を出力するモードである。また、つっこみ練習モードは、情報呈示装置10がぼけ役であり、ユーザがつっこみ役であるモードであり、情報呈示装置10がユーザの音声を認識し、その言葉に応じた音声を出力するモードである。また、自動実行モードは、ぼけ役およびつっこみ役の双方が情報呈示装置10であるモードであり、ユーザは情報呈示装置10によって呈示されるぼけ役とつっこみ役のやり取りをお手本として参照することが可能なモードである。
なお、ぼけ練習モードでは、表示装置10hには、つっこみ役のキャラクタが表示される。また、つっこみ練習モードでは、表示装置10hには、ぼけ役のキャラクタが表示される。さらに、自動実行モードでは、表示装置10hには、ぼけ役とつっこみ役の双方のキャラクタが表示される。
図11は、図10に示すぼけ練習モードにおける情報呈示装置の応答パターンの一例を示す図である。この図では、あいづち、つっこみ、終了の3つのパターンが示されている。ここで、「あいづち」は、ユーザの話した内容にあいづちを打つ応答パターンであり、具体的には「ふむふむ」、「それで」等の応答パターンである。このような応答パターンは、例えば、ぼけ役のユーザの発話が終了して、所定時間の無音状態が検出された場合に選択されて呈示される。また、「つっこみ」は、例えば、ぼけ役のユーザの発話が終了し、所定時間の無音状態が検出された場合であって、ユーザの発話の語尾の声量が大きくなったときに選択されて呈示される。声量が大きくなるのはユーザがつっこんで欲しいことを意図している場合が多いためである。また、「終了」は、ネタを披露する時間は予め決まっている場合が多いので、例えば、所定の時間(例えば、開始から5分)が経過し、ユーザの発話が終了した場合に選択されて呈示される。なお、これら以外にもユーザの発話の内容の一部を繰り返す応答パターンを設けることも可能である。例えば、「最近は不景気でんな。」に対して「不景気でんな。」のような応答パターンである。
図11に示す応答パターンは、図4に示すようなフローに係る処理項目データベース52dおよびワイヤデータベース52eをそれぞれの応答毎に準備することにより、実現できる。
図12は、図10に示すつっこみ練習モードにおける情報呈示装置10の応答パターンの一例を示す図である。この図では、つっこみ練習モードには、「固定モード」、「半固定モード」、および、「自動モード」の3種類がある。ここで、固定モードは、シナリオは固定であり、情報呈示装置10は、ユーザからの応答があった場合に、シナリオに定められた会話を次々に呈示していく。また、半固定モードは、シナリオはほとんど決まっているが、ユーザから呈示されるキーワードに応じて、シナリオをある程度変更することが可能なモードである。自動モードは、シナリオは予め決まっておらず、ユーザの呈示する情報に応じて、応答する情報をその都度決定するモードである。
具体的には、固定モードは、情報呈示装置10から所定の発話がなされた後に、ユーザから所定の反応がなされた場合には、シナリオに基づいてつぎの発話に移行するように図4に示すようなフローを形成する。例えば、情報呈示装置10が「最近は、雨がぎょうさん降りますなあ。」を呈示した場合に、ユーザが「そうですな。」と対応した場合には、予め設定されているつぎの発話「洗濯物が乾かんから、ええかげんにして欲しいですわ。」が情報呈示装置10によって呈示される。
また、半固定モードは、情報呈示装置10から所定の発話がなされた後に、ユーザから所定の反応がなされた場合には、当該反応に含まれている所定の情報(例えば、キーワード)に対応した発話を行うようにする。例えば、情報呈示装置10が「最近は、雨がぎょうさん降りますなあ。」を呈示した場合に、ユーザが「雨と言えば、梅雨ですな。」と対応した場合には、情報呈示装置10は予めキーワードとして設定されている「梅雨」を検出し、「梅雨」に対応するつぎの発話「しかし、今年の梅雨は長うおますなあ。」を呈示する。また、情報呈示装置10が「最近は、雨がぎょうさん降りますなあ。」を呈示した場合に、ユーザが「カビが生えてこまりますわ。」と対応した場合には、情報呈示装置10は予めキーワードとして設定されている「カビ」を検出し、「カビ」に対応するつぎの発話「おまえんとこはカビだらけやからな。」を呈示する。なお、半固定モードでは、情報呈示装置10が呈示する応答の選択肢は、例えば、2〜3個と予め定まっているので、ユーザは、このキーワードを予め記憶しておき、状況に応じてキーワードを会話の中に織り交ぜて発言する必要がある。
また、自動モードは、図4に示すようなフローを複数準備しておき、ユーザの発話に応じて適切な応答を選択して呈示するようにする。例えば、ユーザが応答としてあいづちだけを打った場合(例えば、「ふむふむ」と発言した場合)には、予め準備されているシナリオに従って発言し、ユーザの応答に所定のキーワードが含まれている場合には、当該キーワードに関連する応答を検索して呈示する。なお、自動モードでは、シナリオは予め決まっていないため、ユーザは情報呈示装置10の発話にあいづちを打ったり、つっこみを入れたり、話題を転換するためにキーワードを含むと考えられる情報を呈示したりして、会話を発展させる。
ところで、以上のような処理は、図10に示す各モードが選択された場合に、選択されたモードに対応するキャラクタ画像データ101、キャラクタ音声データ102、および、シナリオデータ103を記憶装置10iまたは図示せぬサーバ装置から検索して取得し、図2に示すエージェント処理部52および音声合成処理部53の各部に格納することにより実現できる。
なお、上述の実施の形態は、本発明の好適な例であるが、本発明は、これらに限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の変形、変更が可能である。
例えば、以上の実施の形態では、キャラクタに関する情報(キャラクタ画像データ)とともに、キャラクタ音声データおよびシナリオデータを併せて変更するようにしたが、これらのいずれか一方のみを変更するようにしてもよい。
また、以上の各実施の形態では、音声の入力に対して音声で出力するようにしたが、例えば、音声とともにテキスト情報を併せて出力するようにしてもよい。
また、以上の各実施の形態では、例えば、情報呈示装置10をパーソナルコンピュータとして実施する場合を例に挙げて説明したが、例えば、携帯電話、PDA(Personal Digital Assistant)、または、カーナビゲーション装置として実施することも可能であることはいうまでもない。
また、以上の実施の形態では、処理項目データベース52dおよびワイヤデータベース52eに基づき、図4に示すフローを用いて処理を実現するようにしたが、これ以外の方法によって実現することも可能である。
また、以上の実施の形態では、ユーザからの音声による要請に基づいてキャラクタ等を変更するようにしたが、例えば、図示せぬ入力装置から所定の入力がなされた場合に、キャラクタ等を変更するようにしてもよい。また、明示的に要求がなされない場合であっても、例えば、ユーザの発話に含まれている専門用語によって専門分野を判断し、それに応じてキャラクタ等を変更することも可能である。
また、以上の実施の形態では、キャラクタ等を変更する際には、記憶装置10iから新たなキャラクタに関する情報を読み込んでHDD10dの内容を更新するようにしたが、HDD10dに予め複数のキャラクタ等に関する情報を記憶しておき、これらの中から所望のキャラクタを選択するようにしてもよい。また、その場合に、HDD10dに格納されていないキャラクタが選択された場合には記憶装置10iから取得して、いずれかのキャラクタ(例えば、使用されていないキャラクタ)と置換するようにしてもよい。
なお、上記の処理機能は、例えば、図1に示すようなコンピュータによって実現される。その場合、情報呈示装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM、CD−R(Recordable)/RW(Rewritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
本発明は、ユーザの入力に応じた応答情報を呈示する情報呈示装置に利用することができる。
本発明の実施の形態に係る情報呈示装置の構成例を示すブロック図である。 図1に示す実施の形態において、HDDに記憶されているプログラムが実行された場合に、実現される機能ブロックを説明するための図である。 図2に示すワイヤデータベースに格納された情報を説明するための図である。 図3に示す情報によって実現されるフローの一例を説明するための図である。 図1に示す実施の形態に係る情報呈示装置の動作の一例を説明するためのフローチャートである。 図5に示すフローチャートの処理が実行された場合に表示装置に表示されるキャラクタの一例を示す図である。 図5に示すフローチャートの処理が実行された場合に表示装置に表示されるキャラクタの他の一例を示す図である。 図5に示すフローチャートのステップS15の処理の詳細を説明するためのフローチャートである。 図8に示すフローチャートによって変更される情報の一例を示す図である。 図1に示す情報呈示装置によって実現される漫才練習用のモードの一例を示す図である。 ぼけ練習モードにおける情報呈示装置の応答の種類の一例を示す図である。 つっこみ練習モードにおける動作モードの一例を示す図である。
符号の説明
10 情報呈示装置
10a CPU(取得手段、変更手段)
10d HDD(第1の記憶手段、第2の記憶手段、第3の記憶手段)
10e ビデオ回路(出力手段)
10f I/F(出力手段)

Claims (7)

  1. ユーザの入力情報に対応する情報をキャラクタによる応答として呈示する情報呈示装置において、
    上記キャラクタの応答パターンを示す複数のシナリオデータを記憶する第1の記憶手段と、
    上記キャラクタが応答する際の音声情報を記憶する第2の記憶手段と、
    上記音声情報に対応するキャラクタに関する情報を記憶する第3の記憶手段と、
    上記ユーザから所定の入力情報が供給された場合には、上記シナリオデータに基づいて上記音声情報、および、上記キャラクタに関する情報を上記第1〜第3の記憶手段から取得する取得手段と、
    上記取得手段によって取得された上記音声情報、および、上記キャラクタに関する情報を所定の出力装置にそれぞれ出力する出力手段と、
    上記第1の記憶手段に記憶されている複数の上記シナリオデータの中から選択される上記シナリオデータに基づいて上記キャラクタの応答パターンを変更する変更手段と、
    を有することを特徴とする情報呈示装置。
  2. 前記音声情報は、キャラクタに応じた音声を出力するための情報であり、
    前記キャラクタに関する情報は、キャラクタを表示するための画像情報である、
    ことを特徴とする請求項1記載の情報呈示装置。
  3. 前記変更手段は、シナリオデータ、音声情報、および、キャラクタに関する情報を他の記憶装置から取得して変更することを特徴とする請求項1記載の情報呈示装置。
  4. 前記変更手段は、ユーザの入力情報に対応する専門分野に属するシナリオデータに変更するとともに、当該専門分野に応じたキャラクタおよび音声情報に変更することを特徴とする請求項1記載の情報呈示装置。
  5. 前記変更手段は、ユーザからの要求に応じてぼけ役またはつっこみ役を示すキャラクタに変更し、シナリオデータおよび音声情報についても該当する情報に変更することを特徴とする請求項1記載の情報呈示装置。
  6. ユーザの入力情報に対応する情報をキャラクタによる応答として呈示する情報呈示装置が実行する情報呈示方法において、
    上記ユーザから所定の入力情報が供給された場合には、応答パターンを示すシナリオデータに基づいて上記音声情報、および、上記キャラクタに関する情報を記憶装置から取得し、
    取得された上記音声情報、および、上記キャラクタに関する情報を所定の出力装置にそれぞれ出力し、
    複数の上記シナリオデータの中から選択される上記シナリオデータに基づいて上記キャラクタの応答パターンを変更する、
    ことを特徴とする情報呈示方法。
  7. ユーザの入力情報に対応する情報をキャラクタによる応答として呈示する処理をコンピュータに機能させるコンピュータ読み取り可能な情報呈示用プログラムにおいて、
    コンピュータを、
    上記キャラクタの応答パターンを示す複数のシナリオデータを記憶する第1の記憶手段、
    上記キャラクタが応答する際の音声情報を記憶する第2の記憶手段、
    上記音声情報に対応するキャラクタに関する情報を記憶する第3の記憶手段、
    上記ユーザから所定の入力情報が供給された場合には、上記シナリオデータに基づいて上記音声情報、および、上記キャラクタに関する情報を上記第1〜第3の記憶手段から取得する取得手段、
    上記取得手段によって取得された上記音声情報、および、上記キャラクタに関する情報を所定の出力装置にそれぞれ出力する出力手段、
    上記第1の記憶手段に記憶されている複数の上記シナリオデータの中から選択される上記シナリオデータに基づいて上記キャラクタの応答パターンを変更する変更手段、
    として機能させるコンピュータ読み取り可能な情報呈示用プログラム。
JP2005085592A 2005-03-24 2005-03-24 情報呈示装置、情報呈示方法、および、情報呈示用プログラム Expired - Fee Related JP4508917B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005085592A JP4508917B2 (ja) 2005-03-24 2005-03-24 情報呈示装置、情報呈示方法、および、情報呈示用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005085592A JP4508917B2 (ja) 2005-03-24 2005-03-24 情報呈示装置、情報呈示方法、および、情報呈示用プログラム

Publications (2)

Publication Number Publication Date
JP2006268428A JP2006268428A (ja) 2006-10-05
JP4508917B2 true JP4508917B2 (ja) 2010-07-21

Family

ID=37204335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005085592A Expired - Fee Related JP4508917B2 (ja) 2005-03-24 2005-03-24 情報呈示装置、情報呈示方法、および、情報呈示用プログラム

Country Status (1)

Country Link
JP (1) JP4508917B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020835A1 (ja) * 2012-07-31 2014-02-06 日本電気株式会社 エージェント制御システム、方法およびプログラム
JP6134043B1 (ja) * 2016-11-04 2017-05-24 株式会社カプコン 音声生成プログラムおよびゲーム装置
JP7409628B2 (ja) * 2018-04-05 2024-01-09 株式会社サウスポイント 結婚式における音楽選曲のための自動選曲システム
JP6909189B2 (ja) * 2018-08-27 2021-07-28 Kddi株式会社 ユーザ発話テキストに応じてエージェントを交代させるプログラム、サーバ及び方法
JP2020119412A (ja) * 2019-01-28 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6902127B2 (ja) * 2019-03-27 2021-07-14 ダイコク電機株式会社 動画出力システム
JP6656447B1 (ja) * 2019-03-27 2020-03-04 ダイコク電機株式会社 動画出力システム
JP7294924B2 (ja) * 2019-07-16 2023-06-20 株式会社博報堂 対話エージェントシステム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0866558A (ja) * 1994-08-26 1996-03-12 Susumu Imai ゲーム用カセット
JP2000067047A (ja) * 1998-08-24 2000-03-03 Toshiba Corp 対話制御装置および対話制御方法
JP2001034451A (ja) * 1999-06-15 2001-02-09 Lucent Technol Inc ヒューマン−マシンダイアログ自動生成方法、システム及びその装置
JP2001273473A (ja) * 2000-03-24 2001-10-05 Atr Media Integration & Communications Res Lab 会話用エージェントおよびそれを用いる会話システム
JP2002132804A (ja) * 2000-10-24 2002-05-10 Sanyo Electric Co Ltd ユーザ支援システム
JP2002163109A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002169818A (ja) * 2000-12-04 2002-06-14 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002189732A (ja) * 2000-12-21 2002-07-05 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002523828A (ja) * 1998-08-24 2002-07-30 ビーシーエル コンピューターズ, インコーポレイテッド 適応型自然言語インターフェース
JP2002342049A (ja) * 2001-05-15 2002-11-29 Canon Inc 音声対応印刷処理システムおよびその制御方法、並びに記録媒体、コンピュータプログラム
JP2003526120A (ja) * 2000-03-09 2003-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 民生電子機器システムとの対話処理方法
JP2003323388A (ja) * 2002-05-01 2003-11-14 Omron Corp 情報提供方法および情報提供システム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0866558A (ja) * 1994-08-26 1996-03-12 Susumu Imai ゲーム用カセット
JP2000067047A (ja) * 1998-08-24 2000-03-03 Toshiba Corp 対話制御装置および対話制御方法
JP2002523828A (ja) * 1998-08-24 2002-07-30 ビーシーエル コンピューターズ, インコーポレイテッド 適応型自然言語インターフェース
JP2001034451A (ja) * 1999-06-15 2001-02-09 Lucent Technol Inc ヒューマン−マシンダイアログ自動生成方法、システム及びその装置
JP2003526120A (ja) * 2000-03-09 2003-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 民生電子機器システムとの対話処理方法
JP2001273473A (ja) * 2000-03-24 2001-10-05 Atr Media Integration & Communications Res Lab 会話用エージェントおよびそれを用いる会話システム
JP2002132804A (ja) * 2000-10-24 2002-05-10 Sanyo Electric Co Ltd ユーザ支援システム
JP2002163109A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002169818A (ja) * 2000-12-04 2002-06-14 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002189732A (ja) * 2000-12-21 2002-07-05 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002342049A (ja) * 2001-05-15 2002-11-29 Canon Inc 音声対応印刷処理システムおよびその制御方法、並びに記録媒体、コンピュータプログラム
JP2003323388A (ja) * 2002-05-01 2003-11-14 Omron Corp 情報提供方法および情報提供システム

Also Published As

Publication number Publication date
JP2006268428A (ja) 2006-10-05

Similar Documents

Publication Publication Date Title
JP4508917B2 (ja) 情報呈示装置、情報呈示方法、および、情報呈示用プログラム
CN106548773B (zh) 基于人工智能的儿童用户搜索方法及装置
WO2020024582A1 (zh) 语音合成方法及相关设备
JP4533845B2 (ja) オーディオ機器制御装置、オーディオ機器制御方法及びプログラム
JPWO2005064592A1 (ja) 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム
JP6483578B2 (ja) 音声合成装置、音声合成方法およびプログラム
WO2021259300A1 (zh) 音效添加方法和装置、存储介质和电子设备
JP2003114692A (ja) 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体
CN112908308B (zh) 一种音频处理方法、装置、设备及介质
JP6466391B2 (ja) 言語学習装置
JP2001272991A (ja) 音声対話方法及び音声対話装置
JP2021110781A (ja) 感情解析装置、感情解析方法、及び感情解析プログラム
JP6641680B2 (ja) 音声出力装置、音声出力プログラムおよび音声出力方法
JP2007256619A (ja) 評価装置、制御方法及びプログラム
JP2001188782A (ja) 情報処理装置および方法、並びに記録媒体
JP2005346347A (ja) 情報検索装置、情報検索方法、情報検索プログラムおよび記録媒体
JP6170604B1 (ja) 音声生成装置
JP2007304489A (ja) 楽曲練習支援装置、制御方法及びプログラム
JP2002342206A (ja) 情報提供プログラム、情報提供方法、および記録媒体
JP6746886B2 (ja) 学習支援装置及びその学習支援装置用のプログラム
JP2019174525A (ja) 学習支援装置、学習支援方法およびプログラム
KR102479023B1 (ko) 외국어 학습 서비스 제공 장치, 방법 및 프로그램
JP2001314649A (ja) 音声遊技方法、装置および記録媒体
JP2005241767A (ja) 音声認識装置
JP7230085B2 (ja) 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees