JP2005038014A - 情報提示装置及び情報提示方法 - Google Patents

情報提示装置及び情報提示方法 Download PDF

Info

Publication number
JP2005038014A
JP2005038014A JP2003197292A JP2003197292A JP2005038014A JP 2005038014 A JP2005038014 A JP 2005038014A JP 2003197292 A JP2003197292 A JP 2003197292A JP 2003197292 A JP2003197292 A JP 2003197292A JP 2005038014 A JP2005038014 A JP 2005038014A
Authority
JP
Japan
Prior art keywords
data
voice
search
hit
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003197292A
Other languages
English (en)
Other versions
JP4080965B2 (ja
Inventor
Hideki Tsutsui
秀樹 筒井
Toshihiko Manabe
俊彦 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003197292A priority Critical patent/JP4080965B2/ja
Publication of JP2005038014A publication Critical patent/JP2005038014A/ja
Application granted granted Critical
Publication of JP4080965B2 publication Critical patent/JP4080965B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】ユーザの検索要求に対して提示された情報が選択された根拠の分かり易い情報提示装置を提供すること。
【解決手段】入力部101は、検索文を入力する。検索部103は、検索文をもとに検索を行う。ヒットワード検出部104は、検索結果のデータ中から検索文に適合するヒットワードを検出する。音声合成部107は、データを音声合成する。データ加工部105は、音声合成されたデータ中のヒットワード部分を強調するように加工する。出力部106は、ヒットワードを強調されたデータを音声出力する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザからの検索要求に応じて情報を音声で提示する機能を有する情報提示装置及び情報提示方法に関する。
【0002】
【従来の技術】
近年、流通するデータのマルチメディア化と検索装置のマルチモーダル化に伴い、音声で情報を提示する手段が増えてきている。例えば、インターネット検索においても、音声合成技術により、検索されたWebページを音声で読み上げることが可能となっている(例えば、特許文献1参照)。また、音声認識技術により、文書データだけでなく音声/映像を検索することも可能となっている(例えば、特許文献2参照)。
【0003】
しかし、従来の音声提示方法では、提示されたデータが、どのような根拠で選択されたかが解りにくかった。また、文字データによる提示と違って音声による提示では一覧性が低いため、検索されたデータを最初から最後まで全て聞かなければ、検索された根拠に気付かないことも多く、また検索間違いにも気付くのに時間がかかることも多い。
【0004】
例えば、特許文献1では、Web情報を音声読み上げるにあたって、リンクを他の部分と区別して読み上げているが、クエリに適合したヒットワードの部分がどこであるか聞いていてもわからないという問題がある。
【0005】
また、例えば、特許文献2では、記録音声に対する検索結果を聞いても、どの部分が検索要求にヒットしたのかがわからないという問題がある。また、記録音声を音声認識技術で文字列に変換した後、検索要求によるテキスト検索技術で対応する部分を検索する場合に、そもそも音声認識結果が間違えていると、検索要求と違う単語であっても、検索されてしまうことになり、どの部分がヒットしたかがわからなければ、ユーザは最後まで聞かなければならないし、聞いても検索語が現れないこともある。
【0006】
また、従来、検索結果を文字データで提示するにあたって、ヒットした部分の文字を反転させたり、文字の色を変えたりする技術もあるが、この技術は、情報の音声による提示には適用することができなかった。
【0007】
【特許文献1】
特開2002−358194号公報
【0008】
【特許文献2】
特開2002−366552号公報
【0009】
【発明が解決しようとする課題】
上記のように、従来の音声による情報提示技術では、提示された情報の選択根拠が分かりにくい、検索間違いに気付きにくい、ユーザが目的のデータにたどり着くのに時間かかかる、などの問題点があった。
【0010】
本発明は、上記事情を考慮してなされたもので、音声によるより効果的な情報提示を可能にした情報提示装置及び情報提示方法を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明に係る情報提示装置は、検索文を入力するための入力手段と、前記検索文をもとに、文字列データ又は音声データを含むコンテンツを格納したデータベースを検索して、コンテンツを取得する取得手段と、この取得手段により取得された前記コンテンツに含まれる文字列データ又は音声データ中から、前記検索文に適合するヒットワードを検出する検出手段と、この検出手段により検出された前記ヒットワードに関する情報を音声により提示する提示手段とを備えたことを特徴とする。
【0012】
また、装置または方法に係る本発明は、コンピュータに当該発明に相当する手順を実行させるための(あるいはコンピュータを当該発明に相当する手段として機能させるための、あるいはコンピュータに当該発明に相当する機能を実現させるための)プログラムとしても成立し、該プログラムを記録したコンピュータ読取り可能な記録媒体としても成立する。
【0013】
本発明によれば、検出されたヒットワードに関する情報を音声により提示することによって、音声によるより効果的な情報提示が可能になる。例えば、音声によるデータ提示のときに、ヒットワードを強調して提示することにより、そのデータが選択された根拠を分かりやすく知ることができる。
【0014】
【発明の実施の形態】
以下、図面を参照しながら発明の実施の形態を説明する。
【0015】
(第1の実施形態)
本実施形態では、情報提示装置の一例として検索されたデータに含まれる文字列を音声出力するボイスブラウザの機能を有するものを例にとって説明する。
【0016】
図1に、本発明の第1の実施形態に係る情報提示装置の構成例を示す。
【0017】
ここでは、検索対象となるデータは、文字列を含むコンテンツであり、ヒットワード検出やヒットワード強調による音声出力は、検索されたデータに含まれる文字列部分を対象にする。
【0018】
また、ヒットワードは、検索されたデータに含まれる文字列のうち、検索文に適合する文字列(あるいは、そのデータが検索された根拠となった文字列)である。特に、検索文中の検索語(文字列)に基づいて検索が行われる場合には、ヒットワードは、検索されたデータに含まれる文字列のうち、検索文中の検索語(文字列)に適合する文字列である。また、検索文中に検索語(文字列)が複数ある場合には、ヒットワードは、検索されたデータに含まれる文字列のうち、検索文中の検索語(文字列)のいずれかに適合する文字列である。この場合、適合するとは、例えば、一致することであるが、その他にも構成可能である。例えば、検索されたデータに含まれる文字列のうち、検索文中の検索語(文字列)の下位概念に属する文字列、検索文中の検索語(文字列)の上位概念に属する文字列、検索文中の検索語(文字列)に類似する文字列若しくは検索文中の検索語(文字列)に一致する文字列、又はそれらの任意の組合せとして、構成することも可能である。
【0019】
また検索がQA検索であった場合は、ヒットワードは検索文に対する回答でもいい。QA検索技術により検索文に対する回答を求める方法は公知技術(例えば、Question Answering Challenge (QAC−1): An Evaluation of Question Answering Task atNTCIRWorkshop 3, Jun’ichi FUKUMOTO, Tsuneaki KATO, and Fumito MASUI(URL:http://research.nii.ac.jp/ntcir/workshop/OnlineProceedings3/)を用いることができる。
【0020】
なお、本実施形態では、ヒットワードは、検索されたデータに含まれる文字列のうち、検索文中の検索語(文字列)に一致する文字列である場合を例にとって説明する。
【0021】
図1において、本情報提示装置1は、検索文を入力する入力部101、検索文に適合するデータをネットワーク7を介して接続されたデータサーバ8から検索する検索部103、検索されたデータからヒットワードに該当する部分を検出するヒットワード検出部104、検索されたデータ(の文字列部分)を音声に変換する音声合成部107、検出されたデータ中のヒットワードに該当する部分を強調するためのデータ加工を行うデータ加工部105、ヒットワードに該当する部分を強調されたデータを音声出力する出力部106、ネットワーク7を介したデータ通信を行う通信部108を備えている。
【0022】
ネットワーク7は、例えば、インターネットであり、データは、例えば、Webページであるが、これに限定されるものではない(ネットワークは、LAN等であってもよいし、データは、各種編集ソフトの文書データ等であってもよい)。
【0023】
また、上記では、本情報提示装置1はネットワーク7を介してデータを蓄積したデータベースを持つデータサーバ8にアクセスするものとしたが、その代わりにまたはそれに加えて、本情報提示装置1が、データを蓄積しているデータベース109を内蔵し、検索部103が、検索文に適合するデータをデータベースから検索するようにしてもよい。この場合、通信部108は必ずしも必要ではない。
【0024】
なお、本情報提示装置1は、専用機として構成することも、汎用計算機を利用して構成することも可能である。また、例えば、各種機能を有する携帯電話端末により実現することも可能である。
【0025】
また、本情報提示装置1は、検索されたデータや各種メッセージ等を表示画面に表示する機能を併せ持つものであってもよい。例えば、検索されたデータを、音声出力せずに画面表示するか、画面表示せずに音声出力するか、画面表示しながら音声出力するかを選択可能なものであってもよく、ここで説明する機能は、画面表示せずに音声出力するか、または画面表示しながら音声出力する場合の当該音声出力に適用することができる。
【0026】
図2に、本情報提示装置1の全体的な処理手順の一例を示す。
【0027】
まず、ステップS1において、ユーザは入力部101を介してテキストや音声などにより検索文を入力する。入力方法は、最終的に文字列の検索文が得られるものであればよく、例えば、テキスト入力(キーボード入力)のみ可能であっても、音声入力のみ可能であっても、これらの両方が可能であってもよい。
【0028】
音声入力を行う場合、ユーザの音声を認識処理して文字列(検索文)に変換する音声認識部(図示せず)を入力部101が持てばよい。なお、音声認識技術には公知のものを用いて構わない。
【0029】
なお、入力方法としていずれの方法をとるにしても、検索文は文字列として検索部103に与えられるので、以下では、説明をより簡潔にするために、検索文がテキストデータとして入力部101に入力される場合を中心に説明を行う。
【0030】
次に、ステップS2において、検索部103は、通信部108を通して、検索文に適合するデータ(例えば、Webページ)を検索する。文字列(検索文)によるデータ検索については公知の文書検索技術あるいはインターネット検索技術等を利用して構わない。具体的には、例えば、文字列に変換された検索文中の単語(若しくは文字列)と同じものが含まれているデータを検索するとともに、該検索文中の単語(若しくは文字列)と同じものがより多く含まれているデータほど高いスコアを与えて、それらデータをスコア順に並べ替えるなどの処理を行う。又は、QA検索の用に検索文に対する回答が含まれるデータを検索することもできる。最も確からしい回答を含むデータほど高いスコアを与えて、検索されたデータをスコア順に並べ替えるなどの処理を行う。
【0031】
次に、ステップS3において、ヒットワード検出部104は、検索されたデータのうち第1順位のスコアを持つものを対象として、ヒットワードの抽出を行う。この際、ヒットワードがデータのどの部分に出現したかを検出し、この出現位置を示すヒットワード情報を記録する。
【0032】
なお、検索データに対するヒットワード情報を、この検索データとは別のファイルとして持つようにしてもよいし、その検索データ中にヒットワード情報を記述するようにしてもよい。
【0033】
図3に、前者の場合(Webページとは別のファイルとして持つ場合)のヒットワード情報の一例を示す。この例では、ヒットワードが当該データにおいて先頭から何回目の出現かを示す情報と、当該回目のヒットワードが当該データにおいて先頭から何文字目から開始し何文字目で終了するかを示す情報を記録している。また、ヒットワードが複数種類あり、ヒットワードごとに出現回数を区別すべき場合には、図4に示す通りヒットワード情報をヒットワードごとに設ければよいし、区別しない場合には、ヒットワードの内容にかかわらず図3に示す通りヒットワード情報を1つ設ければよい。
【0034】
また、例えば、ヒットワードが複数種類ある場合に、図4のように、ヒットワードごとにカウントしたときの出現回数の他に、ヒットワードにかかわらずにカウントしたときの総出現回数を記録する形態も可能である。
【0035】
なお、この他にも種々の形態が可能であり、例えば、終了位置について、その開始位置から何文字目かを示す情報を記述してもよい。また、例えば、出現回数が2回目以降では、開始位置について、その1回前の出現回数における開始位置又は終了位置から何文字目かを示す情報を記述してもよい。また、ヒットワードの文字数に従って、開始位置と終了位置の一方から他方を特定することができるので、開始位置と終了位置の一方のみ記録するようにしてもよい。
【0036】
図5に、後者の場合(Webページ中に記述する場合)のヒットワード情報の一例を示す。この例では、ヒットワードを、開始タグ<hw id=1 t=1>と終了タグ</hw>で挟むことによって、ヒットワードを指示している(なお、タグ名のhwは一例であり、これに限定されるものではない)。また、開始タグ中のidは、ヒットワードを区別するために割り当てられた(例えば、ヒットワード検出部104で割り当てられた)ID番号であるが、これを付加しない構成ももちろん可能である。また、開始タグ中のtは、同一のヒットワード(ここでは、id=1を持つヒットワード)の出現回数であり、t=1は、当該データにおける1回目の出現であることが示されている。なお、出現回数についてヒットワードを区別しない場合には、tは全ヒットワードに関する出現回数を示す。もちろん、tを付加しない構成も可能である。
【0037】
また、例えば、ヒットワードが複数種類ある場合に、図6に示す通り、ヒットワードごとにカウントしたときの出現回数tの他に、ヒットワードにかかわらずにカウントしたときの総出現回数sを記録する形態も可能である。
【0038】
次に、ステップS4において、ヒットワードを強調して、データを音声出力する。以下、この処理について、詳しく説明する。
【0039】
まず、音声合成部107では、検索されたデータ(例えば、Webページ)の文字列を音声に変換する。文字列を音声に変換する音声合成技術には公知のものを利用して構わない。
【0040】
このとき、データ加工部105では、上記のヒットワード情報を参照して、検索されたデータ中のヒットワードに該当する部分を強調しながら音声変換する。
【0041】
そして、ヒットワードが強調された検索データは、出力部106からユーザに音声で提示される。
【0042】
ここで、強調の方法としては、種々の形態が可能である。以下に、その具体例を列挙する。
・ヒットワードに該当する部分については、それ以外の部分に比較して、ボリュームを大きくする。
・ヒットワードに該当する部分の再生にあたって、ヒットワード再生の手前で「ポーン」等の通知音を鳴らす。
・ヒットワードに該当する部分については、予め定められた回数だけ繰り返して発声する。
・ヒットワードに該当する部分を発声する際の声調(例えば、性別など)を、それ以外の部分を発声する際の声調から変化させる。
・ヒットワードに該当する部分の再生スピードを、それ以外の部分の再生スピードと変える。
・ヒットワードに該当する部分の発声の直前に、「ヒットワード」あるいは「ヒットワードです」などの音声を挟み込む(なお、この音声は、検索データを発声する際の声調とは異なる声調で発声するようにしてもよい)。
・表示画面を併用する場合に、ヒットワードに該当する部分の発声時に、例えば表示画面を赤く光らせるなど、視覚的に認識できるように差を付ける。
などがある。
【0043】
また、複数種類の強調の方法を併せて用いるようにしてもよい。例えば、ボリュームを大きし、かつ、通知音を鳴らす方法や、声調と再生スピードの両方を変化させる方法など、種々の方法がある。
【0044】
また、ヒットワードが複数種類ある場合に、ヒットワードごとに強調の内容を変えるようにしてもよい。
【0045】
例えば、強調形態は同じにし、その際のパラメータをヒットワードに応じて変化させる方法がある。例えば、ヒットワードに該当する部分を発声する際の声調をそれ以外の部分を発声する際の声調から変化させるにあたって、ヒットワードごとに声調を変えるようにしてもよい。また、例えば、ヒットワードに該当する部分の再生にあたって鳴らす通知音の回数を、ヒットワードごとに変えるようにしてもよい。
【0046】
また、例えば、ヒットワードごとに強調形態を変えるようにしてもよい。例えば、第1のヒットワードに該当する部分については、ボリュームを大きくし、第2のヒットワードに該当する部分については、通知音を鳴らし、第3のヒットワードに該当する部分については、声調を変化させるようにしてもよい。
【0047】
また、例えば、第1のヒットワードに該当する部分については、ボリュームを大きくし、第2のヒットワードに該当する部分については、通知音を1回鳴らし、第3のヒットワードに該当する部分については、通知音を2回鳴らすなどの方法も可能である。
【0048】
他方、ヒットワードの強調とともに又はこれに代えて、当該データを音声出力する前に、検出されたヒットワード(例えば、検出された全ヒットワード、あるいは最初に検出されたヒットワード、あるいはヒットワードごとに最初に検出されたもの、など)を音声出力するようにしてもよい。これによって、ユーザは、検出されたヒットワードを確認してから、当該データを聞くことができる。特に、音声入力により検索文の入力を行った場合には、音声認識技術は必ずしも音声を完全に間違いなく文字列に変換できるわけではなく、間違いを含んでいることもあるので、検索データの音声出力を聞く前に検出されたヒットワードを聞いて確認することによって、入力音声認識が正しく行われたか否かを確認することができる(例えば、誤認識によって意図するものとは異なるヒットワードが発声された場合には、データ検索結果が所望のものであるとは期待できないので、検索データの音声出力を聴かずに処理を中止して検索文の音声入力からやり直すなどができる)。
【0049】
さらに、ヒットワードを強調するにあたって、当該データにおけるヒットワードの出現回数をユーザに提示するようにしてもよい。例えば、ヒットワードたる文字列の発声にあたって、「n回目のヒットワード(です)」あるいは「n回目(です)」などの音声を挟み込むようにしてもよい。ヒットワードが複数種類ある場合に、ヒットワードごとの出現回数を提示する場合も、ヒットワードの内容にかかわらない出現回数を提示する同様である。また、ヒットワードが複数種類あり、ヒットワードごとの出現回数を提示する場合において、例えば、ヒットワードごとに「3回目の○○○(です)」のように具体的なヒットワード○○○を含む音声を挟み込むようにしてもよい。また、その他の方法として、ヒットワードの再生にあたって鳴らす通知音を、出現回数と同じ回数だけ鳴らす方法なども可能である(例えば、「3回目です」の代わりに、「ポーン ポーン ポーン」と3回鳴らす)。
【0050】
他方、上記のように、ヒットワードを強調するにあたっての出現回数の提示に代えてあるいはそれとともに、当該データを音声出力する前または音声出力した後に、全ヒットワードの総出現回数、及び又は各ヒットワードごとの総出現回数等の情報を音声出力するようにしてもよい。
【0051】
ここで、上記の出現回数の提示を聞いたユーザが、当該データについて「n回目のヒットワード」から聞き直したい場合に、ユーザが所望の出現回数nを指定して再生命令を入力すれば、これに応じて、当該データについて「n回目のヒットワード」に該当する部分(あるいはこの一定文字数前若しくは一定時間前)から再生するような機能を本情報提示装置が備えてもよい。この場合、すでにヒットワード情報は作成されているので、これを参照して、(加工データが残っていなければ、音声合成及びデータ加工した後に、)該当する部分から音声出力を行えばよい。なお、ヒットワードを区別する場合には、ユーザが所望のヒットワード○○○と所望の出現回数nの対を指定して再生命令を入力すれば、これに応じて、当該データについて「n回目のヒットワード○○○」に該当する部分(あるいは、その一定文字数前若しくは一定時間前)から再生するようにすればよい。
【0052】
なお、上記した手順例では、検索されたデータのうち第1順位のスコアを持つもののみ、ヒットワードを強調して、データを音声出力したが、例えば、第1順位から予め定められた順位までのデータを順次ヒットワードを強調して音声出力するようにしてもよい。
【0053】
図7に、本情報提示装置1の全体的な処理手順の他の例を示す。
【0054】
なお、ここでは、図7の手順例が図2の手順例と相違する点を中心に説明する。
【0055】
まず、ステップS11において、ユーザは入力部101を介してテキストや音声などにより検索文を入力する。なお、ここでも、図2を参照しながら行った説明と同様の趣旨で、検索文がテキストデータとして入力部101に入力される場合を中心に説明を行う。
【0056】
次に、ステップS12において、検索部103は、通信部108を通して、検索文に適合するデータを検索する。
【0057】
次に、ステップS13において、検索部103は、検索されたデータに関する情報の一覧を、出力部106の表示画面に提示する。この一覧では、例えば、検索時に得られたスコアの順に、検索データに関する情報が並べられる。
【0058】
次に、ステップS14において、入力部101は、ユーザからの指示を受け付ける。
【0059】
次に、ステップS15において、ステップS14でユーザが入力部101を介して入力した指示内容が、ステップS13で提示された一覧において所望のデータを選択指示するものであれば、ステップS16に進む。もし、指示内容が、終了を指示するものであれば、図7の処理を終了する。
【0060】
次に、ステップS16において、ヒットワード検出部104は、ステップS14でユーザが選択指示したデータを対象として、ヒットワードの抽出を行う。
【0061】
そして、ステップS17において、図2の手順例と同様にして、ヒットワードを強調して、データを音声出力し、ステップS14に戻る。
【0062】
なお、本情報提示装置1の全体的な処理手順は図2や図7の手順例に限定されるものではなく、種々変形して実施することができる。
【0063】
例えば、図7の手順例の代わりに、図7のステップS12に続いて検索された全てのデータについてヒットワード検出処理を行っておき、該予め定められた順位までのデータに関する情報をスコア順にソートして提示してユーザ選択可能にし、ユーザが選択したデータについて、音声出力処理を行うようにしてもよい。あるいは、例えば、図7の手順例の代わりに、図7のステップS12に続いて第1順位から予め定められた順位までのデータについてヒットワード検出処理を行っておき、検索されたデータに関する情報をスコア順にソートして提示してユーザ選択可能にし、ユーザが選択したデータについて、(ユーザが選択したデータがヒットワード検出処理されていなければ、ヒットワード検出処理を行ってから)音声出力処理を行うようにしてもよい。
【0064】
以上説明してきたように本実施形態によれば、ユーザは、強調されたヒットワードを聞くことで、本情報提示装置がそのデータを提示した根拠を把握・確認することができる。また、もし検索文とは異なる文字列が強調されている場合、音声入力した検索文が誤って認識されたことを知ることができ、すぐに検索をやり直すことができる。
【0065】
なお、本実施形態では、文字列を含むデータを対象としたが、その他のデータにも適用することができる。例えば、キーワード情報を添付された音声データを該キーワード情報に基づいて検索し、検索した音声データを文字列データに変換し、該文字列データを、これまで説明した検索されたデータと同様に扱うようにすれば、音声データを対象とすることもできる。
【0066】
(第2の実施形態)
本実施形態では、情報提示装置の一例として音声データを検索する音声検索機能を有するものを例にとって説明する。
【0067】
図8に、本発明の第2の実施形態に係る情報提示装置の構成例を示す。
【0068】
ここでは、検索対象となるデータは、文字列を発声した音声部分を含む音声コンテンツであり、ヒットワード検出やヒットワード強調による音声出力は、検索された音声データに含まれる文字列に該当する部分(音声認識処理可能部分)を対象とする。もちろん、このような音声データを伴う映像データを含むコンテンツにおける当該音声データの部分についても適用可能である。
【0069】
なお、ヒットワードは、第1の実施形態で説明した通りである。また、本実施形態では、ヒットワードは、音声データのうち、検索文中の検索語(文字列)に一致する文字列に該当する部分として説明する。
【0070】
図8において、本情報提示装置2は、検索文を入力する入力部201、音声データを文字列データに変換する音声認識部202、検索文に適合する音声データをネットワーク27を介して接続された音声データサーバ28から検索する音声検索部203、検索された音声データからヒットワードに該当する部分を検出するヒットワード検出部204、検索された音声データ中のヒットワードに該当する部分を強調するように加工する再生処理部205、ヒットワードに該当する部分を強調された音声データを音声出力する出力部206、音声データを文字列データに変換し、この変換した文字列データの索引(文書インデックス)を蓄積する文書インデックスデータベース208、ネットワーク27を介したデータ通信を行う通信部209を備えている。
【0071】
ネットワーク27は、例えば、LANであるが、これに限定されるものではなく、インターネット等であってもよい。音声データは、どのようなフォーマットに基づくものであっても構わない。
【0072】
また、上記では、本情報提示装置2はネットワーク27を介して音声データを蓄積したデータベースを持つ音声データサーバ28にアクセスするものとしたが、その代わりにまたはそれに加えて、本情報提示装置2が、音声データを蓄積している音声データベース207を備え、音声検索部203が、検索文に適合する音声データを音声データベース207から検索するようにしてもよい。
【0073】
また、音声データサーバ28が、文書インデックスを提供する機能を有する場合には、音声データサーバ28が提供する文書インデックスを、音声データ検索時に取得して参照するようにしてもよいし、あるいは予め文書インデックスデータベース208にダウンロードするようにしてもよい。
【0074】
なお、本情報提示装置2は、専用機として構成することも、汎用計算機を利用して構成することも可能である。また、例えば、各種機能を有する携帯電話端末により実現することも可能である。
【0075】
図9に、本情報提示装置2の全体的な処理手順の一例を示す。
【0076】
ここでは、本情報提示装置の一例として音声検索システムを例にして説明している。音声検索システムとは、例えば、ボイスレコーダなどに録音したデータを検索できるようにしたシステムのことである。ボイスメールシステムでのボイスメールの検索や、会議を録音した音声データを検索する場合や、ラジオ放送を録音した音声データを検索する場合や、テレビ番組を録画したデータの音声トラックを検索する場合に利用することができる。このような音声データベース207が音声データサーバ28あるいは音声データベース207に蓄積されているものとする。
【0077】
まず、必要に応じて、音声認識部202により、(音声データサーバ28あるいは音声データベース207に蓄積されている全部又は一部の音声データについて、)音声データを、文字列の集合(すなわち、文書)に変換する(ステップS301)。この音声認識技術には公知のものを用いて音声データを文字列データに変換する。
【0078】
そして、音声データを変換して得られる変換文字列にはタイムスタンプ(例えば、開始時刻と終了時刻)を付し、変換文字列の各単語がもとの音声データのどの部分に対応するかがわかるようにした文書インデックスを作成する。
【0079】
なお、音声データを文字列データに変換するにあたって、音声データ中で発声がある一定時間以上とぎれる位置で音声データを区切ることによって、音声データを文書毎に区切るようにしてもよい(ただし、ボイスメールなどのようにもともと音声データが内容毎に区切られている場合には、この処理は必ずしも必要ない)。
【0080】
そして、各音声データについて、該音声データから作成した文書すなわち文字列集合の各文字列と、その各文字列に対応する該音声データ中の位置を指し示すタイムスタンプとを対応付けた文書インデックスを、文書インデックスデータベース208に蓄積しておく。
【0081】
なお、音声認識技術は必ずしも音声を完全に間違いなく文字列に変換できるわけではなく、間違いを含んでいることもある。従って、誤認識があった場合には、間違いを含んだまま文書インデックスデータベース208に蓄積されることになる。
【0082】
次に、音声データの検索をしようとするユーザが、入力部201を介してテキストや音声などにより検索文を入力する(ステップS302)。この入力方法は、最終的に文字列の検索文が得られるものであればよく、例えば、テキスト入力(キーボード入力)のみ可能であっても、音声入力のみ可能であっても、これらの両方が可能であってもよい。
【0083】
音声入力を行う場合、音声認識部202により、ユーザの音声を認識処理して文字列(検索文)に変換する。
【0084】
なお、入力方法としていずれの方法をとるにしても、検索文は文字列として音声検索部203に与えられるので、以下では、説明を簡単にするために、検索文がテキストデータとして入力される場合を中心に説明を行う。
【0085】
次に、音声検索部203は、文書インデックスデータベース208を用いて、ユーザによって入力された検索文に適合する文書(に対応する音声データ)を検索する(ステップS303)。
【0086】
なお、音声検索手法には公知のものを用いて構わない。例えば、検索文に基づいて文書インデックスデータベース208を全文検索することにより、適合する文書を検索し、その文書に対応する音声データを、タイムスタンプをもとに探し出すことができる。また、例えば、TF・IDFのような検索技術で文書集合から適合する文書を検索することもできる。QA検索で検索文に対する回答を含む文書を検索することもできる。なお、検索結果は、例えば、スコア順に並べられた文書リストになる(第1の実施形態参照)。
【0087】
次に、ヒットワード検出部204は、文書インデックスデータベース208を用いて、検索された文書中に存在するヒットワードを検出する。検出結果として、検出されたヒットワードの文字列と、その文字列がもとの音声データに出現する位置を示す情報を求める(ステップS304)。出現位置は、例えば、音声認識部202で音声データを文書に変換する際に得られる音声データでの位置を指し示すヒットワードの開始時刻と終了時刻である。音声データ中にヒットワードに該当する部分が複数ある場合には、それら部分音声を全て検出対象とする。
【0088】
次に、再生処理部205は、まず、第1順位のスコアを持つ検索された文書に対応する音声データについて、そのヒットワードの開始時刻から終了時刻までの音声だけを再生する(ステップS304)。なお、ヒットワードが複数ある場合には、例えば、連続してヒットワードに該当する部分の音声を再生していく。
【0089】
ユーザは、ヒットワードの音声を聞き、検索文中の文字列が含まれている場合には正しく検索できていると判断し、含まれていない場合には正しく検索できてないと判断する(ステップS305)。ユーザは、正しく検索できている場合、例えば「正しい」もしくは「再生」等と音声により指示し、あるいは「OK」ボタンもしくは「再生」ボタン等を押すなどして、正しく検索できている旨の指示をし、正しく検索できていない場合、例えば「違う」もしくは「次」等と音声により指示あるいは「次」ボタン等を押すなどして正しく検索できていない旨の指示をする。
【0090】
そして、ステップS305において、ユーザから正しく検索できている旨の指示が入力された場合には、続いてこの文書に対応する音声データを(例えば先頭から)再生する(ステップS307)。
【0091】
他方、ステップS305において、ユーザから正しく検索できていなかった(ユーザがヒットワードを聞いたとき、検索文中の文字列でなかった)場合にはこの音声データを全て聞かなくても誤りであることがわかるので、この音声データの再生をスキップして(ステップ306)、ステップS304に戻る。そして、次の順位のスコアを持つ検索された文書に対応する音声データについて、同様の処理を繰り返す。
【0092】
またここではヒットワードは検索文中の検索語に一致する文字列に該当する部分として説明しているが、第1の実施形態で説明したように、検索文中の検索語の下位概念に属する文字列,検索文中の検索語の上位概念に属する文字列,検索文中の検索語に類似する文字列,又はそれらの任意の組合わせとして構成された文字列,又はQA検索の場合の検索文に対する回答部分であった場合も、ユーザがヒットワードを聞き検索文と適合しない語が再生された場合は、容易に検索結果が誤りであることを判断できる。
【0093】
このように、ユーザは、音声データの全てを聞かなくても、検索誤りをいち早く検知して、次の音声データを再生するように指示することができる。
【0094】
なお、上記した手順例の代わりに、例えば、検索された音声データのうち第1順位から予め定められた順位までの音声データについて、ヒットワードの開始時刻から終了時刻までの音声だけを順次再生し、ユーザが選択した音声データについて先頭から再生する手順など、種々の手順が可能である。
【0095】
また、ここで、第1の実施形態と同様に、検索された文書に対応する音声データの再生中に、ヒットワードが出現すると、このヒットワードを強調して再生するようにしてもよい。ヒットワードの強調については、第1の実施形態で説明したものと同様の構成例や各種バリエーションを用いることができる。
【0096】
また、上記では、文字列による検索文と、音声データを文書化した文書インデックスデータベース208とを用いて(すなわち、音声データではなく文字列の比較などによって)処理を行ったが、例えば、ユーザが検索文を発声して音声入力したもの(あるいは、キーボード入力した検索文を音声合成したもの)と、検索対象となる音声データとを、音声波形、音素、音節、発音記号等の中間言語などによって比較等して、検索処理やヒットワード検出処理等を行う構成も可能である。
【0097】
以上説明してきたように本実施形態によれば、ユーザは、ヒットワードを聞くことで、本情報提示装置がそのデータを提示した根拠を把握・確認することができる。また、検索文とは異なる文字列がヒットワードとして強調されている場合、音声データから文書インデックスを作成する際の音声認識に誤認識があったか、あるいは音声入力した検索文が誤って認識されたかなどを知ることができ、すぐに次のスコア順位の音声データの再生に移り、あるいはすぐに検索をやり直すことができる。
【0098】
(第3の実施形態)
本実施形態では、情報提示装置の一例として映像データを検索する映像検索機能を有するものを例にとって説明する。
【0099】
図10に、本発明の第3の実施形態に係る情報提示装置の構成例を示す。
【0100】
ここでは、検索対象となる映像データは、文字列を発声した音声部分を含む音声データを伴うものであり、ヒットワード検出やヒットワード強調による音声出力は、検索された映像データに伴われる音声データに含まれる文字列に該当する部分(音声認識処理可能部分)を対象とする。もちろん、このような音声データのみのコンテンツ(映像のないもの)についても適用可能である。
【0101】
なお、ヒットワードは、第1の実施形態で説明した通りである。また、本実施形態では、ヒットワードは、音声データのうち、検索文中の検索語(文字列)に一致する文字列に該当する部分として説明する。
【0102】
図10において、本情報提示装置3は、検索文や各種指示等の入力や検索結果等の出力のための情報入出力部301、検索文に適合する映像データをネットワーク37に接続されている映像データサーバ38から検索するデータ検索部303、検索された映像データからヒットワードに該当する部分を検出するヒットワード検出部304、検索された映像データ中のヒットワードに該当する部分を強調するように加工する再生処理部305、ネットワーク37を介したデータ通信を行う通信部309を備えている。
【0103】
情報入出力部301は、GUI画面を用いたユーザ・インタフェースである。
【0104】
ネットワーク37は、例えば、LANであるが、これに限定されるものではなく、インターネット等であってもよい。映像データは、どのようなフォーマットに基づくものであっても構わない。
【0105】
また、上記では、本情報提示装置3はネットワーク37を介して映像データを蓄積したデータベースを持つ映像データサーバ38にアクセスするものとしたが、この代わりにまたはこれに加えて、本情報提示装置3が、映像データを蓄積している映像データベース(映像DB)307を内蔵し、データ検索部303が、検索文に適合する映像データを映像データベース307から検索するようにしてもよい。この場合、通信部309は必ずしも必要ではない。
【0106】
なお、本情報提示装置3は、専用機として構成することも、汎用計算機を利用して構成することも可能である。また、例えば、各種機能を有する携帯電話端末により実現することも可能である。
【0107】
図11に、本情報提示装置3の全体的な処理手順の一例を示す。
【0108】
以下、本情報提示装置3でテレビ番組情報を検索する場合を具体例にして説明する。
【0109】
本具体例のテレビ番組情報検索は、テレビのニュースを記事毎に検索し、ユーザの見たいニュースを検索できるような場合を想定したものである。
【0110】
映像DB307は、例えば、ハードディスク・レコーダなどの映像録画装置のデータベースのことであり、映像と音声からなる。例えば、ニュースが録画されており、ニュースは記事毎に分割して保存されている。本具体例では、本情報提示装置3が映像DB307からユーザの検索文に適合する映像をユーザに提示する場合を想定している。
【0111】
まず、ステップS21において、ユーザは情報入出力部301を介してテキストや音声などにより検索文を入力する。第1や第2の実施形態と同様、入力方法は、最終的に文字列の検索文が得られるものであればよく、例えば、テキスト入力(キーボード入力)のみ可能であっても、音声入力のみ可能であっても、これらの両方が可能であってもよい。音声入力を行う場合、ユーザの音声を認識処理して文字列(検索文)に変換する音声認識部(図示せず)を情報入出力部301が持てばよい。
【0112】
なお、入力方法としていずれの方法をとるにしても、検索文は文字列としてデータ検索部303に与えられるので、以下では、説明をより簡潔にするために、検索文がテキストデータとして入力される場合を中心に説明を行う。
【0113】
次に、データ検索部303は、映像DB307から検索文に適合する映像データを検索する(ステップS22)。この検索には、例えば、映像データの音声トラックを使って音声検索する公知技術を用いることができる(例えば、伊藤克亘,藤井敦,石川徹也,「音声文書検索を用いたオンデマンド講義システム」,情報処理学会研究報告, 2001−SLP−39, pp.165−170, Dec. 2001参照)。
【0114】
次に、ヒットワード検出部304は、検索された映像データから、ヒットワードの検出を行う(ステップS23)。ヒットワードの検出には、例えば、第2の実施形態で説明したような方法を用いればよい。すなわち、例えば、文書インデックスを用いてもよいし、音声波形、音素、音節、発音記号等の中間言語などで直接検出してもよい。
【0115】
次に、検索結果画面を表示する(ステップS24)。
【0116】
図12に、検索結果画面の一例を示す。
【0117】
図12の例では、検索されたデータがサムネイル(図中、符号403)で表示され、ランキング(図中、符号401)の順に並んでいる。なお、図12の例では、ランキング第3位のデータは映像のない音声コンテンツなので、サムネイルが空欄になっている様子を示している。なお、図12の画面において、各コンテンツに関する他の種々の情報を提示してもよい。なお、各コンテンツに関する情報としては、例えば、当該コンテンツが放送されたチャンネルあるいは放送局を示す情報、地上波か衛星放送かを示す情報、テレビ放送かラジオ放送かを示す情報、放送された日付及び時間を示す情報、そのデータが格納されているアドレスなど、種々の情報が考えられる。
【0118】
次に、ステップS25において、情報入出力部301は、ユーザからの指示受け付ける。
【0119】
次に、ステップS26において、ステップS25でユーザが情報入出力部301を介して入力した指示内容が、ステップS24で表示された検索結果画面において、所望のデータのヒットワード再生を指示するものであれば、ステップS27に進み、所望のデータのデータ再生を指示するものであれば、ステップS28に進む。もし、指示内容が、終了を指示するものであれば、図7の処理を終了する。
【0120】
ここで、ステップS27の処理に関して詳しく説明する。
【0121】
先のステップS24で表示される図12の検索結果画面では、各データとともに[ヒットワード]のボタン(図中、符号402)がある。ステップS25でユーザが所望のデータに対するヒットワード・ボタンをマウス等でクリック指示することにより、ステップS26からS27に遷移して、図13に示すヒットワード再生画面が現れ、ユーザが指示したデータにおけるヒットワードの部分が再生される。
【0122】
図13のヒットワード再生画面は、ヒットワードの音声に対応する映像を表示する領域501、検索文502、ヒットワードに対応するタイムライン503、現在の再生位置を表示するポインタ504がある。なお、複数のヒットワードがある場合には、このタイムライン503は、複数のヒットワードが繋ぎ合わされたものに対応するものとしている。
【0123】
なお、図14に示す通り、ヒットワードの種類ごとにボタンを設けるようにしてもよい。この場合には、ユーザにクリックされた種類のヒットワークに対応する画面が表示される。なお、当該種類のヒットワードが複数存在する場合には、タイムライン503は、複数のヒットワードが繋ぎ合わされたものに対応する。
【0124】
ユーザは、このような画面でヒットワードを聞くことで、検索結果の正誤を容易に判断することができる。もしヒットワードとして検索文とは違う語が再生された場合は、この音声データを全て聞かなくても誤りであることがわかる。
【0125】
またここではヒットワードは検索文中の検索語に一致する文字列に該当する部分として説明しているが、第1の実施形態で説明したように、検索文中の検索語の下位概念に属する文字列,検索文中の検索語の上位概念に属する文字列,検索文中の検索語に類似する文字列,又はそれらの任意の組合わせとして構成された文字列,又はQA検索の場合の検索文に対する回答部分であった場合も、ユーザがヒットワードを聞き検索文と適合しない語が再生された場合は、容易に検索結果が誤りであることを判断できる。
【0126】
また、図13の例では、再生するタイムバーの下に[OK]ボタン505と[NG]ボタン506がある。
【0127】
もしユーザがヒットワードの再生を聞いて検索文と同じ言葉が再生された場合には、[OK]のボタン505を押す。他方、検索文と違う言葉がヒットワードとして再生された場合には[NG]506のボタンを押す。
【0128】
[OK]のボタン505が押された場合には、この音声データに、このヒットワードに対応するクエリの文字列を正の加重(+a)とともに付加する。
【0129】
[NG]のボタン506が押された場合には、この音声データに、クエリの文字列を負の加重(−b)とともに付加する。
【0130】
なお、付加する正の加重は(+a)を限度とし、付加する負の加重は(−b)を限度としてもよい。
【0131】
以降に行われる検索では、この付加文字列が利用される。
【0132】
例えば、「○○」という検索文字列で検索された音声データで、このヒットワードを再生したときに、正しく「○○」と再生されてユーザが[OK]のボタンを押した場合、この音声データのこの部分には「○○」という音声が含まれていることがわかる。このためその音声データには「○○」という文字列が正の加重とともに付加される。他方、このヒットワードを再生したときに、「○○」ではなく「○X」と再生されてユーザが[NG]のボタンを押した場合、この音声データには「○○」という文字列が負の加重とともに付加される。次回から検索文に「○○」という文字列がある場合には、付加文字列に正の加重の「○○」を持つ音声データが優先的に検索される(あるいは、スコアが高くなる)ようになる。他方、付加文字列に負の加重の「○○」を持つ音声データは、検索されない(あるいは、スコアが低くなる)ようになる。
【0133】
付加文字列を考慮したスコアは、例えば、次のようになる。
【0134】
今回の検索文(検索文字列)と、音声データに付加された付加文字列との類似度スコアをSa(例えば、上記の+aまたは−b)とし、新しい検索文と音声データとの類似度スコア)をSdとして、最終的なスコアを、
S=αSd+(1−α)Sa
とする。ここで、αは0から1の間の適当な数である。
【0135】
なお、新しい検索文と音声データとの類似度Sdについては、新しい検索文を示す検索文字列と音声データを文字列に変換した文字列文書とを用いて類似度Sdを求めることも可能であり、また、新しい検索文と、対象となる音声データとの類似度を、音声波形、音素、音節、発音記号等の中間言語などを用いて類似度Sdを求めることも可能である。
【0136】
付加文字列に検索文字列がヒットした場合には、例えば、図12に例示するように、タイトルの先頭にマーク(本具体例では、星マーク)404が付けられ、付加文字列にヒットしたことが分かるようにするようにしてもよい。
【0137】
このステップS27の処理が済めば、ステップS25に戻る。
【0138】
次に、ステップS28の処理に関して詳しく説明する。
【0139】
先のステップS24で表示される図12の検索結果画面では、各データとともにサムネイル(図中、符号403)がある。ステップS25でユーザが所望のデータに対するサムネイルをマウス等でクリック指示することにより、ステップS26からS28に遷移して、図15に示すデータ再生画面が現れ、ユーザが指定したデータ(映像データあるいは音声データ)が再生される。
【0140】
図15のデータ再生画面では、映像を再生する領域601、検索文602、コンテンツ全体に対応するタイムライン603、現在の再生位置を表示するポインタ604がある。また、図15では、タイムライン603には、ヒットワードが出現する位置にマーク607が付けられる。これにより、どの位置にヒットワードが出現するのかがわかる。
【0141】
なお、図16に示す通り、各マーク607の近傍に、当該ヒットワードとその前後の文章を文字列にして表示するようにしてもよい(図中の608において、○○が当該ヒットワードを表し、…がその前後の文章を表している)。
【0142】
このステップS27の処理が済めば、ステップS25に戻る。
【0143】
なお、本実施形態においても第1の実施形態と同様に、検索された文書に対応する音声データの再生中に、ヒットワードが出現すると、その部分を強調して再生するようにしてもよい。ヒットワードの強調については、第1の実施形態で説明したものと同様の構成例や各種バリエーションを用いることができる。
【0144】
これらにより、これまでシステムの音声認識が誤った場合でも、検索されたデータを全て再生してからやっと検索文が存在しないことがわかり、誤った検索結果を全て再生しなければそれが誤りであることがわからなかった。本システムによるヒットワード強調機能により、データを再生しなくてもあらかじめシステムの誤りに気付くことができるため、目的のデータを探す時間が大幅に短縮される。
【0145】
なお、以上の各機能は、ソフトウェアとして記述し適当な機構をもったコンピュータに処理させても実現可能である。
また、本実施形態は、コンピュータに所定の手段を実行させるための、あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるためのプログラムとして実施することもできる。加えて該プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。
【0146】
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
【0147】
【発明の効果】
本発明によれば、音声によるより効果的な情報提示が可能になる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る情報提示装置の構成例を示す図
【図2】同実施形態に係る情報提示装置の処理手順の一例を示すフローチャート
【図3】ヒットワード情報の一例を示す図
【図4】ヒットワード情報の他の例を示す図
【図5】ヒットワード情報のさらに他の例を示す図
【図6】ヒットワード情報のさらに他の例を示す図
【図7】同実施形態に係る情報提示装置の処理手順の他の例を示すフローチャート
【図8】本発明の第2の実施形態に係る情報提示装置の構成例を示す図
【図9】同実施形態に係る情報提示装置の処理手順の一例を示すフローチャート
【図10】本発明の第3の実施形態に係る情報提示装置の構成例を示す図
【図11】同実施形態に係る情報提示装置の処理手順の一例を示すフローチャート
【図12】検索結果画面の一例を示す図
【図13】ヒットワード再生画面の一例を示す図
【図14】検索結果画面の他の例を示す図
【図15】データ再生画面の一例を示す図
【図16】データ再生画面の他の例を示す図
【符号の説明】
1,2,3…情報提示装置、8…データサーバ、7,27,37…ネットワーク、18…音声データサーバ、28…画像データサーバ、101,201…入力部、103…検索部、104,204,304…ヒットワード検出部、105…データ加工部、106,206…出力部、107…音声合成部、108,209,309…通信部、109…データベース、202…音声認識部、203…音声検索部、205,305…再生処理部、207…音声データベース、208…文書インデックス、301…情報入出力部、303…データ検索部、307…映像データベース

Claims (9)

  1. 検索文を入力するための入力手段と、
    前記検索文をもとに、文字列データ又は音声データを含むコンテンツを格納したデータベースを検索して、コンテンツを取得する取得手段と、
    この取得手段により取得された前記コンテンツに含まれる文字列データ又は音声データ中から、前記検索文に適合するヒットワードを検出する検出手段と、
    この検出手段により検出された前記ヒットワードに関する情報を音声により提示する提示手段とを備えたことを特徴とする情報提示装置。
  2. 前記提示手段は、検出された前記ヒットワードを強調しながら前記コンテンツに含まれる文字列データ又は音声データを音声により提示することを特徴とする請求項1に記載の情報提示装置。
  3. 前記提示手段は、前記ヒットワードを強調して音声により提示するにあたって、そのヒットワードが前記文字列データ又は音声データ中で出現した回数を示す情報も音声により提示することを特徴とする請求項2に記載の情報提示装置。
  4. 前記提示手段は、前記コンテンツに含まれる文字列データ又は音声データを音声により提示するのに先立って、検出された前記ヒットワードを音声により提示することを特徴とする請求項1に記載の情報提示装置。
  5. 更に、前記提示手段による前記ヒットワードの提示に対して肯定又は否定の評価を入力するための手段を備え、
    前記提示手段は、検出された前記ヒットワードを音声により提示した後、前記肯定の評価が入力された場合に前記コンテンツに含まれる文字列データ又は音声データを音声により提示し、前記否定の評価が入力された場合に前記コンテンツに含まれる文字列データ又は音声データを音声により提示しないことを特徴とする請求項4に記載の情報提示装置。
  6. 検索文を入力するための入力手段と、
    前記検索文をもとに、音声データ又は音声データを伴う映像データを含むコンテンツを格納したデータベースを検索して、コンテンツを取得する取得手段と、
    取得された前記コンテンツに含まれる音声データ中から、前記検索文に適合するヒットワードを検出する検出手段と、
    表示画面上に、前記コンテンツに含まれる音声データ又は音声データを伴う映像データを再生することを指定するための第1の画像と、前記音声データのうち検出された前記ヒットワードに該当する部分を再生することを指定するための第2の画像とを表示するユーザ・インタフェース手段とを備えたことを特徴とする情報提示装置。
  7. 前記ユーザ・インタフェース手段は、ユーザにより前記第1の画像が選択された場合に前記コンテンツに含まれる音声データ又は音声データを伴う映像データを再生し、前記第2の画像が選択された場合に前記音声データのうち検出された前記ヒットワードに該当する部分を再生することを特徴とする請求項6に記載の情報提示装置。
  8. 前記ユーザ・インタフェース手段は、前記第2の画像が選択された場合に前記ヒットワードに該当する部分の再生結果に対して、肯定の評価を入力するための第3の画像及び否定の評価を入力するための第4の画像を前記表示画面上に表示し、ユーザにより該第3の画像又は該第4の画像が選択された場合には、前記音声データに対応付けて肯定又は否定の評価を記憶し、
    前記取得手段は、前記肯定又は否定の評価を考慮して、前記取得を行うことを特徴とする請求項7に記載の情報提示装置。
  9. 検索文を入力するための入力ステップと、
    前記検索文をもとに、文字列データ又は音声データを含むコンテンツを格納したデータベースを検索して、コンテンツを取得する取得ステップと、
    取得された前記コンテンツに含まれる文字列データ又は音声データ中から、前記検索文に適合するヒットワードを検出する検出ステップと、
    この検出ステップにより検出された前記ヒットワードに関する情報を音声により提示するステップとを有することを特徴とする情報提示方法。
JP2003197292A 2003-07-15 2003-07-15 情報提示装置及び情報提示方法 Expired - Fee Related JP4080965B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003197292A JP4080965B2 (ja) 2003-07-15 2003-07-15 情報提示装置及び情報提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003197292A JP4080965B2 (ja) 2003-07-15 2003-07-15 情報提示装置及び情報提示方法

Publications (2)

Publication Number Publication Date
JP2005038014A true JP2005038014A (ja) 2005-02-10
JP4080965B2 JP4080965B2 (ja) 2008-04-23

Family

ID=34207495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003197292A Expired - Fee Related JP4080965B2 (ja) 2003-07-15 2003-07-15 情報提示装置及び情報提示方法

Country Status (1)

Country Link
JP (1) JP4080965B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009446A (ja) * 2008-06-30 2010-01-14 Internatl Business Mach Corp <Ibm> 音声ファイルの検索システム、方法及びプログラム
JP2012058745A (ja) * 2011-10-26 2012-03-22 Kyocera Corp 音声合成機能付き文字情報表示装置およびその制御方法
EP2595144A1 (en) 2011-11-18 2013-05-22 Hitachi Ltd. Voice data retrieval system and program product therefor
CN104900231A (zh) * 2014-03-05 2015-09-09 卡西欧计算机株式会社 语音检索装置以及语音检索方法
JP2016157225A (ja) * 2015-02-24 2016-09-01 カシオ計算機株式会社 音声検索装置、音声検索方法及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009446A (ja) * 2008-06-30 2010-01-14 Internatl Business Mach Corp <Ibm> 音声ファイルの検索システム、方法及びプログラム
JP2012058745A (ja) * 2011-10-26 2012-03-22 Kyocera Corp 音声合成機能付き文字情報表示装置およびその制御方法
EP2595144A1 (en) 2011-11-18 2013-05-22 Hitachi Ltd. Voice data retrieval system and program product therefor
CN104900231A (zh) * 2014-03-05 2015-09-09 卡西欧计算机株式会社 语音检索装置以及语音检索方法
JP2016157225A (ja) * 2015-02-24 2016-09-01 カシオ計算機株式会社 音声検索装置、音声検索方法及びプログラム
US9734871B2 (en) 2015-02-24 2017-08-15 Casio Computer Co., Ltd. Voice retrieval apparatus, voice retrieval method, and non-transitory recording medium

Also Published As

Publication number Publication date
JP4080965B2 (ja) 2008-04-23

Similar Documents

Publication Publication Date Title
US8355919B2 (en) Systems and methods for text normalization for text to speech synthesis
US8712776B2 (en) Systems and methods for selective text to speech synthesis
US6321196B1 (en) Phonetic spelling for speech recognition
US8396714B2 (en) Systems and methods for concatenation of words in text to speech synthesis
US8352268B2 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US7092496B1 (en) Method and apparatus for processing information signals based on content
US8352272B2 (en) Systems and methods for text to speech synthesis
US8583418B2 (en) Systems and methods of detecting language and natural language strings for text to speech synthesis
US20200294487A1 (en) Hands-free annotations of audio text
US8719027B2 (en) Name synthesis
US20100082328A1 (en) Systems and methods for speech preprocessing in text to speech synthesis
US20100082327A1 (en) Systems and methods for mapping phonemes for text to speech synthesis
JP5787780B2 (ja) 書き起こし支援システムおよび書き起こし支援方法
JP2007507746A (ja) 選択自由な後処理を備えた携帯可能な装置のための音声タギング,音声アノテーション,および音声認識
KR101100191B1 (ko) 멀티미디어 재생장치와 이를 이용한 멀티미디어 자료검색방법
JP2009042968A (ja) 情報選別システム、情報選別方法及び情報選別用プログラム
JP2008032825A (ja) 発言者表示システム、発言者表示方法および発言者表示プログラム
JP3896760B2 (ja) 対話記録編集装置、方法及び記憶媒体
JP4080965B2 (ja) 情報提示装置及び情報提示方法
JP2004334409A (ja) データ閲覧支援装置、データ閲覧方法及びデータ閲覧プログラム
JP2000324395A (ja) 字幕へのタイミング情報付与方法
JP2004289530A (ja) 記録再生装置
JP5533377B2 (ja) 音声合成装置、音声合成プログラムおよび音声合成方法
JP4342529B2 (ja) オーサリング支援装置、オーサリング支援方法及びプログラム、並びにオーサリング情報共有システム
US7353175B2 (en) Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees