JP2009295101A - 音声データ検索システム - Google Patents

音声データ検索システム Download PDF

Info

Publication number
JP2009295101A
JP2009295101A JP2008150694A JP2008150694A JP2009295101A JP 2009295101 A JP2009295101 A JP 2009295101A JP 2008150694 A JP2008150694 A JP 2008150694A JP 2008150694 A JP2008150694 A JP 2008150694A JP 2009295101 A JP2009295101 A JP 2009295101A
Authority
JP
Japan
Prior art keywords
keyword
occurrence
search
keywords
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008150694A
Other languages
English (en)
Other versions
JP5189413B2 (ja
Inventor
Hirohiko Sagawa
浩彦 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008150694A priority Critical patent/JP5189413B2/ja
Publication of JP2009295101A publication Critical patent/JP2009295101A/ja
Application granted granted Critical
Publication of JP5189413B2 publication Critical patent/JP5189413B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】検索対象とするキーワードを音声データから検索する際に,音声データから記号列への変換精度が低い場合においても,検索対象のキーワードを精度良く検索する。
【解決手段】インターネット上等に存在する大量のテキスト文書から,検索対象のキーワードとなり得る単語間の共起情報を抽出しておく。検索キーワードが入力された場合,共起情報から検索対象のキーワードに対応する共起キーワードを取得し,共起キーワードそれぞれについて,音声データからの検索処理を実行する。また,検索キーワードについても同様に検索処理を実行し,それらの検索結果と共起情報とのマッチング結果に基づいて検索キーワードの評価値を求め,検索キーワードの検索結果の順位付けを行う。
【選択図】図1

Description

本発明は,音声データ中から,ユーザが指定したキーワードが発話されている箇所を検索し,検索結果をユーザに提示する音声データ検索システムに関し,キーワードが発話されている音声データ中の箇所を高精度に検索する技術に関する。
音声データ中からユーザが指定したキーワードが発話されている箇所を検索する技術としては,特許文献1,2が提案されている。また,特許文献3,4では,テキスト文書の検索データにおいて,キーワード間の関係に基づいた検索に関する技術が提案されている。
特許文献1では,音声データ及びキーワードをサブ音素系列に変換した後,動的計画法によるワードスポッティング技術により,キーワードから変換したサブ音素系列を音声データから変換したサブ音素系列中から探索する。特許文献2では,音素の出現頻度の統計により決定される展開ルールに基づいて,キーワードから生成された音素列・音節列中の音素を置換した新たな音素列・音節列を生成し,それらと検索対象の音素列・音節列を照合することにより検索を行う。特許文献3では,検索式として与えられたキーワードに対する絞り候補のキーワードを共起データベースより検索し,得られたキーワードを最初の検索式に追加して再検索を行うことにより,検索候補の絞込みを行う。また,特許文献4では,ユーザにとって検索目的がわかりやすい検索式を生成するため,キーワード間の共起度に基づいて得られたキーワードにより検索式を補うと共に,冗長性を除去することにより,検索式を生成する。
特開2002−221984号公報 特開2005−257954号公報 特開2003−22275号公報 特開2002−183194号公報
上記の音声データの検索に関する従来技術では,音声データからサブ音素列等の記号列への変換精度が,検索性能に大きく影響する。音声データから記号列に変換を行う際,検索対象のキーワードが存在する箇所の変換結果が,本来のキーワードとは全く異なる記号列となる場合がある。特許文献1では,キーワードから得られた記号列と音声データから得られた記号列の一致・不一致により,目的とするキーワードの検索を行うため,上記のような状況においては,十分な検索精度を得ることができない。また特許文献2では,音声データから記号列に変換を行う際の誤りの傾向をあらかじめ調査し,それに基づいて,検索対象となるキーワードの記号列を補正した後,検索を行うことにより,上記の問題を解消しようとしている。しかしながら,より多くの誤りのパターンを考慮すると,不必要な検索結果が増加することになり,結果として検索精度の低下を招く。
一方,特許文献3及び特許文献4は,テキスト文書を対象とした検索技術であるが,文書中に出現するキーワード間の共起関係に基づいて,検索式を補足し,補足した検索式を用いて検索を行うことにより,検索精度を向上させることが可能である。特許文献2に特許文献3あるいは特許文献4の技術を導入することにより,不必要な検索結果の増加をある程度抑えることは可能であると考えられる。
しかし,検索式に絞込みのためのキーワードを含めて検索を行う場合,検索対象となるキーワードが正しく検出されていることが前提としてある。そのため,音声データから得られた記号列が本来のキーワードに対する記号列とは大きくかけ離れている場合は,共起するキーワードが検出されていても,検索対象の検索結果の評価値は低いため,その検索結果における順位は低く抑えられることになる。また,上記の従来技術では,検索対象のキーワードは,必ず検出されていなければ結果として出力されないため,キーワード部分から得られた記号列は正しくないが,周囲に現れる共起するキーワードの条件は十分であるというような場合は,従来技術では検索を行うことができないという問題がある。
本発明の目的は,検索対象とするキーワードを音声データから検索する際に,音声データから記号列への変換精度が低い場合においても,検索対象のキーワードを精度良く検索することが可能な技術を提供することにある。
以上の問題を解決し,ユーザが指定したキーワードが発話されている音声データ中の箇所を高精度に検索するため,本発明では,まず,インターネット上等に存在する大量のテキスト文書を自然言語処理技術を利用して単語に分割し,検索対象であるキーワードとなり得る単語間の共起関係を抽出しておく。検索対象のキーワードとなり得る単語としては,名詞や動詞,形容詞等の自立語を選択する。また,共起関係としては,対象となるキーワードから前方,後方それぞれにあらかじめ決められた個数の共起キーワードの出現パターン,及びそれぞれの位置におけるキーワードの種類ごとの出現頻度を集計し,それらの情報を対象となるキーワード毎に共起情報として格納する。
次に,ユーザから検索対象となるキーワードが入力された場合,上記の共起情報から検索対象のキーワードに対応する共起キーワードを取得し,共起キーワードそれぞれについて,音声データからの検索処理を実行する。また,検索対象のキーワードについても同様に検索処理を実行する。さらに,それらの検索結果を統合し,検索対象のキーワードの検索結果とその周辺に検出された共起キーワードの検索結果の組み合わせによるキーワード列を生成する。生成されたキーワード列と検索対象のキーワードに対応する共起情報とのマッチング結果に基づいて検索対象のキーワードの評価値を求める。求めた評価値により検索対象のキーワードの検索結果の順位付けを行い,最終的な検索結果として出力する。
また,検索対象のキーワードについての検索処理を行わず,共起キーワードの検索結果と検索対象のキーワードに対応する共起情報から,検索対象のキーワードの位置候補を決定し,それぞれの位置候補について記号列のマッチング等を行うことにより,検索対象のキーワードの検索結果を求める。
検索対象のキーワードだけでなく,その周囲に出現する可能性が高い共起キーワードの出現パターンに基づいて評価値を計算することにより,対象とするキーワードの箇所から得られる記号列の信頼度が低い場合でも,検索結果の上位に結果を出力することができるようになり,検索精度を向上することが可能となる。また,共起キーワードの検索結果に基づいて検索対象のキーワードの位置候補を求めることにより,検索対象が発話されているが記号列への変換が正しく行われないため従来の検索技術では検索結果に現れることがない候補も,検索結果として出力することが可能となる。
以下,図面を参照して本発明の実施の形態を説明する。
本発明の第一の実施例を図1から図10により説明する。
図1は,本発明の第一の実施例による音声データ検索システムの構成を示す概念ブロック図である。図1において,テキスト文書101は,検索キーワードとなる可能性がある単語間の共起情報を抽出するための元データである。単語分割部102は,テキスト文書中の各文を単語に分割するための処理部であり,自然言語処理や機械翻訳の分野でよく知られている形態素解析技術,例えば,「岩波講座ソフトウェア科学(15)自然言語処理,岩波書店,1996年」にある技術を用いることができる。共起情報算出部103は,単語分割部102で単語に分割された文からキーワードになる可能性がある単語のみに着目し,単語間の共起情報を求める処理を行う。共起情報算出部103で求められた共起情報は,キーワード毎に,共起キーワード頻度情報104に格納される。
検索キーワード105はユーザによって入力される。音声データ106は,検索キーワード105を検索する対象となるデータであり,検索処理では音声データ106中において検索キーワード105が発話されている箇所を検索することになる。共起キーワード選択部107は,検索キーワード105に関する共起情報を共起キーワード頻度情報104から呼び出し,検索キーワード105と共起する可能性が高い共起キーワードを選択する。共起キーワード検索部108は,共起キーワード選択部107で選択された全ての共起キーワードについて検索処理を行い,音声データ106中で発話されている箇所を検索する。また,検索キーワード検索部109は,検索キーワード105が発話されている箇所を音声データ106から検索する。共起キーワード検索部108及び検索キーワード検索部109で使用する技術としては,例えば,特開2002−221984号公報にある技術を利用することができる。共起キーワード検索部108及び検索キーワード検索部109で使用する技術としては,キーワードを音声データ中から検索するための技術であれば,どのような技術でも使用することができる。また,共起キーワード検索部108及び検索キーワード検索部109で使用する検索技術は,同じものを使用しても良いし,それぞれ異なる技術を利用することもできる。また,検索結果としては,目的とするキーワードとその音声データ中における時間(位置)に関する情報が合わせて出力されることを想定しているが,前記の技術等を用いることにより,容易に実現することができる。評価値計算部110は,検索キーワード及び共起キーワードの検索結果,及び検索キーワードに関連する共起情報を用いて,検索キーワードの検索結果に対する評価値を求め,検索結果に順位付けを行い,検索結果111として出力する。
図2は,本発明による音声データ検索システムを一般的に使用される計算機上で実現した場合の構成図である。情報処理装置201は,音声データの検索に必要な各種のプログラムを実行する。入力装置202は,図1における検索キーワード105を入力するためのものであり,キーワードが文字列の場合はキーボード,音声の場合はマイクを用いることができる。表示装置203は,検索結果111を出力するための装置であり,モニタやスピーカを使用することができる。記憶装置204は,音声データ検索に必要な各種のプログラムや処理の途中経過に関する情報を格納する。単語分割プログラム205は図1における単語分割部102に対応する処理を行うためのプログラム,共起情報算出プログラム206は共起情報算出部103に対応する処理を行うためのプログラム,共起キーワード選択プログラム207は共起キーワード選択部107に対応する処理を行うためのプログラム,共起キーワード検索プログラム208は共起キーワード検索部108に対応する処理を行うためのプログラム,検索キーワード検索プログラム209は検索キーワード検索部109に対応する処理を行うためのプログラム,評価値計算プログラム210は評価値計算部110に対応する処理を行うためのプログラムである。さらに,テキスト文書211,共起キーワード頻度情報212及び音声データ213はそれぞれ,図1における101,104,106に対応する。
図3のフローチャートを用いて,共起情報算出部103の処理について説明する。共起情報算出部103ではまず,ステップ301において,単語分割部102で単語に分割されたテキスト文書から,ユーザが検索キーワードとして入力する可能性が高い単語として,名詞,動詞,形容詞等の自立語を抽出する。よく知られた形態素解析技術では,分割された個々の形態素あるいは単語と共に,その品詞を出力することができるため,自立語の抽出は,単語分割部102から出力される結果から容易に行うことができる。ステップ302では,個々の自立語について,その前後にある他の自立語を共起キーワードとしてあらかじめ決められた個数選択し,各自立語と共起キーワードからなる組み合わせを生成する。
例えば,自立語をA,B,C,D,E,F,Gで表し,得られた自立語の列が
A B C D E F
であった場合,前方2個,後方2個の共起キーワードを選択した場合,自立語と共起キーワードの組み合わせは,
A 前:() 後:(B,C)
B 前:(A) 後:(C,D)
C 前:(A,B) 後:(D,E)
D 前:(B,C) 後:(E,F)
E 前:(C,D) 後:(F)
F 前:(D,E) 後:()
となる。
上記において,「前:」の後に記載されている共起キーワードは注目している自立語の前方にある2つの共起キーワード,「後:」の後に記載されている共起キーワードは注目している自立語の後方にある2つの共起キーワードを示している。()内が空白である場合は,共起キーワードが存在しないことを示している。また,上記の組み合わせにおいては,共起キーワードの順序も保存することとしている。ステップ302では,テキスト文書101から抽出した全ての自立語について,上記のような自立語と共起キーワードの組み合わせを生成する。
ステップ303では,ステップ302で生成した組み合わせの内,同じ自立語に関する組み合わせを集め,共起情報として共起キーワードの頻度分布を計算する。例えば,自立語Aに関する組み合わせが,
A 前:(B,C) 後:(D,E)
A 前:(C,F) 後:(E,G)
A 前:(B,F) 後:(H,G)
であった場合,同じ位置に出現している共起キーワードに関して,頻度分布を求める。例えば,Aの前方2つ先に出現している共起キーワードは,上記の組み合わせよりB,C及びBであるため,B=2,C=1という頻度分布となる。同様に,各位置における頻度分布を求めると,
A 前:((B[2],C[1]),(C[1],F[2]))
後:((D[1],E[1]),H[1]),(E[1],G[2]))
という分布が得られる。上記において,[]内に示されている数値が各共起キーワードの頻度を表している。上記の例では,頻度情報として,単純に出現回数を集計した値を用いていたが,最も値の大きい頻度で正規化を行う方法や,テキスト文書中における出現確率で補正を行う方法等,一般的に使用される頻度情報の算出手法を用いることもできる。
以上により求められた自立語毎の共起情報は,共起キーワード頻度情報104に格納される。この際,得られた全ての共起キーワードを格納するようにしても良いし,あるいは,頻度があらかじめ決められた値より大きい共起キーワードのみを格納するようにしても良い。
図4から図6を用いて,共起キーワード頻度情報104に格納される,共起情報について説明する。図4に,共起情報のフォーマットを示す。図4において,401は着目するキーワードの名称であり,共起情報を求める際に着目した自立語の名称である。402は,キーワード401から前方何個までの共起キーワードに関する情報が格納されているかを示す値であり,上記の例のように,前方2個の共起キーワードに着目して頻度情報を求めている場合は「2」が記述されることになる。403は,キーワード401から見て前方一番目,すなわちキーワード401の直前に存在した共起キーワードの種類数を表す数値であり,404及び406は,キーワード401から見て前方一番目に存在した共起キーワードの名称を表す。また,405及び407は,キーワード401から見て前方一番目に存在した共起キーワードの頻度を表す数値である。408は,キーワード401から見て前方二番目に存在した共起キーワードの種類数を表す数値であり,その後に,前方二番目に存在した共起キーワードの名称や頻度が記述される。409は,キーワード401から後方何個までの共起キーワードに関する情報が格納されているかを示す値であり,上記の例のように,後方2個の共起キーワードに着目して頻度情報を求めている場合は「2」が記述されることになる。410は,キーワード401から見て後方一番目,すなわちキーワード401の直後に存在した共起キーワードの種類数を表す数値であり,411及び413は,キーワード401から見て後方一番目に存在した共起キーワードの名称を表す。また,412及び414は,キーワード401から見て後方一番目に存在した共起キーワードの頻度を表す数値である。415は,キーワード401から見て後方二番目に存在した共起キーワードの種類数を表す数値であり,その後に,後方二番目に存在した共起キーワードの名称や頻度が記述される。
図5に共起情報の具体例を示す。図5における共起情報はキーワード「K」(図5の501)に関する情報を表している。共起キーワードとしては,前方2個(図5の502),後方1個 (図5の511)に着目した情報が記載されていることを示している。直前の共起キーワードには「C1」(図5の504)及び「C2」(図5の506)の2種類(図5の503)があり,それぞれの頻度は「6」(図5の505)及び「4」(図5の507)となっている。前方2番目の共起キーワードは1種類(図5の508)であり,名称は「C3」(図5の509),頻度は「5」(図5の510)である。また,直後の共起キーワードには3種類(図5の512)あり,名称は「C4」(図5の513),「C5」(図5の515)及び「C6」(図5の517),頻度はそれぞれ,「7」(図5の514),「4」(図5の516)及び「6」(図5の518)となっている。
図6は,図5に示した共起情報をイメージ化した図である。図6において,横方向が時間軸であるとみなし,キーワード「K」(図6の601)を中心に,共起キーワードの情報が記載されている。602はキーワードの前方一番目,すなわち直前に存在した共起キーワードの情報であり,図5における503から507に記載されている情報に相当する。603はキーワードの前方二番目に存在した共起キーワードの情報であり,図5における508から510に,また,604はキーワードの後方一番目に存在した共起キーワードの情報であり,図5における512から518に記載されている情報に相当する。また,図6において,各共起キーワードの頻度は()内に記載している。
次に図7のフローチャートを用いて,共起キーワード選択部107の処理について説明する。ステップ701では,ユーザが入力した検索キーワード105に対応する共起情報,すなわち,図4におけるキーワード名401が検索キーワード105と一致する情報を共起キーワード頻度情報104から取得する。次にステップ702では,取得した頻度情報から共起キーワードを取得する。この際,共起情報中に格納されている全ての共起キーワードを選択しても良いし,あるいは,あらかじめ定められた値より頻度が大きい共起キーワードのみを選択するようにして良い。あるいは,頻度が大きい共起キーワードから順に,あらかじめ定められた個数の共起キーワードを選択するようにしても良い。
図8及び図9を用いて,評価値計算部110における評価値計算方法について説明する。図8は,評価値計算部110における処理の流れを表すフローチャートである。ステップ801では,検索キーワードと共起キーワードの検索結果の順序関係に基づいて,たとえば図9の901に示すような,検索キーワードと共起キーワードの列を作成する。901では,検索キーワードは「K」,共起キーワードを「C1」から「C5」で表している。次にステップ802において,検索キーワードに関する共起情報を共起キーワード頻度情報104から取得する。そして,ステップ801で生成したそれぞれの列について,ステップ803からステップ806の間の処理を繰り返し実行し,各列に対する評価値を求める。ステップ804では,作成した列中の共起キーワードと同じ位置にある共起キーワードを頻度情報から検索し,列中の共起キーワードがそれぞれの位置において,共起情報中にも登録されているかどうかを確認する。キーワード「K」に関する共起情報が図9の902に示すような内容であった場合,903,904,905,906,907においてハッチングされた箇所が検索結果から作成した列中の共起キーワードに対応する情報であると判定される。
さらにステップ805では,検索結果から作成した列中の各共起キーワードに対応する頻度を共起情報中から選択し,それらを加算することにより,対象となっている列の評価値とする。図9に示す例では908に示すように,C1,C2,C3,C4,C5それぞれに対応する頻度の和である27が901で示す列に対する評価値として得られることになる。評価値の計算方法としては,加算するだけでなく,平均を求める方法や,加重和を用いる方法等,使用している頻度の種類に応じて適切な計算方法を用いることができる。最後にステップ807において,求めた評価値に基づいて,検索キーワードの検索結果に対して順位付けを行い,検索結果として出力する。
以上では,共起情報中の頻度のみから検索結果の評価値を求めているが,例えば,音声データから検索キーワードや共起キーワードの検索を行う際に,使用する手法によって決定される評価値,例えば,音声認識処理に基づく評価値,を利用することができる場合は,それらの評価値と頻度から求めた評価値を適切な関数により統合することにより,検索結果の評価値としても良い。例えば,音声認識の結果得られる検索キーワードの評価値をEk,評価対象とする共起キーワードの個数をN,音声認識の結果得られる共起キーワードの評価値をEci(i=1,2,3,…,N),頻度情報中の各共起キーワードに対応する頻度をFi(i=1,2,3,…,N)とすると,検索キーワードに対する統合した評価値E0は,式(1)のような式によって計算することができる。
Figure 2009295101
式(1)では,評価値を統合する関数として,共起キーワードの評価値と頻度情報の加重平均を検索キーワードの評価値に対する重みとして用いているが,これらの情報を組み合わせて評価値を求めることができる関数であれば,任意の関数を使用することができる。
図10に検索結果の表示形態の一例を示す。図10では,検索キーワード「K」に対する検索結果が表示されていると想定しており,検索結果は,1001から1005に,音声データの名称,検索キーワードの開始時間,評価値の組として表示されている。それぞれの結果をマウス等により選択することにより,表示されている音声データの開始時間のおける音声を再生する。
図11から図13を用いて,本発明の第二の実施例について説明する。
第二の実施例におけるシステム構成は,図1及び図2に示す構成と同一であるが,共起キーワード頻度情報104に格納される共起情報のフォーマット,及び評価値計算部110の処理が異なっている。
図11に,第二の実施例における共起情報のフォーマットを示す。図11において,1101は着目するキーワードの名称である。1102は,キーワードの前後に出現する共起キーワードの組み合わせパターン数を表す数値である。1103は最初の共起キーワードの組み合わせの頻度を表す数値である。1104は,キーワード1101から前方何個までの共起キーワードに関する情報が格納されているかを示す値である。1105及び1106は,キーワード1101から見て前方一番目及び二番目に存在した共起キーワードの名称を表す。1107は,キーワード1101から後方何個までの共起キーワードに関する情報が格納されているかを示す値である。1108及び1109は,キーワード1101から見て後方一番目及び二番目に存在した共起キーワードの名称を表す。また,1110は二番目の共起キーワードの組み合わせの頻度を表す数値である。
図12は,図11に示したフォーマットにより表される共起情報をイメージ化した図である。図12では,横方向を時間軸であるとみなし,キーワード「K」を中心にした共起キーワードの情報が記載されている。1201は一番目の共起キーワードの組み合わせパターン,1202は二番目,1203は三番目のパターンを表しており,()内に記載されている数値は,それぞれのパターンの頻度を表している。このように,第二の実施例では,一連の共起キーワードの組み合わせを単位として,共起情報が記述される。
次に図13を用いて,評価値の計算方法について説明する。第一の実施例では,検索キーワードと共起キーワードの検索結果から作成したキーワードの列中の各共起キーワードが,共起情報中の対応する位置に登録されている場合に,登録されている頻度を評価値に加算することにより,検索結果に対する評価値を求めていた。一方,第二の実施例では,作成した列と,各共起キーワードの組み合わせパターンを比較することにより,一致している共起キーワードの数を求める。さらに,求めた数と各組み合わせパターンの頻度を乗じることにより,各組み合わせパターン毎の評価値を求める。最後に,求めた評価値の内,最も大きい値を作成した列に対する評価値とする。図13の例では,1301のパターンと作成した列との間で一致しているキーワードの数は5であり,1301の頻度は7であるため,1301に対する評価値は35となっている。同様に,1302,1303についてはそれぞれ,10,12となっており,1304に示すように,最も大きい値が最終的な評価値として選ばれている。
以上の実施例では,作成した列と共起情報中の共起キーワードが一致しているかどうかのみにより評価値を求めていたが,例えば,音声データから検索キーワードや共起キーワードの検索を行う際に,使用する手法によって決定される評価値,例えば,音声認識処理に基づく評価値,を利用することができる場合は,それらの評価値と頻度から求めた評価値を適切な関数により統合することにより,検索結果の評価値としても良い。
図14及び図15を用いて,本発明の第三の実施例について説明する。
第三の実施例では,検索結果の表示形態が第一の実施例と異なる。第一の実施例では,図10に示すように,評価値に基づいて順位付けされた検索結果を一覧の形で表示していた。一方,第三の実施例では,図14に示すように,検索結果の一覧(1405から1409)に加え,共起キーワードの組み合わせの一覧(1401から1404)も合わせて表示するようにしている。
表示する共起キーワードの組み合わせの一覧は,図9や図13に示した処理において評価値を算出する際に用いた共起キーワードの組み合わせを処理の過程において記憶しておき,同じ組み合わせを削除することにより作成することができる。検索結果を記憶するためのフォーマットの一例を図15に示す。図15において,1501は図9や図13に示した処理において評価値を算出する際に用いた共起キーワードの組み合わせを記憶するための領域である。1502,1503及び1504は,1501に記憶された共起キーワードの各組み合わせに対応する検索結果を記憶するための領域であり,それぞれ,検索キーワードが含まれるデータ名,検索キーワードの開始時間,及び検索キーワードの評価値が記憶される。図15において,1505から1507には,「C1 C2 C3 X C4 C5」という共起キーワードの組み合わせ(Xは検索キーワードが存在する箇所を示す)に対する検索結果が,1508から1509には「C1 C2 X C5 C4」,1510から1512には「C2 C3 X C5」という共起キーワードの組み合わせに対する検索結果がそれぞれ記憶されている。図15に示すフォーマットで記憶された検索結果は,共起キーワードの組み合わせや評価値等に基づいて順序付けをして記憶しても良いし,あるいは,順序付けは行わず,検索された順に格納されていても良い。
検索結果の閲覧においては,共起キーワードの組み合わせを選択し,該当する検索結果のみを表示する。これを行うには,選択した共起キーワードの組み合わせを図15に示す検索結果の一覧中における共起キーワードの組み合わせと比較を行い,一致するもののみを選択し,画面上に表示するようにすれば良い。あるいは,該当する検索結果の優先順位を上げて検索結果の評価値を再計算した後,検索結果の一覧を表示するようにできる。優先順位の変更は,選択した共起キーワードの組み合わせを図15に示す検索結果の一覧中における共起キーワードの組み合わせと比較を行い,一致する検索結果の評価値のみに1より大きい数値,例えば,1.5や2.0等を乗じる,あるいは,0より大きい数値を加算する,等により評価値の補正を行い,全ての検索結果に対してそれらの処理を行った後,補正された評価値に基づいて検索結果の並べ替えることにより実行することができる。
優先順位を変更する場合は,共起キーワードの組み合わせを複数選択し,選択された全ての組み合わせについて優先順位を上げるようにしても良い。また,組み合わせの優先順位を指定し,その優先順位に基づいて該当する検索結果に重み付けを行い,評価値を再計算するようにしても良い。この計算は,優先順位の一番高い組み合わせに対する検索結果の評価値に2.0を乗じ,二番目に高い組み合わせに対する検索結果の評価値には1.5を乗じる,等により,評価値を補正する程度を優先順位に基づいて変更すれば,容易に実現することができる。
図16及び図17を用いて,本発明の第四の実施例について説明する。
第一の実施例では,検索キーワードも共起キーワードの検索も同様な音声データ検索技術により検索を行うことを前提としていたが,第四の実施例では,共起キーワードの検索結果に基づいて,検索キーワードの候補位置を決定し,決定した候補位置についてのみ,検索キーワードに関する詳細な評価を行う。
図16は,第四の実施例による音声データ検索システムの構成を示す概念ブロック図である。図16において,候補位置決定部1601と候補位置評価部1602が,図1に示す第一の実施例と大きく異なる部分である。
候補位置決定部1601では,検索キーワードに関する共起情報中に格納されている共起キーワードの組み合わせと,共起キーワードの検索結果を比較し,一致度が高い音声データ中の箇所を検索キーワードが発話されている可能性が高いと位置であると見なし,そこを候補位置とする。一致度の求め方としては,共起情報を音声データの時間方向にそってシフトさせながら,図9や図13に示したような評価値の計算を行うことにより,求めることができる。求めた評価値があらかじめ定められた閾値より大きい場合,その箇所を候補位置として決定することができる。
図17を用いて,候補位置決定部1601の処理を詳細に説明する。図17において共起情報は,図13で用いた共起情報と同様であると想定する。すなわち,1701,1702及び1703で示される3通りの共起キーワードの組み合わせが共起情報に格納されている。また,共起キーワードの組み合わせの右に表示されている数値は,各組み合わせに対する頻度である。また1704は,評価対象となる検索結果から得られた共起キーワードの列である。1704中,「−」で示された箇所は,認識された共起キーワード間の時間長が長く,共起キーワード以外の単語が存在する可能性がある箇所である。検索キーワードの候補位置を決定するためには,まず,上述したように,共起情報中の共起キーワードの組み合わせと,共起キーワードの検索結果の比較を行う。また比較は,検索結果の時間軸方向にシフトしながら行うため,図17においては,共起キーワードの組み合わせ1701,1702及び1703を,1705から1710,1706から1711,1707から1712の共起キーワードの組み合わせに対して比較を行うことになる。
次に,図17において,共起情報を1707から1712までの共起キーワードの組み合わせに対して比較する場合を例に,検索キーワードの候補位置であるかどうかを判定する処理について説明する。検索キーワードの候補位置であるかどうかを判定するためには,共起情報と,比較対象である共起キーワードの組み合わせとの一致度に基づいて評価値を求める。この評価値を求める方法は,図13で説明した方法と全く同じ方法を用いることができる。
例えば,着目している共起情報中の共起キーワードの組み合わせに対する頻度をF,共起情報中の共起キーワードの組み合わせと,比較対象である共起キーワードの組み合わせとの間で一致している共起キーワードの個数をNとすれば,
E=F×N
で計算されるEを評価値として利用することができる。そして,共起情報中の全ての共起キーワードの組み合わせに対して同様の評価値を求め,最も大きな評価値を検索結果中において対象としている共起キーワードの組み合わせに対する評価値とする。図17では,1701に対応する評価値が7×5=35で最も大きいため,その値が1713として,1707から1712までの組み合わせに対する評価値として選択されていることが示されている。そして,選択された評価値があらかじめ定められた閾値より大きい場合,検索キーワードの候補位置と判定する。図17では,共起情報中の検索キーワード位置に対応する1710が候補位置と判定されることになる。
ここでは,候補位置決定部1601が,図13に示した評価値の計算方法を用いて音声データ中での候補位置を決定する例について説明した。なお,図9に示した評価値の計算方法を用いても,前記一致度を評価し,検索キーワードが発話されている候補位置を決定することができる。
候補位置評価部1602では,候補位置決定部1601で決定された候補位置が検索キーワードに該当するかどうかを判定する。判定方法としては,検索キーワードから生成した音響パラメータと候補位置における音響パラメータを比較する方法や,候補位置の音声データから認識した音素列や音節列を検索キーワードから生成した音素列や音節列と比較する方法等,音声検索においてよく知られた技術を用いることができる。これらの方法により候補位置に対する評価値を算出し,あらかじめ定められた閾値より大きい評価値の候補位置を選択する。最後に,候補位置を決定する際に求めた評価値と候補位置を判定する際に求めた評価値を統合した評価値を算出し,算出した評価値に基づいて選択された候補位置を順位付けし,結果として出力する。評価値を統合するための方法としては,第一の実施例で説明した方法と同じ方法を用いることができる。
本発明は,ハードディスク・レコーダにおいて,その中に記録された音声を含む大量の動画コンテンツから,ユーザが指定したキーワードを含むコンテンツを検索する機能を実現する技術として利用することができる。また,インターネット上に存在する大量の音声コンテンツ,動画コンテンツからユーザが指定したキーワードを含むコンテンツを検索するサービスを実現する技術として利用することができる。
本発明による音声データ検索システムの構成例を示す概念ブロック図である。 本発明による音声データ検索システムを計算機上で実現した場合の構成図である。 共起情報算出部の処理の流れを示すフローチャートである。 共起情報のフォーマットを示す図である。 共起情報の具体例を示す図である。 共起情報をイメージ化した図である。 共起キーワード選択部の処理の流れを示すフローチャートである。 評価値計算部における処理の流れを示すフローチャートである。 検索キーワードと共起キーワードの列を示す図である。 検索結果の表示形態の一例を示す図である。 共起情報のフォーマットを示す図である。 共起情報をイメージ化した図である。 評価値の計算方法について説明する図である。 検索結果の表示形態の一例を示す図である。 検索結果を記憶するためのフォーマットの一例を示す図である。 音声データ検索システムの構成を示す概念ブロック図である。 候補位置決定部の処理を説明する図。
符号の説明
101 テキスト文書
102 単語分割部
103 共起情報算出部
104 共起キーワード頻度情報
105 検索キーワード
106 音声データ
107 共起キーワード選択部
108 共起キーワード検索部
109 検索キーワード検索部
110 評価値計算部
111 検索結果
1501 候補位置決定部
1502 候補位置評価部

Claims (14)

  1. 複数のテキスト文書中の各々の文から抽出された,検索対象のキーワードになる可能性の高い単語からあらかじめ定められた範囲内に存在する単語である共起キーワードの種類とその頻度を,キーワード毎の共起キーワード頻度情報として格納した情報格納部と,
    検索対象となる検索キーワードを入力する検索キーワード入力部と,
    入力された検索キーワードに関連する共起キーワード頻度情報を前記情報格納部から取得し,検索キーワードに関連する共起キーワードを選択する共起キーワード選択部と,
    検索対象である音声データを格納する音声データ格納部と,
    前記共起キーワード選択部で選択された共起キーワードを前記音声データ格納部に格納された音声データ中から検索する共起キーワード検索部と,
    前記入力された検索キーワードを前記音声データ格納部に格納された音声データ中から検索する検索キーワード検索部と,
    前記検索キーワード検索部による検索キーワードの検索結果,前記共起キーワード検索部による共起キーワードの検索結果,及び前記共起キーワード選択部によって取得した検索キーワードに関連する共起キーワード頻度情報に基づいて,検索キーワードの検索結果の評価値を求め,当該評価値に基づいて検索結果の順位付けを行う評価値計算部と,
    前記評価値によって順位付けを行った検索結果を出力する出力部と,
    を有することを特徴とする音声データ検索システム。
  2. 請求項1記載の音声データ検索システムにおいて,前記情報格納部には,前記キーワード毎の共起キーワード頻度情報として,共起キーワードと,対象となるキーワードから見た共起キーワードの位置に関する情報,及びテキスト文書中でその位置に共起キーワードが出現した頻度に関する情報が格納されていることを特徴とする音声データ検索システム。
  3. 請求項1記載の音声データ検索システムにおいて,前記情報格納部には,前記キーワード毎の共起キーワード頻度情報として,対象となるキーワードの周囲に出現した共起キーワードの列と,それぞれの列がテキスト文書中に出現した頻度に関する情報が格納されていることを特徴とする音声データ検索システム。
  4. 請求項1記載の音声データ検索システムにおいて,前記共起キーワード選択部は,共起キーワード頻度情報中で,あらかじめ定められた閾値より大きい頻度を有するキーワード,あるいは,頻度が大きい順にキーワードを並べた場合に,上位からあらかじめ定められた個数のキーワードを,前記検索キーワードに関連する共起キーワードとして選択することを特徴とする音声データ検索システム。
  5. 請求項2記載の音声データ検索システムにおいて,前記評価値計算部は,前記検索キーワードの周囲に検出されたそれぞれの共起キーワードの種類と,前記検索キーワードに関連する共起キーワード頻度情報中の該当する位置に登録されている共起キーワードの種類を比較し,一致している共起キーワードに関する頻度情報を用いて前記評価値を算出することを特徴とする音声データ検索システム。
  6. 請求項3記載の音声データ検索システムにおいて,前記評価値計算部は,前記検索キーワードの周囲に検出されたそれぞれの共起キーワードの列と,検索キーワードに関連する共起キーワード頻度情報中の共起キーワードの列を比較し,一致度が最も高い共起キーワード列に対する頻度情報を用いて前記評価値を算出することを特徴とする音声データ検索システム。
  7. 請求項1記載の音声データ検索システムにおいて,前記出力部は,検索キーワードの周囲の共起キーワードの組み合わせ毎に検索結果を出力することを特徴とする音声データ検索システム。
  8. 請求項7記載の音声データ検索システムにおいて,前記出力部は,検索キーワードの周囲の共起キーワードの組み合わせと,共起キーワード頻度情報中の共起キーワードの組み合わせとの一致度に基づいて,共起キーワードの組み合わせに対する評価値を求め,その評価値から求めた順位によって共起キーワードの組み合わせを出力することを特徴とする音声データ検索システム。
  9. 請求項7記載の音声データ検索システムにおいて,前記出力部は,出力された共起キーワードの組み合わせのいずれかが選択されたとき,当該選択された共起キーワードの組み合わせに該当する,検索キーワードの検索結果を出力することを特徴とする音声データ検索システム。
  10. 請求項1記載の音声データ検索システムにおいて,前記出力部は前記検索キーワードの周囲の共起キーワードの組み合わせを出力し,そのいずれかひとつ,あるいは複数の共起キーワードの組み合わせが選択されたとき,前記評価部は該当する共起キーワードの組み合わせに対応する検索結果の優先順位を上げた評価値を計算し,前記出力部はその結果を出力することを特徴とする音声データ検索システム。
  11. 請求項1記載の音声データ検索システムにおいて,
    テキスト文書中の各々の文を単語に分割する単語分割部と,
    前記検索対象のキーワードになる可能性の高い単語からあらかじめ定められた範囲内に存在する単語である共起キーワードの種類とその頻度を,前記単語分割部によって分割したテキスト文書中の各々の文から抽出し,キーワード毎の共起キーワード頻度情報を作成する頻度情報算出部とを有し,
    前記頻度情報算出部で作成された共起キーワード頻度情報を前記情報格納部に格納することを特徴とする音声データ検索システム。
  12. 複数のテキスト文書中の各々の文から抽出された,検索対象のキーワードになる可能性の高い単語からあらかじめ定められた範囲内に存在する単語である共起キーワードの種類とその頻度を,キーワード毎の共起キーワード頻度情報として格納した情報格納部と,
    検索対象となる検索キーワードを入力する検索キーワード入力部と,
    入力された検索キーワードに関連する共起キーワード頻度情報を前記情報格納部から取得し,検索キーワードに関連する共起キーワードを選択する共起キーワード選択部と,
    検索対象である音声データを格納する音声データ格納部と,
    前記共起キーワード選択部で選択された共起キーワードを前記音声データ格納部に格納された音声データ中から検索する共起キーワード検索部と,
    前記共起キーワード検索部によって前記音声データ格納部に格納された音声データ中から共起キーワードを検索した結果と,前記共起キーワード選択部によって取得した検索キーワードに関連する共起キーワード頻度情報との一致度を計算し,当該一致度があらかじめ定められた値以上の箇所を検索キーワードの候補位置として求める候補位置決定部と,
    前記候補位置決定部によって決定された候補位置を評価し候補位置の順位付けを行う候補位置評価部と,
    前記候補位置評価部によって順位付けされた検索結果を出力する出力部と,
    を有することを特徴とする音声データ検索システム。
  13. 請求項12記載の音声データ検索システムにおいて,前記候補位置決定部では,前記候補位置に対して,音響的な処理や音素・音節等の処理により,検索キーワードとの一致度を求め,その一致度と,前記共起キーワードの検索結果から得られる評価値とを用いることにより,候補位置の最終評価値を求め,当該最終評価値によって候補位置の順位付けを行うことを特徴とする音声データ検索システム。
  14. 請求項12記載の音声データ検索システムにおいて,
    テキスト文書中の各々の文を単語に分割する単語分割部と,
    前記検索対象のキーワードになる可能性の高い単語からあらかじめ定められた範囲内に存在する単語である共起キーワードの種類とその頻度を,前記単語分割部によって分割したテキスト文書中の各々の文から抽出し,キーワード毎の共起キーワード頻度情報を作成する頻度情報算出部とを有し,
    前記頻度情報算出部で作成された共起キーワード頻度情報を前記情報格納部に格納することを特徴とする音声データ検索システム。
JP2008150694A 2008-06-09 2008-06-09 音声データ検索システム Expired - Fee Related JP5189413B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008150694A JP5189413B2 (ja) 2008-06-09 2008-06-09 音声データ検索システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008150694A JP5189413B2 (ja) 2008-06-09 2008-06-09 音声データ検索システム

Publications (2)

Publication Number Publication Date
JP2009295101A true JP2009295101A (ja) 2009-12-17
JP5189413B2 JP5189413B2 (ja) 2013-04-24

Family

ID=41543200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008150694A Expired - Fee Related JP5189413B2 (ja) 2008-06-09 2008-06-09 音声データ検索システム

Country Status (1)

Country Link
JP (1) JP5189413B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189829A (ja) * 2011-03-10 2012-10-04 Fujitsu Ltd 音声認識装置、音声認識方法、および音声認識プログラム
JP2013137458A (ja) * 2011-12-28 2013-07-11 Toyota Motor Corp 音声認識装置、方法、及びプログラム
JP2020531942A (ja) * 2017-08-22 2020-11-05 サブプライ ソリューションズ エルティーディー. 再セグメント化されたオーディオコンテンツを提供するための方法およびシステム
CN117493588A (zh) * 2023-12-28 2024-02-02 苏州元脑智能科技有限公司 检索结果的确定方法及装置、存储介质、电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055196A (ja) * 1996-08-09 1998-02-24 Ricoh Co Ltd 音声認識装置および方法、情報記憶媒体
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2006031278A (ja) * 2004-07-14 2006-02-02 Nec Corp 音声検索システムおよび方法ならびにプログラム
JP2006040150A (ja) * 2004-07-29 2006-02-09 Mitsubishi Electric Corp 音声データ検索装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055196A (ja) * 1996-08-09 1998-02-24 Ricoh Co Ltd 音声認識装置および方法、情報記憶媒体
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2006031278A (ja) * 2004-07-14 2006-02-02 Nec Corp 音声検索システムおよび方法ならびにプログラム
JP2006040150A (ja) * 2004-07-29 2006-02-09 Mitsubishi Electric Corp 音声データ検索装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189829A (ja) * 2011-03-10 2012-10-04 Fujitsu Ltd 音声認識装置、音声認識方法、および音声認識プログラム
JP2013137458A (ja) * 2011-12-28 2013-07-11 Toyota Motor Corp 音声認識装置、方法、及びプログラム
JP2020531942A (ja) * 2017-08-22 2020-11-05 サブプライ ソリューションズ エルティーディー. 再セグメント化されたオーディオコンテンツを提供するための方法およびシステム
US11693900B2 (en) 2017-08-22 2023-07-04 Subply Solutions Ltd. Method and system for providing resegmented audio content
CN117493588A (zh) * 2023-12-28 2024-02-02 苏州元脑智能科技有限公司 检索结果的确定方法及装置、存储介质、电子装置
CN117493588B (zh) * 2023-12-28 2024-03-22 苏州元脑智能科技有限公司 检索结果的确定方法及装置、存储介质、电子装置

Also Published As

Publication number Publication date
JP5189413B2 (ja) 2013-04-24

Similar Documents

Publication Publication Date Title
US7983915B2 (en) Audio content search engine
JP3720068B2 (ja) 質問の転記方法及び装置
KR101913191B1 (ko) 도메인 추출기반의 언어 이해 성능 향상장치및 성능 향상방법
US7818173B2 (en) Information retrieval system, method, and program
US9190054B1 (en) Natural language refinement of voice and text entry
US20080270344A1 (en) Rich media content search engine
US20080270110A1 (en) Automatic speech recognition with textual content input
JP4887264B2 (ja) 音声データ検索システム
JP5440177B2 (ja) 単語カテゴリ推定装置、単語カテゴリ推定方法、音声認識装置、音声認識方法、プログラム、および記録媒体
JP5403696B2 (ja) 言語モデル生成装置、その方法及びそのプログラム
JP2012194245A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2015138351A (ja) 情報検索装置、情報検索方法および情報検索プログラム
JP5189413B2 (ja) 音声データ検索システム
JP5642037B2 (ja) 検索装置、検索方法およびプログラム
JP5447368B2 (ja) 新規事例生成装置、新規事例生成方法及び新規事例生成用プログラム
JP5542559B2 (ja) 音声検索インタフェース装置及び音声入力検索方法
JP2008077252A (ja) 文書ランキング方法、文書検索方法、文書ランキング装置、文書検索装置、及び記録媒体
JP2005122665A (ja) 電子機器装置、関連語データベースの更新方法、プログラム
JP4478042B2 (ja) 頻度情報付き単語集合生成方法、プログラムおよびプログラム記憶媒体、ならびに、頻度情報付き単語集合生成装置、テキスト索引語作成装置、全文検索装置およびテキスト分類装置
JP4592629B2 (ja) 文書検索支援方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP5583230B2 (ja) 情報検索装置及び情報検索方法
JP2011113426A (ja) 辞書作成装置,辞書作成プログラムおよび辞書作成方法
JP2011048499A (ja) 認識結果修正装置、画像処理装置、及びプログラム
JP4314271B2 (ja) 単語間関連度算出装置、単語間関連度算出方法及び単語間関連度算出プログラム並びにそのプログラムを記録した記録媒体
JP2008090396A (ja) 電子文書検索方法、電子文書検索装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5189413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees