JP5231130B2 - キーフレーズ抽出装置、シーン分割装置およびプログラム - Google Patents
キーフレーズ抽出装置、シーン分割装置およびプログラム Download PDFInfo
- Publication number
- JP5231130B2 JP5231130B2 JP2008208602A JP2008208602A JP5231130B2 JP 5231130 B2 JP5231130 B2 JP 5231130B2 JP 2008208602 A JP2008208602 A JP 2008208602A JP 2008208602 A JP2008208602 A JP 2008208602A JP 5231130 B2 JP5231130 B2 JP 5231130B2
- Authority
- JP
- Japan
- Prior art keywords
- segment
- program
- unit
- key phrase
- storage unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
また、非特許文献2に記載される技術では、例えば接続詞の「ところで」などといった表層的手がかりを組み合わせることにより、シーン切れ目を判断する手法が取られる。
また、非特許文献3に記載される技術では、尤度関数(言語モデル)を予め定義し、ベイズ学習を行なうことによって話題変化点を検出する手法が取られる。
また、非特許文献4に記載される技術では、テキストの生成モデルとしてleft-to-right型隠れマルコフモデル(HMM)を仮定し、変分ベイズ(VB)法に基づくテキスト分割アルゴリズムを導出している。
M.A. Hearst,"Multi-paragraph segmentation of expository text",32nd Annual Meeting of the Association for Computational Linguistics,1994年,pp.9-16. 望月源,本田岳夫,奥村学,「複数の表層的手がかりを統合したテキストセグメンテーション」,自然言語処理,1999年,vol.6,No.3,pp.43-58. 持橋大地,菊井玄一郎,「Gibbs Samplingによる確率的テキスト分割と複数観測への拡張」,NLP−2006,2006年,pp.212-215. 越仲孝文,奥村明俊,磯谷亮輔,「HMMの変分ベイズ学習によるテキストセグメンテーション及びその映像インデキシングヘの応用」,電子情報通信学会論文誌D,2006年,Vol.J89-D,No.9,pp.2113-2122.
非特許文献1に記載されている技術では、テキストの語彙的結束性を利用するため、シーンの切れ目を境として語彙分布が全く異なるテキストについては有効であると考えられるが、例えば情報提供型のテレビ番組等においては、シーンの切れ目をまたがって類似の語彙分布が出現する場合もよくあるため、そのような映像コンテンツのシーンの分割には不適切である。
また、非特許文献2の技術のように手がかり語を用いようとしても、テレビ番組で使われるのは話し言葉であり語や文節などが省略される場合が多く、さらに放送字幕においては接続詞が省略されることも多い。従って、シーンの切れ目を検出するためには、人手で列挙した手がかり語だけを用いてでは不十分である。
なお、ここで、言語的単位とは、例えば単語や文節やNグラム(N−gram)など、言語上の所定のまとまりを持つ単位である。
例えば、その一態様は、番組開始時からの相対時刻と、前記相対時刻に関連付けられたテキストとを記憶する番組テキスト記憶部を具備するコンピュータに、前記番組テキスト記憶部から読み出した前記相対時刻および前記テキストに基づき、番組を時間で区切ったセグメント毎に、言語的単位の出現頻度を表わすセグメント特徴量を算出するセグメント特徴量生成過程と、前記セグメント特徴量生成過程によって算出された前記セグメント特徴量のセグメント間の類似度を算出することにより、複数の番組に属するセグメントから類似のセグメントを選択し、それら選択されたセグメントから成るセグメント系列を生成するセグメントアラインメント処理過程と、前記セグメントアラインメント処理過程によって生成されたセグメント系列内における前記言語的単位の出現頻度に基づき言語的単位毎のスコアを算出し、算出されたスコアの良い言語的単位をキーフレーズとして抽出するスコア算出過程との処理を実行させるプログラムである。
図1は、第1の実施形態によるキーフレーズ抽出装置の機能構成を示すブロック図である。図示するように、キーフレーズ抽出装置10は、番組映像記憶部11と、クローズドキャプションデータ記憶部12(番組テキスト記憶部)と、キーフレーズ抽出処理部13と、キーフレーズ記憶部14とを含んで構成される。
クローズドキャプションデータ記憶部12は、番組映像記憶部11が記憶する映像データそれぞれに対応するクローズドキャプション(画面に表示するための字幕)のデータを記憶する。なお、クローズドキャプションデータ記憶部12は、番組開始時からの相対時刻と、この相対時刻に関連付けられたクローズドキャプション(テキスト)とを記憶するものである。
キーフレーズ抽出処理部13は、上記のクローズドキャプションのデータを元に、シーン分割の手がかりとなり得るキーフレーズを抽出する処理を行うものである。
キーフレーズ記憶部14は、キーフレーズ抽出処理部によって抽出されたキーフレーズを記憶するものである。
図示する例において、1行目のデータは、相対時刻が「00:05:05.01」のときに、「こんばんは 5月になりました。」というクローズドキャプションの表示が開始されることを表わす。
なお、ここで図示しているデータは、特定の番組の特定の放送回の中における相対時刻と、それに対応するクローズドキャプションである。
また、クローズドキャプションデータ記憶部22は、図1に示したクローズドキャプションデータ記憶部12と同様のデータを記憶するものである。なお、これらのクローズドキャプションデータ記憶部12および22を、共通の記憶装置によって実現しても良い。
また、キーフレーズ記憶部24は、図1に示したキーフレーズ記憶部14と同様のデータ(抽出されたキーフレーズのデータ)を記憶するものである。なお、これらのキーフレーズ記憶部14および24を、共通の記憶装置によって実現しても良い。
検索結果データ26は、検索処理部によって得られた分割時刻情報である。
映像分割処理部27は、検索結果データ26に基づいて、番組映像記憶部21に記憶されている番組映像を分割する処理を行なう。つまり、映像分割処理部は、上の検索結果で得られた時刻で番組映像を分割する。この分割処理により、シーンごとに分割された番組映像を得ることができる。映像分割処理部27は、分割済の映像を分割済番組映像記憶部28に書き込む。
分割済番組映像記憶部28は、映像分割処理部27によって分割された番組映像を記憶するものである。
セグメントアラインメント処理部132は、生成されたセグメントベクトルを利用して、セグメント間の類似度を算出することにより、各回間でセグメント同士の対応付けを行う。言い換えれば、セグメントアラインメント処理部132は、複数の番組に属するセグメントから類似のセグメントを選択し、それら選択されたセグメントから成るセグメント系列を生成する。
スコア算出部133は、セグメントアラインメント処理部132によってセグメント系列が特定された後、言語的単位ごとのスコアを計算し、このスコアに基づいてクローズドキャプションのテキストの中からキーフレーズを抽出する。言い換えれば、スコア算出部133は、セグメント系列内における言語的単位の出現頻度に基づき言語的単位毎のスコアを算出し、算出されたスコアの良い言語的単位をキーフレーズとして抽出する。
キーフレーズ抽出処理部が備える各部による処理ついて、以下でさらに詳細に説明する。
セグメント特徴量生成部131は、まずステップS31において、クローズドキャプションデータ記憶部12から番組1回分のクローズドキャプションデータを読み込む。
次にステップS32において、当該番組1回分の中のセグメントを1つ選択する。
次にステップS33において、選択されている現セグメントから1文を取り出す。
次にステップS34において、上で取り出された1文の形態素解析処理を行なう。なお、この形態素解析処理そのものは、既存の技術を用いて行なう。
次にステップS35において、当該文に含まれる単語(本実施形態においては、単語を言語的単位とする)を取り出す。
次にステップS36において、現在の文に出現する単語の頻度(出現回数)を計算し、これに基づいてセグメントベクトルを生成する。セグメントベクトルの具体的な生成方法については後述する。
次にステップS38において、当該放送回の最後のセグメントの処理を終えたか否かを判断する。つまり、当該放送回のすべてのセグメントの処理を終えたか否かを判断する。そして、最後のセグメントの処理を終えた場合には次のステップS39に進み、その他の場合には次のセグメントを処理するためにステップS32に戻る。
最後にステップS39において、当該放送回の全セグメント分のセグメントベクトルを出力する。
この図において、横軸方向は時間を表わす。また、時間軸に付されている目盛は分単位である。各回の番組は、複数のセグメントを含んでいる。図示する例では、1セグメントの長さは2分であり、j番目のセグメント(j=1,2,3,・・・)は相対時刻(j−1)分に開始し相対時刻(j+1)分に終了する。つまり、セグメント1は相対時刻00:00:00(hh:mm:ss)に開始し相対時刻00:02:00に終了する。セグメント2は、相対時刻00:01:00に開始し相対時刻00:03:00に終了する。セグメント3以降についても同様である。このように隣り合うセグメントは、時間的に重なる領域を持っている。
なお、この図ではひとつのセグメント系列のみを示しているが、セグメントアラインメント処理部132が第1回から第N回までのデータに基づいて特定するセグメント系列の数は、1に限られず、複数であっても良い。
まず、セグメントアラインメント処理部132は、番組を、一定時間tの長さのセグメントに分割する。このとき、前述の通り、隣り合うセグメントが時間的に重なる領域を持っていても良い。
そして、セグメントアラインメント処理部132は、N回分の番組の入力データに基づき、i回目の番組のj番目のセグメントSijに対応するセグメントベクトルsijを算出する。セグメントベクトルsijは下の式(1)で表わされる。
そして、xkはK種類の単語の中のk番目(1≦k≦K)の単語wkに対応する値であり、その値は下の式(2)で表わされる。
ここでは、単語の偏りと頻度を考慮するために、Fisherの正確確率検定を用いている。なお、fkの算出法については後で説明する。
ここで、第l(エル)回の番組から選択されるセグメントCij,lは、そのセグメントベクトルcij,lが下の式(3)を満たすものである。
この結果、セグメントアラインメント処理部132は、セグメントsijに対応するセグメント系列seqijを得る。この系列seqijは、下の式(4)で表わされる。
上の表に示す事例が出現する確率pは、下の式(5)で与えられる。
まず、セグメントアラインメント処理部132は、ステップS41において、番組の放送回の中から未処理のもの(第i回)を1つ選ぶ。
次に、ステップS42において、現放送回(第i回)に含まれるセグメントの中から未処理のものSijを1つ選ぶ。
次に、ステップS43において、前述の手法により、現セグメントSijに対するセグメント系列seqijを得る。
次に、ステップS44において、現放送回(第i回)に含まれるすべてのセグメントの処理を終えたか否かを判断する。終えている場合(YES)には、次のステップS45に進む。終えていない場合(NO)には、未処理のセグメントを処理するためにステップS42に戻る。
次に、ステップS45において、すべての放送回の処理を終えたか否かを判断する。終えている場合(YES)には、このフローチャート全体の処理を終了する。終えていない場合(NO)には、未処理の放送回を処理するためにステップS41に戻る。
スコア算出部133は、セグメントSijに対応するセグメント系列seqij内に出現する単語
このようなスコアの計算方法によれば、セグメント系列内においてより多くの番組に出現し且つセグメント系列外では出現頻度がより小さいような単語に、より良いスコアを与えることができる。
まず、スコア算出部133は、ステップS51において、番組の放送回の中から未処理のもの(第i回)を1つ選ぶ。
次に、ステップS52において、現放送回(第i回)に含まれるセグメントの中から未処理のものSijを1つ選ぶ。
次に、ステップS53において、現セグメントSijに含まれる単語それぞれについて、式(7)によるスコアを計算する。
次に、ステップS54において、現セグメントSijに含まれる単語の中から、算出したスコアが上位のもの(例えば、上位3個)を選択し、その単語(キーフレーズ)に関するデータをキーフレーズ記憶部14に書き込む。
次に、ステップS55において、現放送回(第i回)に含まれるすべてのセグメントの処理を終えたか否かを判断する。終えている場合(YES)には、次のステップS56に進む。終えていない場合(NO)には、未処理のセグメントを処理するためにステップS52に戻る。
次に、ステップS56において、すべての放送回の処理を終えたか否かを判断する。終えている場合(YES)には、このフローチャート全体の処理を終了する。終えていない場合(NO)には、未処理の放送回を処理するためにステップS51に戻る。
次に、本発明の第2の実施形態について説明する。
第1の実施形態では番組のクローズドキャプションデータを用いたのに対し、本実施形態では、音声を元に音声認識処理を行なって得られた認識結果のテキストを用いる。この音声認識処理に用いられる音声は、元々番組の映像に含まれるものである。従って、音声認識結果のテキストは番組の相対時刻に関連付けられている。
本実施形態では、キーフレーズ抽出装置は、第1の実施形態で用いたクローズドキャプションデータ記憶部12の代わりに、音声認識結果記憶部を備えている。また、シーン分割装置は、第1の実施形態で用いたクローズドキャプションデータ記憶部22の代わりに、音声認識結果記憶部を備えている。この音声認識結果記憶部は、音声認識結果のテキストとその時刻(番組の相対時刻)とを関連付けて保持する。従って、第1の実施形態の場合と同様に、この第2の実施形態においても、テキストを時刻およびセグメントに関連付けて処理することが可能である。
本実施形態では、キーフレーズ抽出処理部(図1の符号13に相当)は、この音声認識結果記憶部から読み出したテキストを用いて処理を行なう。また、検索処理部(図2の符号25に相当)は、この音声認識結果記憶部から読み出したテキストを用いて処理を行なう。
なお、クローズドキャプションデータの代わりに音声認識結果を用いる点以外は、第1の実施形態と同様であるので、第1の実施形態と共通の部分については説明を省略する。
次に、本発明の第3の実施形態について説明する。
第1の実施形態では番組のクローズドキャプションデータを用いたのに対し、本実施形態では、番組台本のテキストを用いる。番組台本のテキストは番組の相対時刻に関連付けられている。
本実施形態では、キーフレーズ抽出装置は、第1の実施形態で用いたクローズドキャプションデータ記憶部12の代わりに、番組台本記憶部を備えている。また、シーン分割装置は、第1の実施形態で用いたクローズドキャプションデータ記憶部22の代わりに、番組台本記憶部を備えている。この番組台本記憶部は、番組台本のテキストとその時刻(番組の相対時刻)とを関連付けて保持する。従って、第1の実施形態の場合と同様に、この第3の実施形態においても、テキストを時刻およびセグメントに関連付けて処理することが可能である。
本実施形態では、キーフレーズ抽出処理部(図1の符号13に相当)は、この番組台本記憶部から読み出したテキストを用いて処理を行なう。また、検索処理部(図2の符号25に相当)は、この番組台本記憶部から読み出したテキストを用いて処理を行なう。
なお、クローズドキャプションデータの代わりに番組台本を用いる点以外は、第1の実施形態と同様であるので、第1の実施形態と共通の部分については説明を省略する。
次に、本発明の第4の実施形態について説明する。
第1〜第3の実施形態では言語的単位として単語を用いていたのに対し、本実施形態では言語的単位として文節を用いる。つまり、本実施形態では、セグメント特徴量生成部(図4の符号131に相当)は、単語の頻度の代わりに文節の頻度を用いてFisherの正確確率検定を行ない、セグメントベクトルを算出する。また、スコア算出部(図4の符号133に相当)は、単語のスコアを算出する代わりに文節ごとのスコアを算出し、スコア値が上位のものをキーフレーズとして抽出する。
なお、言語的単位として文節を用いる点以外は、第1〜第3の実施形態と同様であるので、それらの実施形態と共通の部分については説明を省略する。
次に、本発明の第5の実施形態について説明する。
第1〜第3の実施形態では言語的単位として単語を用いていたのに対し、本実施形態では言語的単位としてnグラム(n−gram)を用いる。ここで用いるnグラムは、文字のnグラム、単語のnグラム、あるいは文節のnグラムのいずれかである。文字のnグラムは、テキスト中で連続して並ぶn文字である。単語のnグラムは、テキスト中で連続して並ぶn単語である。文節のnグラムは、テキスト中で連続して並ぶn文節である。
つまり、本実施形態では、セグメント特徴量生成部(図4の符号131に相当)は、単語の頻度の代わりにnグラムの頻度を用いてFisherの正確確率検定を行ない、セグメントベクトルを算出する。また、スコア算出部(図4の符号133に相当)は、単語のスコアを算出する代わりにnグラムごとのスコアを算出し、スコア値が上位のものをキーフレーズとして抽出する。
なお、言語的単位としてnグラムを用いる点以外は、第1〜第3の実施形態と同様であるので、それらの実施形態と共通の部分については説明を省略する。
次に、本発明の第6の実施形態について説明する。
第1の実施形態では、キーフレーズ抽出装置10が有するクローズドキャプションデータ記憶部12とシーン分割装置20が有するクローズドキャプションデータ記憶部22とは、同じデータ(同じ放送回のデータ)を保持していた。それに対して本実施形態では、それらが保持しているデータが互いに異なる。言い換えれば、それらが保持しているデータの放送回が互いに異なる。例えば、あるレギュラー番組について、キーフレーズ抽出装置10側では1月から7月までの放送分のクローズドキャプションデータを用いてキーフレーズの抽出を行い、それで得られたキーフレーズのデータを元に、シーン分割装置20側では8月から9月分までの放送分のクローズドキャプションデータを検索して、その映像の分割時刻を求める。
番組フォーマットがほぼ一定の場合には、異なる放送回から抽出されたキーフレーズを用いた場合にも良い精度でシーンの分割ができるため、本実施形態の装置が有効である。
本実施形態では、一旦抽出したキーフレーズを流用することができる。つまり、放送回を重ねるごとに改めてキーフレーズ抽出の処理を行なう必要がなく、効率が良い。
次に、本発明の第7の実施形態について説明する。
第1〜第6の実施形態においてはセグメントアラインメント処理部132がセグメント系列を求める際に式(3)を用いていたのに対し、本実施形態では、下の式(8)を用いる。
なお、正規分布関数に限らず、セグメントアラインメント処理部がセグメント系列を求める際に、セグメント時刻が遠いものに対するペナルティとして作用するような関数f(x)を適宜選択して用いても良い。
なお、ペナルティ関数のピーク度合いが過度に急峻であると時間的にわずかに離れたセグメントが極端に選択されにくくなるという弊害も出るため、ペナルティ関数のピーク度合いが適度になだらかになるようなσを選択するようにする。
次に、本発明の第8の実施形態について説明する。
図11は、本実施形態による機能構成を示すブロック図である。図示するように、本実施形態では、キーフレーズ抽出装置の機能とシーン分割装置の機能とを一体化させ、シーン分割装置120として構成している。
番組映像記憶部111は、図1に示した番組映像記憶部11および図3に示した番組映像記憶部21と同様の機能を有する。クローズドキャプションデータ記憶部112は、図1に示したクローズドキャプションデータ記憶部12および図3に示したクローズドキャプションデータ記憶部22と同様の機能を有する。
キーフレーズ抽出装置110は、キーフレーズ抽出処理部113とキーフレーズ記憶部114からなる。キーフレーズ抽出処理部113およびキーフレーズ記憶部114は、それぞれ、図1に示したキーフレーズ抽出処理部13およびキーフレーズ記憶部14と同様の機能を有する。
検索処理部125、検索結果データ126、映像分割処理部127、分割済番組映像記憶部128は、それぞれ、図3に示した検索処理部25、検索結果データ26、映像分割処理部27、分割済番組映像記憶部28と同様の機能を有する。
このシーン分割装置120では、キーフレーズ抽出処理部113が抽出したキーフレーズがキーフレーズ記憶部114に書き込まれ、検索処理部125はそのキーフレーズ記憶部114からキーフレーズの情報を読み出して前述した検索処理を行ない、その検索結果データ126を用いて映像分割処理部127が番組映像の分割を行なう。
例えば、上記の各実施形態では、すべてのセグメント長を一定としたが、必ずしも厳密に一定のセグメント長でなくてもよい。
11,21 番組映像記憶部
12,22 クローズドキャプションデータ記憶部(番組テキスト記憶部)
13 キーフレーズ抽出処理部
14,24 キーフレーズ記憶部
20 シーン分割装置
25 検索処理部
26 検索結果データ(分割時刻情報)
27 映像分割処理部
28 分割済番組映像記憶部
131 セグメント特徴量生成部
132 セグメントアラインメント処理部
133 スコア算出部
Claims (5)
- 番組開始時からの相対時刻と、前記相対時刻に関連付けられたテキストとを記憶する番組テキスト記憶部と、
前記番組テキスト記憶部から読み出した前記相対時刻および前記テキストに基づき、番組を時間で区切ったセグメント毎に、言語的単位の出現頻度を表わすセグメント特徴量を算出するセグメント特徴量生成部と、
前記セグメント特徴量生成部によって算出された前記セグメント特徴量のセグメント間の類似度を算出することにより、複数の番組に属するセグメントから類似のセグメントを選択し、それら選択されたセグメントから成るセグメント系列を生成するセグメントアラインメント処理部と、
前記セグメントアラインメント処理部によって生成されたセグメント系列内における前記言語的単位の出現頻度に基づき言語的単位毎のスコアを算出し、算出されたスコアの良い言語的単位をキーフレーズとして抽出するスコア算出部と、
を具備し、
前記セグメントアラインメント処理部は、あるセグメントについてのセグメント系列を生成する際に、当該セグメントの基準となる相対時刻と当該セグメントが属する番組以外の他の番組に属する他のセグメントの基準となる相対時刻との差の絶対値が大きいほど当該他のセグメントが選ばれにくくなるように作用するペナルティ関数値を、算出された前記類似度に乗じることにより、前記他のセグメントを選択する、
ことを特徴とするキーフレーズ抽出装置。 - セグメント特徴量生成部は、前記言語的単位ごとの正確確率検定による有意確率に基づく値を要素とするベクトルとして前記セグメント特徴量を算出する、
ことを特徴とする請求項1に記載のキーフレーズ抽出装置。 - 前記スコア算出部は、言語的単位毎に、全番組数のうち前記セグメント系列内において当該言語的単位が出現する番組数の割合が高いほど良い値となり、且つ、正確確率検定による有意確率が低いほど良い値となる前記スコアを算出する、
ことを特徴とする請求項1又は2に記載のキーフレーズ抽出装置。 - 請求項1から3までのいずれか一項に記載のキーフレーズ抽出装置と、
前記番組テキスト記憶部に記憶されたテキストに対応する番組映像を記憶する番組映像記憶部と、
前記スコア算出部が抽出したキーフレーズを用いて前記番組テキスト記憶部を検索することにより番組のシーンを分割すべき分割時刻情報を得る検索処理部と、
前記検索処理部によって得られた前記分割時刻情報を用いて、前記番組テキスト記憶部に記憶されたテキストに対応する番組映像を前記番組映像記憶部から読み出してシーンに分割する処理を行なう映像分割処理部と、
を具備することを特徴とするシーン分割装置。 - 番組開始時からの相対時刻と、前記相対時刻に関連付けられたテキストとを記憶する番組テキスト記憶部を具備するコンピュータに、
前記番組テキスト記憶部から読み出した前記相対時刻および前記テキストに基づき、番組を時間で区切ったセグメント毎に、言語的単位の出現頻度を表わすセグメント特徴量を算出するセグメント特徴量生成過程と、
前記セグメント特徴量生成過程によって算出された前記セグメント特徴量のセグメント間の類似度を算出することにより、複数の番組に属するセグメントから類似のセグメントを選択し、それら選択されたセグメントから成るセグメント系列を生成するセグメントアラインメント処理過程と、
前記セグメントアラインメント処理過程によって生成されたセグメント系列内における前記言語的単位の出現頻度に基づき言語的単位毎のスコアを算出し、算出されたスコアの良い言語的単位をキーフレーズとして抽出するスコア算出過程と、
の処理を実行させるプログラムであって、
前記セグメントアラインメント処理過程では、あるセグメントについてのセグメント系列を生成する際に、当該セグメントの基準となる相対時刻と当該セグメントが属する番組以外の他の番組に属する他のセグメントの基準となる相対時刻との差の絶対値が大きいほど当該他のセグメントが選ばれにくくなるように作用するペナルティ関数値を、算出された前記類似度に乗じることにより、前記他のセグメントを選択する、
ことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008208602A JP5231130B2 (ja) | 2008-08-13 | 2008-08-13 | キーフレーズ抽出装置、シーン分割装置およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008208602A JP5231130B2 (ja) | 2008-08-13 | 2008-08-13 | キーフレーズ抽出装置、シーン分割装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010044614A JP2010044614A (ja) | 2010-02-25 |
JP5231130B2 true JP5231130B2 (ja) | 2013-07-10 |
Family
ID=42015942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008208602A Active JP5231130B2 (ja) | 2008-08-13 | 2008-08-13 | キーフレーズ抽出装置、シーン分割装置およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5231130B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5691289B2 (ja) | 2010-08-11 | 2015-04-01 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP2012038239A (ja) | 2010-08-11 | 2012-02-23 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP6222774B2 (ja) * | 2014-09-24 | 2017-11-01 | 克次郎 大岩 | 動画広告の視聴確認システム及び動画広告の視聴確認方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7461392B2 (en) * | 2002-07-01 | 2008-12-02 | Microsoft Corporation | System and method for identifying and segmenting repeating media objects embedded in a stream |
CN100426861C (zh) * | 2002-07-01 | 2008-10-15 | 微软公司 | 对嵌于媒介流中的重复对象提供用户控制的系统和方法 |
JP2004363749A (ja) * | 2003-06-03 | 2004-12-24 | Sony Corp | コンテンツ記録システムおよび方法、記録装置および方法、プログラム、並びに記録媒体 |
CN1977536A (zh) * | 2004-04-28 | 2007-06-06 | 松下电器产业株式会社 | 节目选择系统 |
JP2006106964A (ja) * | 2004-10-01 | 2006-04-20 | Nippon Telegr & Teleph Corp <Ntt> | 映像構造化情報作成方法及び装置及びプログラム |
JP4459179B2 (ja) * | 2005-03-30 | 2010-04-28 | 株式会社東芝 | 情報処理装置及びその方法 |
-
2008
- 2008-08-13 JP JP2008208602A patent/JP5231130B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010044614A (ja) | 2010-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Makhoul et al. | Speech and language technologies for audio indexing and retrieval | |
JP4705023B2 (ja) | 音声認識装置、音声認識方法、及びプログラム | |
US20120041947A1 (en) | Search apparatus, search method, and program | |
JP5296598B2 (ja) | 音声情報抽出装置 | |
JP6047364B2 (ja) | 音声認識装置、誤り修正モデル学習方法、及びプログラム | |
JP3799280B2 (ja) | 対話システムおよびその制御方法 | |
Furui | Recent progress in corpus-based spontaneous speech recognition | |
JP2008287210A (ja) | 音声チャットシステム、情報処理装置、音声認識方法およびプログラム | |
JP4192703B2 (ja) | コンテンツ処理装置、コンテンツ処理方法及びプログラム | |
US20240249718A1 (en) | Systems and methods for phonetic-based natural language understanding | |
JP4064902B2 (ja) | メタ情報生成方法、メタ情報生成装置、検索方法および検索装置 | |
JP2007102264A (ja) | 文字認識装置および文字認識方法 | |
Witbrock et al. | Speech recognition for a digital video library | |
JP5231130B2 (ja) | キーフレーズ抽出装置、シーン分割装置およびプログラム | |
KR20060100646A (ko) | 영상물의 특정 위치를 검색하는 방법 및 영상 검색 시스템 | |
JP2013050605A (ja) | 言語モデル切替装置およびそのプログラム | |
Bai et al. | Syllable-based Chinese text/spoken document retrieval using text/speech queries | |
JP2007226091A (ja) | 音声認識装置及び音声認識プログラム | |
JP2013186673A (ja) | 機械翻訳装置及び機械翻訳プログラム | |
JP4695582B2 (ja) | 映像抽出装置及び映像抽出プログラム | |
CN109255066A (zh) | 一种业务对象的标签标记方法、装置、服务器和存储介质 | |
Wang | Mandarin spoken document retrieval based on syllable lattice matching | |
Ando et al. | Simultaneous subtitling system for broadcast news programs with a speech recognizer | |
JP2011048405A (ja) | 音声認識装置及び音声認識プログラム | |
JP5152857B2 (ja) | 電子機器、表示制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130321 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5231130 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |