JP4580885B2 - シーン情報抽出方法、シーン抽出方法および抽出装置 - Google Patents

シーン情報抽出方法、シーン抽出方法および抽出装置 Download PDF

Info

Publication number
JP4580885B2
JP4580885B2 JP2006086035A JP2006086035A JP4580885B2 JP 4580885 B2 JP4580885 B2 JP 4580885B2 JP 2006086035 A JP2006086035 A JP 2006086035A JP 2006086035 A JP2006086035 A JP 2006086035A JP 4580885 B2 JP4580885 B2 JP 4580885B2
Authority
JP
Japan
Prior art keywords
word
evaluation value
comment
scene
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006086035A
Other languages
English (en)
Other versions
JP2007264789A (ja
Inventor
智弘 山崎
秀樹 筒井
創吾 坪井
千加夫 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006086035A priority Critical patent/JP4580885B2/ja
Priority to US11/723,227 priority patent/US8001562B2/en
Publication of JP2007264789A publication Critical patent/JP2007264789A/ja
Application granted granted Critical
Publication of JP4580885B2 publication Critical patent/JP4580885B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、時系列が定義されたコンテンツ、例えば、映像コンテンツの時系列に対して関連付けられたコメント情報のテキスト情報を利用して、映像コンテンツに含まれる意味的なひとまとまりとしての区間を抽出するシーン情報抽出方法、シーン抽出方法および抽出装置に関する。
ブロードバンドの普及などによって流通量が増大しつつあるデジタルコンテンツに対し、メタデータを付加してコンピュータで効率よく管理、処理しようということが考えられている。例えば映像コンテンツの場合、時系列に対して「誰が何をどうしているシーン」といったシーン情報のメタデータが付加されていればコンテンツの検索や要約が容易となる。
しかし、コンテンツ提供者がすべての適切なメタデータを付加するのではコンテンツ提供者の負担が大きくなってしまうため、コンテンツ自体の情報から自動的にメタデータとしてのシーン情報を抽出する方法として、以下のようなものが提案されている。
(1)映像の音声情報から、あるいは、映像の音声情報を認識して得られるテキスト情報と映像の台本に含まれるテキスト情報との対応付けによって、シーン情報を抽出する方法(例えば、特許文献1参照)。
(2)映像から抽出した字幕などのテキスト情報から、あるいは、映像から抽出した字幕などのテキスト情報と映像の台本に含まれるテキスト情報との対応付けによってシーン情報を抽出する方法(例えば、特許文献1参照)。
(3)映像から抽出したカット情報などの画像情報からシーン情報を抽出する方法。
特開2005−167452公報
しかしながら、上記従来技術は以下の問題がある。
・音声情報を利用する場合、歓声の大きさなどから「盛り上がったシーン」のような抽象的なシーン情報を、あるいは、特徴的なキーワードから大まかなシーン情報を抽出することはできるが、現状の音声認識の精度はあまり高くないため細かなシーン情報を抽出することができない。また、無音区間のシーン情報を抽出することができない。
・テキスト情報を利用する場合、出現する単語の推移によって話題の推移を推測することでシーン情報を抽出することはできるが、字幕や台本などのテキスト情報がないコンテンツに対して適用することができない。また、字幕を付加するためにコンテンツ提供者の負担が大きくなってしまうのであれば初めからシーン情報もメタデータとして付加すればよい。
・カット情報を利用する場合、カット情報自体は非常にプリミティブな区間を表しているので意味的なひとまとまりとしては細かすぎる。また、クイズ番組やニュース番組のようにカット情報の典型的なシーケンスが存在する場合はそれらのシーケンスをシーン情報として抽出することができるが、すべての番組に対して適用することができない。
また、上記(1)、(2)、(3)のどれもコンテンツの静的な情報を利用しているため、シーン情報の動的な変化(例えば「かっこいい」と思われていたシーンが「おもしろい」と思われるようになるなど)に対応することができない。
この発明は、上述した事情を考慮してなされたものであり、シーン情報、シーンを的確に抽出することができるシーン情報抽出方法、シーン抽出方法および抽出装置を提供することを目的とする。
上述の課題を解決するため、本発明のシーン情報抽出装置は、ンテンツの時系列に対して関連付けられた複数のコメント情報であって、各コメント情報はコメント、該コメントの開始時刻および終了時刻を含む複数のコメント情報を取得するコメント取得手段と、前記コメントごとに形態素解析して該コメントを複数の単語に分割する分割手段と、前記単語ごとに、コンテンツのある区間に対応するシーンを抽出する際の重要度を示す、該単語の評価値を計算する単語評価値計算手段と、分割された全ての単語に対して、各単語が含まれているコメントの開始時刻からコメントの終了時刻までに、該単語に対応する、単語の評価値を加算して、単語ごとに評価値分布を取得する手段と、前記評価値分布に基づいて評価値が高いほどコンテンツの抽出区間に含まれるようにコンテンツから抽出すべきシーンに対応する抽出区間の開始時刻および終了時刻を抽出する抽出手段と、を具備することを特徴とする。
本発明のシーン抽出装置は、上記のシーン情報抽出装置を使用して前記シーンを抽出する抽出手段を具備することを特徴とする。
本発明のシーン情報抽出方法、シーン抽出方法および抽出装置によれば、シーン情報、シーンを的確に抽出することができる。
以下、図面を参照しながら本発明の実施形態に係るシーン情報抽出方法、シーン抽出方法および抽出装置について詳細に説明する。
まず、本発明の概要を説明する。
掲示板やチャットなどの機能を通じて映像コンテンツの時系列に対してコメント情報を付加することで、ユーザ同士がコミュニケーションを図ることが行なわれている。本発明では、それらのコンテンツの時系列に対して関連付けられたコメントに含まれる単語から意味的なひとまとまりとしての区間を抽出することでコンテンツのシーン情報を推測し、メタデータの付加を実現する。
コメント情報はユーザがコンテンツ閲覧時にどのようなことを感じたかを反映した情報であるため、意味的なひとまとまりとしての区間を抽出することが可能となる。コメント情報はコンテンツ提供者がコンテンツ提供時には意図していなかった話題の盛り上がりにも対応しているため、コンテンツを通じたユーザ同士のコミュニケーションが促進される。また、コメント情報はユーザの意識を反映して時々刻々と変化しうるため、例えばある時期には「かっこいい」というラベル付けがなされていた区間に対し「おもしろい」というコメントが増加した場合、「おもしろい」というラベル付けに変化させることができる。このように、本発明はユーザの意識の変化に伴うシーン情報の動的な変化にも追従することが可能となる。
次に、本発明の実施形態に係るシーン情報抽出装置について図1を参照して説明する。
シーン情報抽出装置はコンテンツの時系列に対して関連付けられたコメントから意味的なひとまとまりとしての区間を抽出する装置である。関連付けられたコメントに含まれる単語からコンテンツのシーン情報を推測し、メタデータの付加を実現する。
シーン情報抽出装置は、コメント情報データベース(DB)101、コメント情報取得部102、形態素解析部103、形態素データベース104、計算部105、ユーザデータベース106、単語評価値割当部107、シーン情報抽出部108、シーン情報データベース109を備えている。計算部105は、コメント文字列長計算部110、コメント単語数計算部111、返信判定部112、返信個数計算部113、単語評価値計算部114、ユーザ検索部115を含んでいる。また、シーン情報抽出部108は、評価値分布正規化部116、評価値分布変化率計算部117を含んでいる。
コメント情報データベース101は、コメント情報を格納している。コメント情報は、例えば、メタ情報とコメント本文とからなる。メタ情報は、例えば、コメント識別子、親コメント識別子、ユーザ識別子、コメント投稿時刻、コンテンツ識別子、開始時刻、終了時刻からなる。コメント情報については後に図4を参照して説明する。
コメント情報取得部102は、コメント情報データベース101からコメント情報を1つずつ取得する。コメント情報取得部102は、例えば、コメント識別子ごとにコメント情報を取得して、形態素解析部103に例えば、コメント識別子ごとにコメント情報を渡す。
形態素解析部103は、受け取ったコメントを形態素解析し、例えば、コメント識別子ごとにコメントから単語と、この単語の品詞とを得る。そして、形態素解析部103は、単語と、品詞と、この単語が出現するコメント本文のコメント識別子との対応表を出力する。形態素解析部103の出力例は図3である。また、形態素解析部103の動作については後に図4、図5を参照して説明する。
形態素データベース104は、単語自体の評価値を計算するためのものである。単語の評価値は、シーン情報を抽出する際に重要な単語を抽出するためのものであり、重要な単語ほど大きな評価値が付与されるべきものである。形態素データベース104は、例えば、単語ごとに、この単語の品詞、この単語が出現した累積出現頻度、単語で決まる評価値を格納している。形態素データベース104の具体例は後に図7を参照して説明する。
計算部105は、形態素解析部103が出力した上記の対応表を利用して単語の評価値を計算する。計算部105の具体的な計算方法については後に図6を参照して説明する。
ユーザデータベース106は、コメントを付けたユーザごとに、そのコメントがシーン情報抽出にとって重要であるかを評価する、ユーザの評価値を格納している。ユーザデータベース106は、例えば、ユーザ識別子、ユーザ名、発言数、ユーザの評価値を含んでいる。ユーザデータベース106の詳細については後に図8を参照して説明する。
単語評価値割当部107は、コメントからこのコメントが関連付けられているコンテンツならびにコンテンツの区間が取得されるたびに、計算部105で計算された単語の評価値をそれぞれのコンテンツの区間に割り当て、各単語の評価値分布であるヒストグラムを求める。さらに、単語評価値割当部107は、単語ごとに、この単語と、この単語が含まれるコメント識別子と、この単語のヒストグラムと、を対応付ける。この対応付けられた例は後に図10を参照して説明する。単語評価値割当部107の詳細な動作については後に図9、図11(a)、(b)、(c)を参照して説明する。
シーン情報抽出部108は、単語評価値割当部107によって単語ごとに作成された評価値分布をもとに、コンテンツの区間の抽出を行う。シーン情報抽出部108の詳細は後に図12、図13、図14を参照して説明する。
シーン情報データベース109は、シーン情報抽出部108で抽出されたコンテンツのある区間に対応するシーンに関する情報を格納している。シーン情報データベース109は、例えば、このシーンを象徴する単語であるシーンラベル、コンテンツ識別子、このシーンの開始時刻と終了時刻を格納している。シーン情報データベース109の具体例については後に図12を参照して説明する。
次に、図1のシーン情報抽出装置の動作について図2を参照して説明する。
まず、コメント情報取得部102が、1行が(単語、品詞、コメント識別子)からなる表を初期化する(ステップS201)。すなわち、例えば、図3がこの表であり、初期化とはこの表の項目を空にすることである。この表は後で単語の評価値を計算するための入力として用いられる。
次に、コメント情報取得部102がコメント情報データベース101からコメント情報を1つずつ取得する。形態素解析部103は、コメント情報取得部102から取得したコメント情報に形態素解析行われていないコメントがない場合はステップS205に進み、形態素解析が行われていないコメントがある場合にはステップS203に進む(ステップS202)。形態素解析部103がコメント情報をコメント情報取得部102から取得し、取得するたびにコメント本文の形態素解析を行い、未解析のコメントに形態素がない場合にはステップS202に戻り、ある場合にはステップS204に進む(ステップS203)。形態素解析部103は、新たに解析された形態素についての解析結果を上記表に付加して、表を更新する(ステップS204)。この表は、図示していないメモリ等に格納される。
すべてのコメント情報に対して本文の形態素解析が完了した後、計算部105は、形態素解析部103が算出した表を利用して単語の評価値を計算する。まず、例えば、単語評価値割当部107が、1行が(単語、コンテンツ識別子、評価値分布)からなる表を初期化する(ステップS205)。すなわち、例えば、図10がこの表であり、初期化とはこの表のすべての項目を空にすることである。
計算部105が(単語、品詞、コメント識別子)の表から1行ずつ単語を取得する。この取得した単語がまだ評価されていない単語である場合にはステップS207に進み、(単語、品詞、コメント識別子)の表に含まれている全ての単語が評価済である場合にはステップS211に進む(ステップS206)。
計算部105に含まれる単語評価値計算部114は、単語自体の評価値を計算するために形態素データベース104を検索する。その後、計算部105は、単語が含まれるコメントごとに、その単語の評価値の補正度合いを、コメントの本文の長さ、コメントの属性、コメントを投稿したユーザの評価値によって計算する(ステップS207)。ユーザの評価値はユーザデータベース106を参照する。
計算部105は、コメント情報データベース101を参照して、(単語、品詞、コメント識別子)の表にあるコメントに関連付けられているコンテンツ、ならびにコンテンツの区間(すなわち、このコメントが付与されているコンテンツの開始時刻と終了時刻)を取得する(ステップS208)。
単語評価値割当部107は、コメントからコメントの関連付けられているコンテンツ、ならびにコンテンツの区間が取得されるたびに、計算部105で計算された単語の評価値をそれぞれのコンテンツの区間に割り当てる(ステップS209)。すなわち、単語評価値割当部107は、開始時刻と終了時刻とで決定される評価値分布に、ステップS207で決定される評価値を加算する。単語評価値割当部107は、(単語、コンテンツ識別子、評価値分布)からなる表を更新して、次の単語を取得するためにステップS206に戻る(ステップS210)。
ステップS206で未評価単語がない場合には、シーン情報抽出部108が、単語評価値割当部107によって単語ごとに作成された評価値分布をもとに、その単語をラベル付けすべきコンテンツの区間(シーン情報)の抽出を行なう(ステップS211)。
次に、コメント情報データベース101の内容例について図4を参照して説明する。図4はコメント情報データベースの構造の一例、ならびにコメント情報データベースに格納されているコメント情報の例である。
例えばコメント識別子1を有するコメント(以下、「コメント識別子?を有するコメント」を「コメント?」と省略する。?は任意の自然数を示す)は、ユーザAが「この山はあの映画にも。」というコメント本文を、コンテンツ識別子Xを有するコンテンツ(以下、「コンテンツ識別子*を有するコンテンツ」を「コンテンツ*」と省略する。*は任意のアルファベットを示す)の00:01:30から00:05:00の区間に対して関連付けたことを表している。コメントを関連付ける区間は、10秒ごとや1分ごとのようなシステムの側で予め設定された間隔でコンテンツとは無関係に分割された区間、あるいは、カット情報のようにコンテンツの画像情報などを利用して分割された区間から、ユーザがコメントを投稿するときに任意に選択してもよいし、開始時刻と終了時刻をユーザがコメントを投稿するときに任意に指定してもよい。また、ユーザがコメントを投稿するときには開始時刻のみを指定するようにして、10秒や1分のようなシステムの側で予め設定された区間の幅を持つようにシステムの側で終了時刻を設定してもよい。
また、図4に示されるコメント情報において親コメント識別子が「−」である場合は、親コメントを持たない、すなわち返信ではないことを表しており、親コメント識別子が「−」でない場合は、その識別子に対応するコメントへの返信であることを表している。例えば、コメント1は返信を持たないコメントであり、コメント3はコメント4という返信を持つコメントである。
次に、形態素解析部103について図4を参照して説明する。
形態素解析部103が、例えば図4のコメント1を受け取った場合、コメント本文は「この山はあの映画にも。」であるため、「この、連体詞」、「山、名詞」、「あの、連体詞」、「映画、名詞」、「に、助詞」、「も、助詞」のように分割する。形態素解析部103によって分割されたこれらの(単語、品詞)の組は、投入されたコメントの識別子とともに図3の表に追加されていく。図5は図4に示されるコメント情報を形態素解析部103によって形態素解析した結果の例である。本実施形態では形態素解析の結果得られた単語をそのまま図3の表に追加しているが、「山」と「阿蘇山」のように意味的に似ている、あるいは関連がある単語同士は、オントロジーのような単語間の類似度を計算する手段を用いて一つにまとめてしまってもよい。
次に、計算部105の動作について図6を参照して説明する。図6は本実施形態における計算部105の処理のフローを示す図である。
計算部105は、すべてのコメント情報に対して本文の形態素解析が完了した後、形態素解析部103によって計算された表を利用して単語の評価値を計算する。単語の評価値を計算する方法はいくつも考えることができるが、本実施例では単語自身の評価値をその単語が含まれるコメントの情報によって補正する計算方法について説明する。
まず、計算部105は、形態素解析部103によって計算された表から(単語、品詞、コメント識別子)の組を1つずつ取得する(ステップS601)。次に、単語評価値計算部114が、単語自体の評価値を計算するために形態素データベース104を検索して、単語自体の評価値を計算する(ステップS602)。図7は形態素データベース104の構造の一例、ならびに形態素データベース104に格納されている形態素情報の例である。図7の例では、「山」という単語は名詞で、累計出現頻度は10、評価値は5であることを示している。
助詞や助動詞のように出現頻度が高く情報量が少ない単語よりも名詞や動詞のように出現頻度が低く情報量が多い単語のほうが評価値は高いと考えられるので、評価値は予め単語の品詞ごとに設定しておく。また、単語の意味や文字列長などに基づいて予め単語ごとに設定しておいてもよい。また、単語に設定された評価値をそのまま単語自体の評価値の計算結果とするのではなく、コメントにおける単語の出現頻度で割る(あるコメントに2回同じ単語が含まれていたら評価値を1/2にするなど)、累計出現頻度に基づいて単語の評価値を更新する(あまり使われない単語が埋もれないようによく使われる単語の評価値は下げるなど)のように、単語の出現頻度をもとに単語自体の評価値を計算してもよい。
次に、計算部105は、単語が含まれるコメントごとに、その単語の評価値の補正度合いを、コメントの本文の長さ、コメントの属性、コメントを投稿したユーザの評価値のいずれかによって計算する(ステップS603、S604、S605)。
コメントの本文の長さによる補正を行なうのは、「山だ!」のような短い感嘆コメントにおける「山」の評価値と、「この山は○○年に噴火し、××年に・・・」のような長い薀蓄コメントにおける「山」の評価値とを区別するためのものである。コメントの本文の長さの評価尺度としては本文の文字列長や本文に含まれる単語数などが考えられる。コメント文字列長計算部110はコメントの文字列長を測定し取得し、コメント単語数計算部111はコメントに含まれる単語数を測定し取得する(ステップS603)。文字列長をL、単語数をN1とするとコメントの本文の長さによる補正は適当な係数を用いてαL+βN1のように表すことができる。計算部105がこの式に基づいて補正を行う。
コメントの属性による補正を行なうのは、返信では親コメントの内容を受けた内容が投稿されるため、および返信が多く付加されているコメントほど他のコメントに多くの影響を与えていると考えられるためである。コメントの属性の評価尺度としてはコメントが返信であるかどうか、返信の個数などが考えられる。返信判定部112はコメントが返信であるかどうかを判定し、返信個数計算部113は、返信の個数を計算する(ステップS604)。返信であるかどうかをR(返信であるとき1、返信でないとき0)、返信の個数をN2とするとコメントの属性による補正度合いは適当な係数を用いてγR+δN2のように表すことができる。計算部105がこの式に基づいて補正を行う。ユーザがコメントを投稿するときに、コメントに対して本文の内容が「質問」「回答」「感嘆」「薀蓄」「ネタばれ」などのどういった種類のものであるかの情報を付加し、これらの種類に基づいてコメント属性による補正を行なってもよい。
ユーザの評価値による補正を行なうのは、新参で発言数も少ないユーザによるコメントにおける単語の評価値と古参で発言数も多いユーザによるコメントにおける単語の評価値を区別するためのものである。ユーザ検索部115は、ユーザ評価値による補正度合いを計算するためにユーザ情報データベースを検索する(ステップS605)。計算部105は、例えば、新参で発言数も少ないユーザのコメントでの単語の評価値を下げ、古参で発言数も多いユーザのコメントでの単語の評価値を上げる補正を行う。
そして、計算部105が、上記のいずれかの補正を単語に行い、補正された単語の評価値を計算する。
次に、上記のステップS605で参照されるユーザデータベース106について図8を参照して説明する。図8はユーザ情報データベースの構造の一例、ならびにユーザ情報データベースに格納されているユーザ情報の例である。
ユーザデータベース106は、ユーザの評価値を予めユーザの属するグループごとに設定しておいてもよいし、ユーザの発言頻度によって更新してもよい。また、ユーザデータベース106は、発言を読んだ別ユーザからの投票(同意・非同意、役に立った、役に立たないなど)によって更新してもよい。図8の例では、ユーザAはグループGに属し、発言数は13、評価値は5であることを表している。
次に、本実施形態における単語評価値割当部107の処理について図9を参照して説明する。
まず、単語評価値割当部107は、図10に示す(単語、コンテンツ識別子、評価値分布)からなる表を初期化する。初期化とはこの表のすべての項目を空にすることである。この表は後で単語区間を抽出するための入力として用いられる。次に、単語評価値割当部107は、(単語、品詞、コメント識別子)からなる表から(単語、品詞、コメント識別子)の組を1つずつ取得する。その後、取得した組に含まれる単語に対応するコメント(コメント識別子で一意に決定される)を取得する(ステップS901)。評価値分布を対応させていない単語がある場合にはステップS902に進み、全ての各単語に対して対応する評価値分布が決まっている場合には単語評価値割当部107は処理を終了する。
ステップS901で取得したコメントから、コメントの関連付けられているコンテンツ、ならびにコンテンツの区間を取得する(ステップS902)。例えば、図5の場合、「山」という単語に対応するコメントはコメント1、コメント2、コメント3なので、図4を参照して、それぞれコンテンツXの00:01:30から00:05:00までの区間、コンテンツXの00:03:00から00:04:30までの区間、コンテンツXの00:02:00から00:04:00までの区間となる。同様に「雄大だ」という単語に対応するコメントはコメント2、コメント4なので、それぞれコンテンツXの00:03:00から00:04:30までの区間、コンテンツXの00:02:00から00:04:00までの区間となる。
単語評価値割当部107は、コメントからコメントの関連付けられているコンテンツ、ならびにコンテンツの区間が取得されるたびに、計算部105で計算された単語の評価値をそれぞれのコンテンツの区間に割り当て、(単語、コンテンツ識別子、評価値分布)からなる表を更新する(ステップS903)。説明を簡単にするために、すべての単語の評価値がすべてのコメントに対して等しく1であったとすると、図11(a)、(b)、(c)に示すように、「山」という単語のコンテンツXに対する評価値分布は、00:01:30から00:02:00まで1、00:02:00から00:03:30まで2、00:03:30から00:04:00まで3、00:04:00から00:04:30まで2、00:04:30から00:05:00まで1と作成され、「雄大だ」という単語のコンテンツXに対する評価値分布は00:02:00から00:03:30まで1、00:03:30から00:04:00まで2、00:04:00から00:04:30まで1と作成される。
次に、シーン情報抽出部108について図12、図13、および、図14を参照して説明する。
シーン情報抽出部108は、前記単語評価値割当部107によって単語ごとに作成された評価値分布をもとに、その単語をラベル付けすべきコンテンツの区間の抽出を行なう。すなわち、シーン情報抽出部108は、例えば、図12に示す(コンテンツ識別子、開始時刻、終了時刻、シーンラベル)からなる表を作成する。したがって、図12に示す表はシーン情報データベース109に格納される。シーン情報データベース109には、抽出されたシーン情報が格納されていることになる。
単語区間抽出の方法としては、予め設定された閾値を超える区間を抽出する方法(図13)、評価値分布の変化率に注目して区間を抽出する方法(図14)などが考えられる。以下ではこれらの方法を用いた単語区間抽出手段の例を説明する。
まず、予め設定された閾値を超える区間を抽出する単語区間抽出処理のフローチャートを図13に示す。シーン情報抽出部108は、評価値分布を正規化した(ステップS1301)後で予め設定された閾値を超える区間を抽出すればよい(ステップS1302)。
次に、評価値分布の変化率に注目して区間を抽出する単語区間抽出処理のフローチャートを図14に示す。シーン情報抽出部108は、評価値分布を正規化した(ステップS1301)後で評価値分布の二次導関数を計算する(ステップS1401)。その後、計算された二次導関数の値が負である、すなわち評価値分布が上に凸である区間を抽出すればよい(ステップS1402)。また、再生機等が、シーン情報データベース109を参照して、このシーン情報に対応するシーンをコンテンツから抽出する。シーン情報に対応するコンテンツ区間に対応するシーンを再生機が抽出することによって、再生機はこのシーンを再生することができる。
以上に示した実施形態によれば、意味的なひとまとまりとしての区間を抽出することでコンテンツのシーン情報を推測し、メタデータの付加を実現することができる。また、意味的なひとまとまりとしての区間を抽出することが可能となる。さらに、ユーザの意識の変化に伴うシーン情報の動的な変化にも追従することが可能となる。したがって、本実施形態によれば、シーン情報、シーンを的確に抽出することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の実施形態に係るシーン情報抽出装置のブロック図。 図1のシーン情報抽出装置の動作を示すフローチャート。 (単語、品詞、コメント識別子)からなる表の一例を示す図。 コメント情報データベースの内容の一例を示す図。 図1の形態素解析部が出力する表の一例を示す図。 図1の計算部の処理を示すフローチャート。 図1の形態素データベースの内容の一例を示す図。 図1のユーザデータベース106の内容の一例を示す図。 図1の単語評価値割当部の処理を示すフローチャート。 (単語、コンテンツ識別子、評価値分布)からなる表の一例を示す図。 (a)、(b)、(c)は、コンテンツXに対する評価値分布の例を示す図。 図1のシーン情報データベースに格納される内容の一例を示す図。 図1のシーン情報抽出部、評価値分布正規化部が行う処理を示すフローチャート。 図1のシーン情報抽出部、評価値分布正規化部、評価値分布変化率計算部が行う処理を示すフローチャート。
符号の説明
101…コメント情報データベース、102…コメント情報取得部、103…形態素解析部、104…形態素データベース、105…計算部、106…ユーザデータベース、107…単語評価値割当部、108…シーン情報抽出部、109…シーン情報データベース、110…コメント文字列長計算部、111…コメント単語数計算部、112…返信判定部、113…返信個数計算部、114…単語評価値計算部、115…ユーザ検索部、116…評価値分布正規化部、117…評価値分布変化率計算部。

Claims (10)

  1. ンテンツの時系列に対して関連付けられた複数のコメント情報であって、各コメント情報はコメント、該コメントの開始時刻および終了時刻を含む複数のコメント情報を取得するコメント取得手段と、
    前記コメントごとに形態素解析して該コメントを複数の単語に分割する分割手段と、
    前記単語ごとに、コンテンツのある区間に対応するシーンを抽出する際の重要度を示す、該単語の評価値を計算する単語評価値計算手段と、
    分割された全ての単語に対して、各単語が含まれているコメントの開始時刻からコメントの終了時刻までに、該単語に対応する、単語の評価値を加算して、単語ごとに評価値分布を取得する手段と、
    前記評価値分布に基づいて評価値が高いほどコンテンツの抽出区間に含まれるようにコンテンツから抽出すべきシーンに対応する抽出区間の開始時刻および終了時刻を抽出する抽出手段と、を具備することを特徴とするシーン情報抽出装置。
  2. 前記単語評価値計算手段は、前記単語の評価値を、単語の品詞、単語の出現頻度に基づいて計算することを特徴とする請求項1に記載のシーン情報抽出装置。
  3. 前記単語評価値計算手段は、前記単語の評価値を、前記単語が含まれるコメントの文字列長が長いほど、および、コメントに含まれる単語数が多いほど該評価値が高くなるように計算することを特徴とする請求項1に記載のシーン情報抽出装置。
  4. 前記単語評価値計算手段は、前記単語の評価値を、該単語が出現したコメントが返信であるほど、および、該コメントの保持する返信の個数が多いほど該評価値が高くなるように計算することを特徴とする請求項1に記載のシーン情報抽出装置。
  5. コメントを付けたユーザごとに、そのコメントがシーン情報抽出にとって重要であるかを示すユーザの評価値を格納している格納手段と、
    単語が出現したコメントを投稿したユーザの評価値を前記格納手段から検索する検索手段と、をさらに具備し、
    前記単語評価値計算手段は、前記単語の評価値を、前記ユーザの評価値に基づいて該ユーザの評価値が高いほど該単語の評価値が高くなるように計算することを特徴とする請求項1に記載のシーン情報抽出装置。
  6. 前記抽出手段は、前記評価値分布から、予め設定された閾値を越える評価値分布の区間の開始時刻および終了時刻を抽出することを特徴とする請求項1から請求項5のいずれか1項に記載のシーン情報抽出装置。
  7. 前記抽出手段は、前記評価値分布から、評価値分布が上に凸である区間の開始時刻および終了時刻を抽出することを特徴とする請求項1から請求項5のいずれか1項に記載のシーン情報抽出装置。
  8. 請求項1に記載のシーン情報抽出装置を使用して前記シーンを抽出する抽出手段を具備することを特徴とするシーン抽出装置。
  9. コメント取得手段が、コンテンツの時系列に対して関連付けられた複数のコメント情報であって、各コメント情報はコメント、該コメントの開始時刻および終了時刻を含む複数のコメント情報を取得し、
    分割手段が、前記コメントごとに形態素解析して該コメントを複数の単語に分割し、
    単語評価値計算手段が、前記単語ごとに、コンテンツのある区間に対応するシーンを抽出する際の重要度を示す、該単語の評価値を計算し、
    取得手段が、分割された全ての単語に対して、各単語が含まれているコメントの開始時刻からコメントの終了時刻までに、該単語に対応する、単語の評価値を加算して、単語ごとに評価値分布を取得し、
    抽出手段が、前記評価値分布に基づいて評価値が高いほどコンテンツの抽出区間に含まれるようにコンテンツから抽出すべきシーンに対応する抽出区間の開始時刻および終了時刻を抽出することを特徴とするシーン情報抽出方法。
  10. 請求項9に記載のシーン情報抽出方法を使用して前記シーンを抽出することを特徴とするシーン抽出方法。
JP2006086035A 2006-03-27 2006-03-27 シーン情報抽出方法、シーン抽出方法および抽出装置 Active JP4580885B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006086035A JP4580885B2 (ja) 2006-03-27 2006-03-27 シーン情報抽出方法、シーン抽出方法および抽出装置
US11/723,227 US8001562B2 (en) 2006-03-27 2007-03-19 Scene information extraction method, and scene extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006086035A JP4580885B2 (ja) 2006-03-27 2006-03-27 シーン情報抽出方法、シーン抽出方法および抽出装置

Publications (2)

Publication Number Publication Date
JP2007264789A JP2007264789A (ja) 2007-10-11
JP4580885B2 true JP4580885B2 (ja) 2010-11-17

Family

ID=38576538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006086035A Active JP4580885B2 (ja) 2006-03-27 2006-03-27 シーン情報抽出方法、シーン抽出方法および抽出装置

Country Status (2)

Country Link
US (1) US8001562B2 (ja)
JP (1) JP4580885B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4482829B2 (ja) * 2006-11-08 2010-06-16 ソニー株式会社 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
JP2009163643A (ja) * 2008-01-09 2009-07-23 Sony Corp 映像検索装置、編集装置、映像検索方法およびプログラム
JP5179969B2 (ja) * 2008-01-11 2013-04-10 株式会社ニコンシステム コンテンツ評価装置
JP4737213B2 (ja) * 2008-03-18 2011-07-27 日本電気株式会社 情報処理装置
JP5086189B2 (ja) * 2008-06-20 2012-11-28 ヤフー株式会社 動画コンテンツのダイジェスト映像を生成するサーバ、方法及びプログラム
JP5488475B2 (ja) * 2008-12-15 2014-05-14 日本電気株式会社 トピック遷移解析システム、トピック遷移解析方法およびプログラム
US8266652B2 (en) * 2009-10-15 2012-09-11 At&T Intellectual Property I, L.P. Apparatus and method for transmitting media content
JP5341847B2 (ja) * 2010-09-13 2013-11-13 日本電信電話株式会社 検索クエリ推薦方法、検索クエリ推薦装置、検索クエリ推薦プログラム
JP5244877B2 (ja) * 2010-09-15 2013-07-24 株式会社東芝 コンテンツ処理装置
US20120078595A1 (en) * 2010-09-24 2012-03-29 Nokia Corporation Method and apparatus for ontology matching
JP5400819B2 (ja) * 2011-02-17 2014-01-29 日本電信電話株式会社 シーン重要点抽出装置、シーン重要点抽出方法及びシーン重要点抽出プログラム
JP5225418B2 (ja) * 2011-03-25 2013-07-03 株式会社東芝 情報処理装置及び方法
US8600215B2 (en) 2011-04-20 2013-12-03 Funai Electric Co., Ltd. Electronic device, playback device and server device
US20140129221A1 (en) * 2012-03-23 2014-05-08 Dwango Co., Ltd. Sound recognition device, non-transitory computer readable storage medium stored threreof sound recognition program, and sound recognition method
JP5867230B2 (ja) * 2012-03-28 2016-02-24 富士通株式会社 情報提供方法、情報提供プログラム、および情報提供装置
JP2015195418A (ja) * 2012-08-14 2015-11-05 三菱電機株式会社 記録再生装置、記録再生方法、記録装置及び再生装置
US9471334B2 (en) * 2013-03-08 2016-10-18 Intel Corporation Content presentation with enhanced closed caption and/or skip back
US10750245B1 (en) * 2014-11-25 2020-08-18 Clarifai, Inc. User interface for labeling, browsing, and searching semantic labels within video
US10528623B2 (en) * 2017-06-09 2020-01-07 Fuji Xerox Co., Ltd. Systems and methods for content curation in video based communications
CN107146622B (zh) * 2017-06-16 2021-02-19 合肥美的智能科技有限公司 冰箱、语音交互系统、方法、计算机设备、可读存储介质
JP7297260B2 (ja) * 2020-03-02 2023-06-26 日本電信電話株式会社 文選択装置、文選択方法及びプログラム
CN111597458B (zh) * 2020-04-15 2023-11-17 北京百度网讯科技有限公司 场景元素的抽取方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030327A (ja) * 2002-06-26 2004-01-29 Sony Corp コンテンツ関連情報提供装置及びコンテンツ関連情報提供方法、電子掲示板システム、並びにコンピュータ・プログラム
JP2006018336A (ja) * 2004-06-30 2006-01-19 Toshiba Corp メタデータ生成装置および方法、メタデータ生成プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209942B1 (en) * 1998-12-28 2007-04-24 Kabushiki Kaisha Toshiba Information providing method and apparatus, and information reception apparatus
US6580437B1 (en) * 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
US7284032B2 (en) * 2001-12-19 2007-10-16 Thomson Licensing Method and system for sharing information with users in a network
JP2004173102A (ja) 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> 映像コンテンツ視聴方法及びシステム及び映像視聴端末装置及び映像配信装置及び映像コンテンツ視聴プログラム及び映像コンテンツ視聴プログラムを格納した記憶媒体
JP4025185B2 (ja) 2002-12-10 2007-12-19 株式会社東芝 メディアデータ視聴装置及びメタデータ共有システム
JP4109185B2 (ja) 2003-12-01 2008-07-02 日本電信電話株式会社 映像シーン区間情報抽出方法,映像シーン区間情報抽出装置,映像シーン区間情報抽出プログラムおよびそのプログラムを記録した記録媒体
US20100287473A1 (en) * 2006-01-17 2010-11-11 Arthur Recesso Video analysis tool systems and methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030327A (ja) * 2002-06-26 2004-01-29 Sony Corp コンテンツ関連情報提供装置及びコンテンツ関連情報提供方法、電子掲示板システム、並びにコンピュータ・プログラム
JP2006018336A (ja) * 2004-06-30 2006-01-19 Toshiba Corp メタデータ生成装置および方法、メタデータ生成プログラム

Also Published As

Publication number Publication date
US8001562B2 (en) 2011-08-16
US20070239447A1 (en) 2007-10-11
JP2007264789A (ja) 2007-10-11

Similar Documents

Publication Publication Date Title
JP4580885B2 (ja) シーン情報抽出方法、シーン抽出方法および抽出装置
JP6675463B2 (ja) 自然言語の双方向確率的な書換えおよび選択
CN106534548B (zh) 语音纠错方法和装置
CN106570180B (zh) 基于人工智能的语音搜索方法及装置
US20180307667A1 (en) Travel guide generating method and system
CN110874531A (zh) 一种话题分析方法、装置和存储介质
US20160210279A1 (en) Methods and systems for analyzing communication situation based on emotion information
CN107239547B (zh) 用于语音点歌的语音纠错方法、终端及存储介质
US20160267086A1 (en) Presenting content items based on received facet value scores
US20140325335A1 (en) System for generating meaningful topic labels and improving automatic topic segmentation
JP6857983B2 (ja) メタデータ生成システム
CN107967250B (zh) 一种信息处理方法及装置
CN108304377B (zh) 一种长尾词的提取方法及相关装置
CN110753269B (zh) 视频摘要生成方法、智能终端及存储介质
CN112541095B (zh) 视频标题生成方法、装置、电子设备及存储介质
CN110019948B (zh) 用于输出信息的方法和装置
US20090044105A1 (en) Information selecting system, method and program
CN109190116B (zh) 语义解析方法、系统、电子设备及存储介质
CN108345679B (zh) 一种音视频检索方法、装置、设备及可读存储介质
JP6406988B2 (ja) 音声認識誤り修正装置
CN117336572A (zh) 视频摘要生成方法、装置、计算机设备以及存储介质
JP6358744B2 (ja) 音声認識誤り修正装置
CN112905835B (zh) 一种多模态乐曲标题生成方法、装置及存储介质
JP2015215681A (ja) キーワード抽出装置およびプログラム
Timoney et al. Nostalgic sentiment analysis of youtube comments for chart hits of the 20th century

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4580885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250