JP4215681B2 - 動画像処理装置及びその方法 - Google Patents

動画像処理装置及びその方法 Download PDF

Info

Publication number
JP4215681B2
JP4215681B2 JP2004156809A JP2004156809A JP4215681B2 JP 4215681 B2 JP4215681 B2 JP 4215681B2 JP 2004156809 A JP2004156809 A JP 2004156809A JP 2004156809 A JP2004156809 A JP 2004156809A JP 4215681 B2 JP4215681 B2 JP 4215681B2
Authority
JP
Japan
Prior art keywords
metashot
moving image
temporary
shot
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004156809A
Other languages
English (en)
Other versions
JP2005341180A (ja
Inventor
恒 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004156809A priority Critical patent/JP4215681B2/ja
Priority to US11/137,532 priority patent/US20050264703A1/en
Priority to CNA2005100742055A priority patent/CN1703083A/zh
Priority to EP20050253253 priority patent/EP1600973A1/en
Publication of JP2005341180A publication Critical patent/JP2005341180A/ja
Application granted granted Critical
Publication of JP4215681B2 publication Critical patent/JP4215681B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画像の内容が切り替わる画像変化点で分割された動画像である部分動画像を複数含むメタショットを生成する動画像処理装置、動画像処理方法及び動画像処理プログラムに関するものである。
高性能なパーソナルコンピュータ(PC)やハードディスクレコーダーの普及により、映像・動画像をデジタル化して保存する技術が発達してきている。この技術は、ハードウェア、ソフトウェアの形態で実現されており、また、業務用に限らず家庭用のハードウェアにおいても実現されている。
具体的には、例えばPC内、またはレコーダー内のハードディスク(HDD)に電磁的に映像を記録する。したがって、目的の番組を少ない待ち時間で再生開始できる、不要番組の限定的削除が容易であるなど、従来のビデオテープにはなかったメリットがある。このような利便性の向上により、録画などの操作をもより簡単に行うことができるようになってきている。
その一方で、大量の映像などが記録されると、所望の場面の検索が困難になるという問題が生じる。早送り機能などを用いて番組を、いわゆる「飛ばし見」することにより検索時間を短縮することでこのような問題に対処可能である。
しかし、このような「飛ばし見」は、例えば数秒に1フレームといったように番組内容の構造と無関係な物理的な単位で表示フレームを間引きするため、興味ある場面を行き過ぎてしまうという新たな問題が生じる。
このような問題を解決するために、画像処理技術を用い、動画像中の画像が切り替わる画像変化点(以下、「カット点」と称す)によって動画像を部分動画像に分割し、部分動画像(以下、「ショット」と称す)毎に飛ばし見を可能とする技術研究や製品開発がなされてきている。
上記のように生成されたショットには、再生される時間長が数秒程度と短いものが多い。このように1つのショットの時間長が極端に短い場合には、検索時間を短縮できるという効果も期待できない。
この問題を解決するために、番組中のコマーシャルとコマーシャル以外(以下、「番組本編」と称す)を自動的に区別して属性を付与したり、あるいは利用者が区別しやすいように境界を自動的に定義する手法の提案や製品開発がすでになされている(例えば、特許文献1、2、3参照)。
これらは、放送番組を録画する際にステレオ放送・音声多重放送・モノラル放送などの音声モード切り替わりを利用し、ステレオ部分をコマーシャルと自動判別するもの、あるいはコマーシャルはその始端、終端に一定時間長の無音部分があることを利用して、無音部分をコマーシャル同士またはコマーシャルと番組本編の境界として利用、提示するもの、あるいはコマーシャルは15秒の倍数などの長さを持つことを利用し、N秒の倍数となるカット点の組み合わせをコマーシャル同士またはコマーシャルと番組本編の境界として利用、提示するものである。これにより利用者は番組本編あるいはコマーシャルを選択的に視聴することが容易になる。
特開平3−177175号公報 特開平3−184483号公報 特開平8−317342号公報
上記文献の方法によれば、番組本編とコマーシャルが同一の音声モード(例えばステレオ)で放送されている場合には境界が発見できなかったり、番組本編中に無音部分が存在する場合に不要な境界を定義してしまったり、番組本編中に15秒の倍数となる間隔でカットが存在した場合に、誤ってその区間をコマーシャルと判定してしまったりするという問題点がある。
本発明は、上記問題点に鑑みてなされたものであって、より高い精度で番組本編とコマーシャルを判別できる動画像処理装置及びその方法を提供することを目的とする。
本発明は、動画像の内容が切り替わる画像変化点で分割された単一の部分動画像または複数の部分動画像の集合であるメタショットを同一の属性を有するものに分類する動画像処理装置において、動画像の内容が切り替わる画像変化点で分割された複数の部分動画像同士の類似度を計測する類似度計測手段と、前記計測した前記類似度に基づいて、互いに類似する部分動画像同士を特定する類似ショット特定手段と、前記特定された類似する部分動画像に対して同一のグループ属性を付与するグループ化手段と、前記メタショットの境界候補となりうる前記動画像内時刻の入力を外部から受け付け、この受け付けたメタショット境界候補時刻によって前記動画像を複数の区間である仮メタショットに分割するメタショット境界候補時刻入力手段と、前記分割された仮メタショットであって、かつ、同一のグループ属性が付与された部分動画像を含む仮メタショットに対して、同一の属性を付与することにより、複数の部分動画像を同一の属性を有する仮メタショット属性付与手段と、前記仮メタショット属性付与手段によって付与された属性に基づき、同一の属性を持ち、かつ、時間的に連続した複数の仮メタショットを結合して一つのメタショットとして生成するか、または、同一の属性を持つ仮メタショットが連続しない場合には単一の仮メタショットそのものを一つのメタショットとして生成するメタショット生成手段と、を備えたことを特徴とする動画像処理装置である。
本発明にかかる動画像処理装置は、上記特許文献などの方法によって仮に定義された番組本編及びコマーシャル(仮メタショット)区間に対し、類似ショットの出現傾向を用いて番組本編、またはコマーシャルいずれに属するのかという属性を付与するので、従来の手法よりも高精度で番組本編及びコマーシャルの判別が可能になるという効果を奏する。
以下に、本発明に係る動画像処理装置、動画像処理方法及び動画像処理プログラムの実施例を図面に基づいて詳細に説明する。
なお、実施例においては時間的に連続するショットの集合(または単一のショット)の総称として「メタショット」という用語を用いる。また、外部から入力したメタショットの境界候補(時刻情報)によって分割された動画像の区間を「仮メタショット」と称する。
また、実施例においては民間放送局が放送するいわゆる「コマーシャル」の他に、公共放送局や有料放送局などが放送する番組予告編やキャンペーン告知など、番組本編と直接関係のない1分程度未満のメタショットのことも「コマーシャル」という用語の定義に含める。
さらに、以下の実施例においては、一例としてメタショットの属性に「コマーシャルでない(すなわち、番組本編である)」「コマーシャルである(すなわち、番組本編ではない)」のいずれかを付与する場合の処理について説明する。
図1は、実施例1に係る動画像処理装置10の機能構成を示すブロック図である。
動画像処理装置10は、動画像取得部101と、カット検出部102と、ショット区間定義部103と、類似ショット検出部104と、仮メタショット属性付与部105と、メタショット生成部107と、メタショット情報出力部108と、メタショット境界候補時刻入力部109とを備えている。
(1)動画像取得部101
動画像取得部101は、例えば当該動画像処理装置10に接続された放送番組受信機(チューナー)などを介して外部から動画像を取得する。
動画像取得部101は、非圧縮の動画像を取得してもよい。また、DV形式や動画像圧縮の標準形式であるMPEG−1,2,4などのデジタルデータに変換された動画像を取得してもよい。
動画像取得部101は、取得した動画像をカット検出部102が処理するのに好適な形式に変換し、変換後の動画像をカット検出部102に渡す。ここで、好適な形式への変換とは、例えば圧縮(エンコード)されている動画像を伸長(デコード)する処理である。またカット検出部102による処理において必要十分な画像サイズに大きさを変換する処理である。
(2)カット検出部102
カット検出部102は、1枚毎に入力された画像フレームに対し、直前に入力された画像フレームとの類似度を計算し、画像の内容が切り替わる画像変化点、すなわちカット点を検出する。また、MPEG−2のように画像圧縮に予測符号化を用いている動画像を取得した場合には、予測符号量の変動を用いることによってカット点を検出してもよい。
なお、カット検出部102がカット点を検出する方法は実施例に限定されるものではなく、既に知られている様々な手法によって実現されてもよい。こうした手法は本願出願人によって出願された特許文献4(特開平9−93588号公報)などにも述べられている。
(3)ショット区間定義部103
ショット区間定義部103は、カット検出部102によって検出された、時間的に最も近い位置に並ぶ2つのカット点に囲まれた時間区間に属する画像フレームの集合を「ショット」と定義する。例えば、再生時刻が3分15秒20フレームの直前にカット点が検出され、かつ3分21秒12フレームの直前に次のカット点が検出された場合に、3分15秒20フレームから3分21秒11フレームまでを1つのショットと定義する。ここで、再生時刻とは、映像を再生させた場合に、映像開始から所定のフレームが再生されるまでに要する時間である。
(4)類似ショット検出部104
類似ショット検出部104は、ショット区間定義部103が定義したショットを1単位として、類似するショットを検出する。具体的には、ショットに含まれる1または2以上のフレームを対象とするそれぞれのショットから選択する。そしてこれらのフレーム同士を比較することによって類似度を計測する。
ショット自体の類似比較については本願出願人によって出願された特許文献5(特開平9−270006号公報)の方法などを用いることができる。この方法によれば、対象となる2つのフレームのそれぞれにおいて特徴量を算出する。そして、これら2つの特徴量の距離を計算する。例えば角度ヒストグラムを用いた特徴量を利用する場合には、36次元空間における2特徴量点の距離を計算する。この距離が類似度に対応する値であって、距離の値が小さいほど類似度が高い。
ショットの類似比較の方法は前記の特許文献5に挙げた方法の他に、対象となる2つのフレームのそれぞれから顔領域を抽出し、抽出された顔領域同士の画像の類似性を比較することによっても実現できる。
また、対象となる2つのフレームそれぞれから上記同様に顔領域を抽出し、抽出された顔領域内の画像から人物を識別し、識別された人物が2つのフレームにおいて同一であるかどうかを根拠にすることによっても実現できる。
これらの方法によってカメラアングルなどや撮影場所が異なるために上記の方法では類似ショットと判定できなかったような2ショットも、「同じ出演者が出演しているショット」という理由で類似ショットに判定することができる。
なお、上記に示したのはショットの類似比較方法の例であり、本発明の動画像処理装置10において利用することのできる類似ショット検出方法は上記の例に限定されるものではない。
こうして計測した類似度が予め定められた値以上である場合に、これら2つのショットを互いに類似するショットとして検出する。このように、ショット同士の類似度に基づいて類似ショットを検出する。
なお、類似ショット検出部104は、1つの動画像に含まれる1つのショットに対して、当該動画像に含まれる他の全てのショットと類似度を計測するが、他の例としては、1つのショットに対して、当該ショットと時間的に近傍にある所定の数のショットに限定して、類似度を計測してもよい。
(5)メタショット境界候補時刻入力部109
一方、メタショット境界候補時刻入力部109は当該動画像中でメタショットの境界(一例としてはコマーシャルである連続ショット群とコマーシャルではない連続ショット群の境界)の時刻情報を外部から入力する。
外部から与えられる時刻情報は、例えば以下のような方法で生成されることが想定できる。なお、第1の生成例から第3の生成例は、本明細書の「技術分野」に記載した特許文献や既出の製品などで技術的に提案、実現済みのものである。
(5−1)時刻情報の第1の生成例
第1の生成例は、放送電波に重畳される音声信号モード(ステレオ放送、音声多重放送=二カ国語放送など、モノラル放送)の切り替わりがあった時刻が挙げられる。これはアナログ・ビデオ・テープ・レコーダーのコマーシャル検出機能としてすでに実現しているものである。
(5−2)時刻情報の第2の生成例
第2の生成例は、動画像に含まれる音声信号を観察し、一定時間(例えば0.5秒など)に渡って音声レベル(波形データの2乗)が一定値以下であった場合を「無音区間」と称すとしたときに、無音区間の開始時刻、終了時刻、または中間などの任意の時刻が挙げられる。これもデジタル・ビデオ・レコーダにおいて無音部自動分割機能として実現しているものである。
(5−3)時刻情報の第3の生成例
第3の生成例は、コマーシャルは通常15秒、30秒、60秒など、規定の時間長を持っていることを利用して、上述のような方法でカット検出を行った結果、カット点が15秒の倍数となるような組み合わせを探し出し、そのような組み合わせが見つかった場合にそれをコマーシャルと番組本編の境界、その組み合わせが囲む、時間的に短い側の時間区間をコマーシャルとしてメタショット定義する方法が挙げられる。
(5−4)時刻情報の第4の生成例
第4の生成例としては、MPEG−2などを用いたデジタル放送の場合、コマーシャルと番組本編で送信方式が異なる場合も想定できる。
例えば、映画などを放送する番組の場合、元々の映画はフィルムで製作されているために毎秒24コマ(フレーム)であるが、これをテレビ放送の方式である30フレーム(60フィールド)に変換するために「3−2プルダウン」という方法で符号化される。この「3−2プルダウン」の存在有無をMPEG−2映像ストリームデータ中で観察することにより、「3−2プルダウン」が行われていないコマーシャル部分と、行われている番組本編(映画)部分との境界を定義する方法が挙げられる。
(5−5)時刻情報の第5の生成例
第5の生成例は、番組途中、または番組本編とコマーシャルとの間で解像度などを切り替えることも規格上は可能である。つまり、コマーシャル部分はハイビジョンで放送し、番組本編は通常テレビの解像度で放送する、あるいはその逆、といったことも可能であるため、これら解像度などの変化点をメタショット境界候補とする方法も挙げられる。
(5−6)時刻情報の第6の生成例
第6の生成例は、動画像処理装置10の利用者、または放送局、または、そのいずれでもない第三者が、手作業によってコマーシャルと番組本編の境界を入力してもよい。この場合、例えば作業者がテレビ画面を見ながらコマーシャルと番組本編との境界と感じたときにボタンを押して、動画像処理装置10にメタショット境界候補時刻として入力する方法などが考えられる。
(5−7)仮メタショットの例
上記のようにしてメタショット境界候補時刻に基づいて動画像取得部101に入力した動画像を仮メタショットに分割した例を図2に示す。図2は実施例1に係る動画像処理装置10の動作を説明するイメージ図である。
仮メタショット201〜213は、上記のようにメタショット境界候補時刻入力部109から入力された仮メタショットの定義である。図2では時間進行は左から右に流れ、左方向が番組の先頭方向、右方向が番組の終端方向である。図2の例では、無音検出によって仮メタショットが定義されたことを想定している。
仮メタショット203〜206及び209〜212は、いずれも30秒のコマーシャルであるが、この段階では動画像処理装置10はこの仮メタショットがコマーシャルであるかどうかの判定は行っていない。この仮メタショットがコマーシャルであるかどうかの判定は以下に説明する方法で行われる。
図2において251〜257は仮メタショット中の一部のショットを表現したものであり、類似ショット検出部104においてショット251とショット254、ショット252とショット253、ショット255とショット256とショット257はそれぞれ類似ショットであると判定され、それぞれ同一のグループ属性が付与されたものとする。つまり、ショット251とショット254がショットパターン「A」、ショット252とショット253がショットパターン「B」、ショット255とショット256とショット257がショットパターン「C」などである。
(6)仮メタショット属性付与部105
仮メタショット属性付与部105は、この類似ショットのグループ属性を利用して仮メタショットに属性を付与する。
つまり、ショットパターン「A」に属するショットが含まれる仮メタショット201と207にメタショットパターン「a」という属性をまず付与する。
次に、ショットパターン「B」に属するショットが含まれる仮メタショット202と207に同じ属性を付与しようとするが、仮メタショット207にはすでにメタショットパターン「a」の属性が付与されているので、これに倣い、仮メタショット202にも「a」の属性を付与する。
次にショットパターン「C」に属するショットが含まれる仮メタショット207と208、及び213に同じ属性を付与しようとするが、仮メタショット207にはすでに属性「a」が付与されているので、やはり仮メタショット208及び213にも属性「a」を付与する。
このようにして、図2に示した例では、仮メタショット201、202、207、208、213に同じメタショットパターン「a」が付与される。
(7)メタショット生成部107
メタショット生成部107は、上記で仮メタショット属性付与部105が付与した属性が同じであり、時間的に連続する仮メタショットを結合することでメタショット定義する。つまり、同じメタショットパターン「a」が連続する区間として仮メタショット201と202、207と208が結合される。
一方、属性が何も付与されていない仮メタショット203〜206、209〜212については、そのまま結合せずに別々のメタショットとしてもよいし、結合してもかまわない。ここでは「属性なし」をも一つの属性として結合したとすると最終的なメタショットは201〜202(属性a)、203〜206(属性なし)、207〜208(属性a)、209〜212(なし)、213(属性a)となる。
(8)メタショット情報出力部108
メタショット情報出力部108は、こうして定義されたメタショットに関する情報を出力する。
上記のようにして何らかの属性が定義されたメタショットを番組本編、それ以外の部分をコマーシャルとすることにより、無音検出のみでは番組本編の途中をも分割されてしまっていたものを再統合することが可能であるばかりでなく、コマーシャルと番組本編を区別した属性付けも実現する。
(9)属性付与の変更例
上記では番組本編部分にすべて同じ属性が付与された例を示したが、必ずしも同じ属性を持つことが番組本編の必須要件ではない。
例えば図3のような場合、仮メタショット301、302、307にはメタショットパターン「a」が、仮メタショット308及び313には「b」が付与されることになるが、前々段落及び前段落で述べたように、何らかの属性が定義されたメタショットを統合することにより、上記と同様にメタショット統合及び番組本編とコマーシャルを区別した属性付けを行うことができる。
なお、このような場合でも、当然メタショットパターン「a」と「b」を結合せずにメタショット定義することも可能である。
(10)動画像処理の内容
図4は、動画像処理装置10における動画像処理を示すフローチャートである。
動画像処理は、主に、ショット区間定義処理、グループ化処理及びメタショット生成処理の3つの処理を含んでいる。
(10−1)ショット区間定義処理
まず、ショット区間定義処理が行われる。
すなわち、カット検出部102は、画像フレームを1フレームずつ取得する入力する(ステップS402)。
そして、カット検出部102は、ステップS402において取得した画像フレームの直前に取得した画像フレームと、ステップS402において取得した画像フレームとの類似度を計算し、類似度に基づいてカット点を検出する。
取得した画像フレームがカット点である場合(ステップS403,Yes)、ショット区間定義部103は、当該カット点から直前のカット点までの間をショット区間として定義する(ステップS404)。
以上ステップS402からステップS404の処理を繰り返す。映像(番組)全体についてのショット区間の定義が完了すると(ステップS401,Yes)、ショット区間定義処理が完了し、グループ化処理に進む。
(10−2)グループ化処理
類似ショット検出部104は、所定のショットを基準ショットとして選択し、当該ショットと比較すべき対象ショットとの類似度を判定する(ステップS407)。
そして、対象ショットが基準ショットと類似していると判断した場合には(ステップS408,Yes)、類似ショット検出部104は、当該対象ショットと基準ショットに対して同一のグループを識別するラベルを付与する。すなわち、対象ショットと基準ショットとをグループ化する(ステップS409)。
以上のステップS407及びステップS408の処理を、1つの基準ショットに対する全ての対象ショットについて繰り返す。全ての対象ショットに対して処理が完了すると(ステップS406,Yes)、基準ショットを替えて、再度ステップS407及びステップS408の処理を繰り返す。
そして、映像全体について基準ショットと対象ショットとの類似度判定処理が完了すると(ステップS405,Yes)、グループ化処理が完了し、次のメタショット生成処理に進む。
(10−3)メタショット生成処理
メタショット境界候補時刻入力部109は、外部からメタショットの境界候補となる時刻情報を入力する(ステップS413)。ここで入力された時刻の境界によって動画像取得部101に入力した動画像を分割し、その分割した区間が「仮メタショット」である。
次に仮メタショット属性付与部105が類似ショット検出部104が付与したラベル(属性)に基づいて、同じラベルを持つ類似ショットが存在する複数の仮メタショットに同一の属性ラベルを付与する(ステップS414)。
次に、メタショット生成部107は上記によって仮メタショットに付与された属性ラベルを用い、連続する仮メタショットであって同一の属性ラベルを持つ(あるいは、属性ラベルを持つか否か)を基準にして(ステップS411)、仮メタショットを結合し、メタショットとする(S412)。
以上ステップS411及びステップ412を繰り返す。映像全体についてメタショットの生成が完了すると(ステップS410,Yes)、メタショット生成処理が完了し、結果がメタショット情報出力部108から出力されて動画像処理が完了する。
以上のように、実施例1に係る動画像処理装置10は、類似ショットの登場パターンに基づいて仮メタショットを結合するので、過剰に検出された仮メタショットを効率的に結合できる。また、メタショットの属性として、類似ショットを含むか(番組本編であるか)、含まないか(コマーシャルであるか)などを自動推定することも可能になる。これにより、ユーザによる所定のシーンの検索などを容易にすることができる。
(11)動画処理の変更例
動画像処理装置10における動画像処理は、(1)ショット区間定義処理、(2)グループ化処理、(3)メタショット生成処理の3つの処理(図4の破線で囲まれた部分)で構成されている。実施例においては、動画像に含まれる全てのショットに対して(1)ショット区間定義処理が完了した後に、(2)グループ化処理に移行した。同様に、動画像に含まれる全てのショットに対して(2)グループ化処理が完了した後に、(3)メタショット生成処理に移行した。これに代えて、他の例としては、動画像処理装置10に一時記憶領域(図示せず)を設けることにより、映像の入力を行いながら上記3つの処理を並行して実行してもよい。
例えば、新しいカットが検出され、ショット区間が定義されるたびに、そのショット区間と過去のショット区間に対する類似ショットの判定を行い、そこまでの類似ショット判定結果及び外部から入力されたメタショット境界候補時刻情報に基づいて当座のメタショット生成を行ってもよい。このように、並列に処理を実行することにより番組録画の終了後、きわめて短い時間で処理結果を得ることができる。
(12)動画像処理装置10のハードウェア構成
図5は、本実施例の動画像処理装置10のハードウェア構成を示す図である。
動画像処理装置10は、ハードウェア構成として、動画像処理装置10における動画像処理を実行するプログラムなどが格納されているROM52、ROM52内のプログラムに従って動画像処理装置10の各部を制御し、動画像処理などを実行するCPU51、ワークエリアが形成され、動画像処理装置10の制御に必要な種々のデータが記憶されているRAM53、ネットワークに接続して、通信を行う通信I/F57、及び各部を接続するバス62を備えている。
先に述べた動画像処理装置10における動画像処理を実行する動画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、DVDなどのコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施例の動画像処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。
この場合には、動画像処理プログラムは、動画像処理装置10において上記記録媒体から読み出して実行することにより主記憶装置上にロードされ、上記ソフトウェア構成で説明した各部が主記憶装置上に生成されるようになっている。
次に、実施例2に係る動画像処理装置10について説明する。
図6は、実施例2に係る動画像処理装置10の機能構成を示すブロック図である。
実施例2は上記の実施例1に加えて境界候補時刻補正部106を備えたものであり、それ以外は実施例1及び図1と同様である。したがって、以下では実施例1と共通する部分の説明を省略し、実施例1から拡張された分についてのみ説明する。
仮メタショット属性付与部105によって、同一の類似ショットグループに属するショットを含むことを利用し、メタショットラベル(属性)が付与されるところまでは実施例1と同様である。
(1)仮メタショットの境界とショットの単位が不一致の発生の可能性
メタショット境界候補時刻入力部109から入力された時刻によって定義される仮メタショットの境界と、類似ショット検出部104が類似ショット検出に用いたショットの単位が異なる可能性について、図7及び図8を用いて説明する。
図7は、動画像処理装置10において境界候補時刻補正部106の作用を示すためのイメージ図である。図7では例としてMPEG−2形式の動画像データをフレーム単位で表している。縦長の長方形が一枚のフレームを意味し、時間進行は左から右である。
カット検出部102によるカット検出は、高さの大きい「I-picture」と呼ばれるフレームのみを用いて行われる場合がある。これは、カット検出、及び類似ショット検出をI-pictureに限定して行うことにより、計算量の軽減が計れるからである。
このようにカット検出部102がI-pictureごとにカット検出を行う場合、ショット区間定義部103が行うショット定義、及び類似ショット検出部104が行う類似ショット検出も当然I-pictureの間隔になる。図7の702は、このような場合にカット検出部102が定義したカット点、すなわち前後のショットの境界である。
一方、メタショット境界候補時刻入力部109から入力された時刻は任意の時刻をとりうる。図7の701はこのようにして入力されたメタショット境界候補時刻であるが、これが必ずしもカット検出部102が定義したカット点702と合致するとは限らない。
このような不一致の例は、例えばメタショット境界候補入力部109から入力された仮メタショットの境界が無音検出によるものであるような場合に生じうる。カメラがない場面で出演者が沈黙した場合など、映像のカット点は生じないが無音区間は生じているため、仮メタショットの境界は存在することになる。
(2)仮メタショットの再定義の説明
図7のように701と702が不一致の場合、境界候補時刻補正部106は次のうち予め規定された方法で仮メタショットの再定義を行う。
第1の方法は、メタショット境界候補入力部109から入力された仮メタショット境界のみを有効とし、カット検出部102が検出したカット点(境界)は破棄する方法である。この場合、図7において701は有効となり、702は破棄される。
第2の方法は、カット検出部102が検出したカット点のうち、メタショット境界候補入力部109から入力された仮メタショット境界から最も近いものを探索し、仮メタショット境界を探索結果の位置に変更する方法である。この場合、図7においては701は破棄され、702が有効となる。
第3の方法は、メタショット境界候補入力部109から入力された仮メタショット境界、カット検出部102が検出したカット点の双方を新しい仮メタショット境界とする方法である。この場合、図7においては701も702も有効となり、701から702までの間は短いショット、かつ短い仮メタショットとなる。
(3)仮メタショットの再定義の他の説明
上記の3つの方法について、図8を用いて別の視点で説明する。
図8は動画像処理装置10において境界候補時刻補正部106の作用を示すためのイメージ図である。
図8においてa)の段にある長方形はショット区間定義部103が定義したショットを表している。一方、801はメタショット境界候補入力部109から入力された仮メタショット境界である。
上記で図7を用いて説明した3つの方法は、それぞれb)、c)、d)に相当する。このように境界候補時刻補正部106は仮メタショットの境界を再定義し、その結果を用いてメタショット生成部107はメタショットを生成する。以降は実施例1と同様である。
(4)動画像処理
図9は、動画像処理装置10における動画像処理を示すフローチャートである。
これについても実施例1で図4を用いて説明した部分と共通・重複するステップが多いので、共通・重複する部分を割愛し、実施例1と異なる部分だけを説明する。
仮メタショット属性付与部105が類似ショット検出部104が付与したラベル(属性)に基づいて、同じラベルを持つ類似ショットが存在する複数の仮メタショットに同一の属性ラベルを付与する(ステップS414)ところまでは実施例1と同様である。
ここで境界候補時刻補正部106が上述のような方法を用いて仮メタショット境界を再定義する(ステップS415)。
以下、メタショット生成部107は上記によって仮メタショットに付与された属性ラベルを用い、連続する仮メタショットであって同一の属性ラベルを持つ(あるいは、属性ラベルを持つか否か)を基準にして(ステップS411)、仮メタショットを結合し、メタショットとする(S412)以降の処理は実施例1と同様である。
以上のように、実施例2に係る動画像処理装置10は、類似ショットの登場パターンに基づいて仮メタショットを結合するので、過剰に検出された仮メタショットを効率的に結合できる。また、メタショットの属性として、類似ショットを含むか(番組本編であるか)、含まないか(コマーシャルであるか)などを自動推定することも可能になる。これにより、ユーザによる所定のシーンの検索などを容易にすることができる。
(5)動画処理の変更例
動画像処理装置10における動画像処理は、(1)ショット区間定義処理、(2)グループ化処理、(3)メタショット生成処理の3つの処理(図4の破線で囲まれた部分)で構成されている。
実施例においては、動画像に含まれる全てのショットに対して(1)ショット区間定義処理が完了した後に、(2)グループ化処理に移行した。同様に、動画像に含まれる全てのショットに対して(2)グループ化処理が完了した後に、(3)メタショット生成処理に移行した。これに代えて、他の例としては、動画像処理装置10に一時記憶領域(図示せず)を設けることにより、映像の入力を行いながら上記3つの処理を並行して実行してもよい。
例えば、新しいカットが検出され、ショット区間が定義されるたびに、そのショット区間と過去のショット区間に対する類似ショットの判定を行い、そこまでの類似ショット判定結果及び外部から入力されたメタショット境界候補時刻情報に基づいて当座のメタショット生成を行ってもよい。このように、並列に処理を実行することにより番組録画の終了後、きわめて短い時間で処理結果を得ることができる。
(6)動画像処理装置10のハードウェア構成
実施例1と同様に、図5は、動画像処理装置10のハードウェア構成を示す図である。
動画像処理装置10は、ハードウェア構成として、動画像処理装置10における動画像処理を実行するプログラムなどが格納されているROM52、ROM52内のプログラムに従って動画像処理装置10の各部を制御し、動画像処理などを実行するCPU51、ワークエリアが形成され、動画像処理装置10の制御に必要な種々のデータが記憶されているRAM53、ネットワークに接続して、通信を行う通信I/F57、及び各部を接続するバス62を備えている。
先に述べた動画像処理装置10における動画像処理を実行する動画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、DVDなどのコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施例の動画像処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。
この場合には、動画像処理プログラムは、動画像処理装置10において上記記録媒体から読み出して実行することにより主記憶装置上にロードされ、上記ソフトウェア構成で説明した各部が主記憶装置上に生成されるようになっている。
次に実施例3に係る動画像処理装置10について説明する。
本実施例の機能構成、処理フロー、機器構成は、いずれも上述の実施例1または実施例2と同様であるため省略する。
(1)誤った属性付けの可能性について
まず、実施例3が解決しようとする問題点について説明する。
図10は、動画像処理装置10の仮メタショット属性付与部105が類似ショット検出部104の結果を利用して仮メタショットに属性を付与する際の手順の拡張を示すイメージ図である。
図10中の長方形はショットを、逆三角形はコマーシャル同士の境界を示している。長方形上部で曲線によって結ばれている部分はそれぞれが類似ショットであることを示している。
区間1002、1003、1004はそれぞれ同じ会社のコマーシャルである。また、区間1002と1003は同じ製品のコマーシャルであり、中程のショットのみが異なる以外は同じカット割りになっている。
このような場合、コマーシャルの終端では会社のロゴマークなどを示す画面1001が表示されることが多く、これらは類似ショット検出部104で類似ショットとして検出される。しかしながら区間1002、1003、1004が外部で定義された仮メタショットであったとき、仮メタショット属性付与部105がこれらをそのまま利用して同じメタショットパターン(属性)を付与すると、番組本編と同様の属性付けが行われてしまう問題点がある。
また、区間1002と1003のように、全く同じコマーシャルが2回続けて放送されたり、一部だけが異なるシリーズ・コマーシャルの場合も、メタショットをまたぐ類似ショットが存在するために、上記と同様の問題点が発生しうる。
(2)解決方法
そこで仮メタショット属性付与部105は、仮メタショット間で類似ショットが存在する場合、その相対位置を計算して属性付与に用いるかどうかを判定する。
例えば、図10のAの類似ショットの対については、いずれも開始時刻が仮メタショットの先頭(0秒)であり、終了時刻が仮メタショットの先頭から2.5秒だったとする。このような場合、類似ショットでありながら仮メタショット中の相対的な位置が厳密に一致すると判定し、同一のメタショットパターン(属性)付与の根拠に、この類似ショットの対(A)を利用しない。
具体的には、比較対象としている類似ショットの対について「仮メタショット中で先頭から計測した開始時刻が0.5秒以内の誤差で合致しており」かつ「仮メタショット中で先頭から計測した終了時刻が0.5秒以内の誤差で合致している」場合、などといった条件を用いる。この手法により、会社のロゴマークなどであるBの類似ショット対も除外することができる。
(3)解決方法の変更例1
上記では、類似ショットをメタショットパターン(属性)付与の根拠から除外するかどうかの判定を仮メタショット先頭からの相対位置を用いて行ったが、以下のように拡張することで時間長の異なるコマーシャル中の会社ロゴなどを正しく除外することができる。
例えば、同じ会社のコマーシャルでも15秒のものと30秒のものが放送されることがあり、いずれもコマーシャルの終端に1秒の会社ロゴが挿入されるとする。このような場合に対応するために、上記で用いた条件に加えて、「仮メタショット中で終端から計測した開始時刻が0.5秒以内の誤差で合致しており」かつ「仮メタショット中で終端から計測した終了時刻が0.5秒以内の誤差で合致しており」場合も、類似ショットの対をメタショットパターン(属性)付与の根拠としない、などである。
(4)解決方法の変更例2
さらに、上記では対象となる類似ショットの開始時刻と終了時刻の双方が合致していることを条件としたが、単に対象となる類似ショットが「仮メタショットの先頭から開始している場合」、あるいは、対象となる類似ショットが「仮メタショットの終端で終了している場合」など、片方の条件のみを用いることにより、会社ロゴなどの類似ショット検出により複数のコマーシャルをまたいで同一のメタショットパターン(属性)が付与されるのを抑制することができる。
(5)解決方法の変更例3
加えて、同じ番組で離れた時間に同一のコマーシャルや同じ会社のコマーシャルが放送されることもあり、これらのように離れた時間のコマーシャルから類似ショットが検出されると、番組本編と同様の属性付けがなされる恐れもある。これを防ぐため、類似ショット検出部104に類似ショット探索範囲を規定してもよい。
例えば、「類似ショットの探索は10分以内の範囲」という設定を予め行っておくことにより、10分より時間的に離れた類似ショットは検出されない。すなわち、コマーシャルと次のコマーシャルの間に10分以上の番組本編があった場合には、仮に両側のコマーシャル区間において同じコマーシャルが放送された場合でも、そもそも類似ショットが検出されず、メタショットパターン(属性)付与の根拠となるものがないために、番組本編と正しく識別できる可能性が高まる。
(6)解決方法の変更例4
また、上記では同一動画像内での類似ショット検出を例として説明してきたが、同じ番組を複数回録画した動画像を用いて上記のような処理を行ってもよい。
この場合、例えば5つのコーナーで構成されている番組であるが、それぞれのコーナータイトル画面は異なるため、1放送回のみの動画像ではコーナータイトルが類似ショットとして検出されないような場合でも、同番組の複数回録画データを用いて類似ショット検出を行えば、放送回をまたいでコーナータイトルが類似ショットとなるため、仮メタショットにメタショットパターン(属性)付与ができ、番組本編とコマーシャルとの弁別性能が高まる可能性がある。
なお、本発明は上記各実施例に限らず、その主旨を逸脱しない限り種々に変更することができる。
以上のように、本発明は、メタショットを生成するのに有用であり、特に、メタショットに属性(番組本編かコマーシャルか)を付与するのに適している。
実施例1に係る本発明の動画像処理装置の機能構成を示すブロック図である。 実施例1に係る本発明の動画像処理装置の動作を説明する模式図である。 実施例1に係る本発明の動画像処理装置の動作を説明する模式図である。 実施例1に係る本発明の動画像処理装置における動画像処理を示すフローチャートである。 実施例1に係る本発明の動画像処理装置のハードウェア構成を示す図である。 実施例2に係る本発明の動画像処理装置の機能構成を示すブロック図である。 実施例2に係る本発明の動画像処理装置の動作を説明する模式図である。 実施例2に係る本発明の動画像処理装置の動作を説明する模式図である。 実施例2に係る本発明の動画像処理装置における動画像処理を示すフローチャートである。 実施例3に係る本発明の動画像処理装置の動作を説明する模式図である。
符号の説明
10 動画像処理装置
101 動画像取得部
102 カット検出部
103 ショット区間定義部
104 類似ショット検出部
105 仮メタショット属性付与部
106 境界候補時刻補正部
107 メタショット生成部
108 メタショット情報出力部
109 メタショット境界候補時刻入力部

Claims (11)

  1. 動画像の内容が切り替わる画像変化点で分割された単一の部分動画像または複数の部分動画像の集合であるメタショットを同一の属性を有するものに分類する動画像処理装置において、
    動画像の内容が切り替わる画像変化点で分割された複数の部分動画像同士の類似度を計測する類似度計測手段と、
    前記計測した前記類似度に基づいて、互いに類似する部分動画像同士を特定する類似ショット特定手段と、
    前記特定された類似する部分動画像に対して同一のグループ属性を付与するグループ化手段と、
    前記メタショットの境界候補となりうる前記動画像内時刻の入力を外部から受け付け、この受け付けたメタショット境界候補時刻によって前記動画像を複数の区間である仮メタショットに分割するメタショット境界候補時刻入力手段と、
    前記分割された仮メタショットであって、かつ、前記同一のグループ属性が付与された部分動画像を含む仮メタショットに対して、同一の属性を付与する仮メタショット属性付与手段と、
    前記仮メタショット属性付与手段によって付与された属性に基づき、同一の属性を持ち、かつ、時間的に連続した複数の仮メタショットを結合して一つのメタショットとして生成するか、または、同一の属性を持つ仮メタショットが連続しない場合には単一の仮メタショットそのものを一つのメタショットとして生成するメタショット生成手段と、
    を備えたことを特徴とする動画像処理装置。
  2. 前記メタショット境界候補時刻入力手段によって入力された前記メタショット境界候補時刻と、前記動画像の内容が切り替わる画像変化点で分割された部分動画像の分割時刻との間に時間的なずれがある場合に、前記メタショット境界候補時刻、または、前記画像変化点を基準にして新たな仮メタショット境界を定義する境界候補時刻補正手段をさらに備え、
    前記メタショット生成手段は、前記定義された新たな仮メタショット境界に基づいてメタショットを生成する
    ことを特徴と請求項1記載の動画像処理装置。
  3. 前記メタショット境界候補時刻入力手段が受け付けるメタショット境界候補時刻は、利用者の操作によって生成された時刻情報である
    ことを特徴とする請求項1または2記載の動画像処理装置。
  4. 前記メタショット境界候補時刻入力手段が受け付けるメタショット境界候補時刻は、前記動画像内で一定時間以上に渡って音声レベルが一定値以下であった時間区間の先頭または中間または終端のいずれか一つまたは複数の時刻情報である
    ことを特徴とする請求項1または2記載の動画像処理装置。
  5. 前記メタショット境界候補時刻入力手段が受け付けるメタショット境界候補時刻は、前記動画像内で音声の送信形式が切り替わる時刻情報である
    ことを特徴とする請求項1または2記載の動画像処理装置。
  6. 前記メタショット境界候補時刻入力手段が受け付けるメタショット境界候補時刻は、前記動画像内で動画像の送信形式が切り替わる時刻情報である
    ことを特徴とする請求項1または2記載の動画像処理装置。
  7. 前記メタショット境界候補時刻入力手段が受け付けるメタショット境界候補時刻は、前記動画像の内容が切り替わる画像変化点のうち、画像変化点の間隔が一定時間であることを条件に選択された時刻情報である
    ことを特徴とする請求項1または2記載の動画像処理装置。
  8. 前記仮メタショット属性付与手段は、
    前記仮メタショットに同一の属性を付与する際には、同一のグループに属し、かつ、異なる仮メタショットに属す二つの部分動画像の開始時刻または終了時刻またはそれら両方について、それぞれの仮メタショット中の相対的な時刻が一致または近傍である場合には、それぞれの仮メタショットに同一の属性付与しない
    ことを特徴とする請求項1から7のいずれか一項に記載の動画像処理装置
  9. 前記類似度計測手段が類似度を計測し、前記類似ショット特定手段が類似であることを特定する対象となる部分動画像は、異なる複数の動画像の部分動画像である
    ことを特徴とする請求項1から8のいずれか一項に記載の動画像処理装置。
  10. 動画像の内容が切り替わる画像変化点で分割された単一の部分動画像または複数の部分動画像の集合であるメタショットを同一の属性を有するものに分類する動画像処理方法において、
    動画像から画像の内容が切り替わる画面変化点を検出するカット検出ステップと、
    前記検出された画像変化点で分割された複数の部分動画像同士の類似度を計測する類似度計測ステップと、
    前記計測した前記類似度に基づいて、互いに類似する部分動画像同士を特定する類似ショット特定ステップと、
    前記特定された類似する部分動画像に対して同一のグループ属性を付与するグループ化ステップと、
    前記メタショットの境界候補となりうる前記動画像内時刻の入力を外部から受け付け、この受け付けたメタショット境界候補時刻によって前記動画像を複数の区間である仮メタショットに分割するメタショット境界候補時刻入力ステップと、
    前記分割された仮メタショットであって、かつ、同一のグループ属性が付与された部分動画像を含む仮メタショットに対して、同一の属性を付与することにより、複数の部分動画像を同一の属性を有する仮メタショットに分類する仮メタショット属性付与ステップと、
    前記仮メタショット属性付与ステップにおいて付与された属性に基づき、同一の属性を持ち、かつ、時間的に連続した複数の仮メタショットを結合して一つのメタショットとして生成するか、または、同一の属性を持つ仮メタショットが連続しない場合には単一の仮メタショットそのものを一つのメタショットとして生成するメタショット生成ステップと、
    を有することを特徴とする動画像処理方法。
  11. 動画像の内容が切り替わる画像変化点で分割された単一の部分動画像または複数の部分動画像の集合であるメタショットを同一の属性を有するものに分類する動画像処理方法をコンピュータによって実現するプログラムにおいて、
    動画像から画像の内容が切り替わる画面変化点を検出するカット検出機能と、
    前記検出された画像変化点で分割された複数の部分動画像同士の類似度を計測する類似度計測機能と、
    前記計測した前記類似度に基づいて、互いに類似する部分動画像同士を特定する類似ショット特定機能と、
    前記特定された類似する部分動画像に対して同一のグループ属性を付与するグループ化機能と、
    前記メタショットの境界候補となりうる前記動画像内時刻の入力を外部から受け付け、この受け付けたメタショット境界候補時刻によって前記動画像を複数の区間である仮メタショットに分割するメタショット境界候補時刻入力機能と、
    前記分割された仮メタショットであって、かつ、同一のグループ属性が付与された部分動画像を含む仮メタショットに対して、同一の属性を付与することにより、複数の部分動画像を同一の属性を有する仮メタショットに分類する仮メタショット属性付与機能と、
    前記仮メタショット属性付与機能において付与された属性に基づき、同一の属性を持ち、かつ、時間的に連続した複数の仮メタショットを結合して一つのメタショットとして生成するか、または、同一の属性を持つ仮メタショットが連続しない場合には単一の仮メタショットそのものを一つのメタショットとして生成するメタショット生成機能と、
    をコンピュータによって実現することを特徴とする動画像処理方法のプログラム。
JP2004156809A 2004-05-26 2004-05-26 動画像処理装置及びその方法 Expired - Fee Related JP4215681B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004156809A JP4215681B2 (ja) 2004-05-26 2004-05-26 動画像処理装置及びその方法
US11/137,532 US20050264703A1 (en) 2004-05-26 2005-05-26 Moving image processing apparatus and method
CNA2005100742055A CN1703083A (zh) 2004-05-26 2005-05-26 移动图像处理装置和方法
EP20050253253 EP1600973A1 (en) 2004-05-26 2005-05-26 Moving image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004156809A JP4215681B2 (ja) 2004-05-26 2004-05-26 動画像処理装置及びその方法

Publications (2)

Publication Number Publication Date
JP2005341180A JP2005341180A (ja) 2005-12-08
JP4215681B2 true JP4215681B2 (ja) 2009-01-28

Family

ID=34979992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004156809A Expired - Fee Related JP4215681B2 (ja) 2004-05-26 2004-05-26 動画像処理装置及びその方法

Country Status (4)

Country Link
US (1) US20050264703A1 (ja)
EP (1) EP1600973A1 (ja)
JP (1) JP4215681B2 (ja)
CN (1) CN1703083A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9554093B2 (en) * 2006-02-27 2017-01-24 Microsoft Technology Licensing, Llc Automatically inserting advertisements into source video content playback streams
JP4225339B2 (ja) * 2006-09-11 2009-02-18 ソニー株式会社 画像データ処理装置および方法、プログラム、並びに記録媒体
JP2008147838A (ja) * 2006-12-07 2008-06-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US8874468B2 (en) * 2007-04-20 2014-10-28 Google Inc. Media advertising
US20080319844A1 (en) * 2007-06-22 2008-12-25 Microsoft Corporation Image Advertising System
JP2009021732A (ja) * 2007-07-11 2009-01-29 Nippon Hoso Kyokai <Nhk> 蓄積型放送受信装置および要約映像再生プログラム
JP4962783B2 (ja) * 2007-08-31 2012-06-27 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP4854030B2 (ja) * 2007-09-12 2012-01-11 Kddi株式会社 映像分類装置および受信装置
US8654255B2 (en) * 2007-09-20 2014-02-18 Microsoft Corporation Advertisement insertion points detection for online video advertising
US20090171787A1 (en) * 2007-12-31 2009-07-02 Microsoft Corporation Impressionative Multimedia Advertising
US8207989B2 (en) * 2008-12-12 2012-06-26 Microsoft Corporation Multi-video synthesis
EP2394246A1 (fr) * 2009-02-06 2011-12-14 France Telecom Procède de fusion de segments de programmes audiovisuels, dispositif, et produit programme d'ordinateur correspondant
JP5684321B2 (ja) * 2013-04-24 2015-03-11 日本電信電話株式会社 部分映像検出装置、部分映像検出方法、及び部分映像検出プログラム
US10121471B2 (en) * 2015-06-29 2018-11-06 Amazon Technologies, Inc. Language model speech endpointing
JP6125577B2 (ja) * 2015-07-30 2017-05-10 日本電信電話株式会社 映像同定装置、方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03177175A (ja) * 1989-12-06 1991-08-01 Hitachi Ltd 磁気記録再生装置
JPH03184483A (ja) * 1989-12-13 1991-08-12 Toshiba Corp コマーシャル検出装置
JP3098170B2 (ja) * 1995-05-16 2000-10-16 株式会社日立製作所 記録再生装置,記録再生方法及びコマーシャル判別装置
US6002831A (en) * 1995-05-16 1999-12-14 Hitachi, Ltd. Image recording/reproducing apparatus
US6744922B1 (en) * 1999-01-29 2004-06-01 Sony Corporation Signal processing method and video/voice processing device
US6724933B1 (en) * 2000-07-28 2004-04-20 Microsoft Corporation Media segmentation system and related methods
US20020108112A1 (en) * 2001-02-02 2002-08-08 Ensequence, Inc. System and method for thematically analyzing and annotating an audio-visual sequence
US6870956B2 (en) * 2001-06-14 2005-03-22 Microsoft Corporation Method and apparatus for shot detection
US7639873B2 (en) * 2005-07-28 2009-12-29 Microsoft Corporation Robust shot detection in a video

Also Published As

Publication number Publication date
JP2005341180A (ja) 2005-12-08
EP1600973A1 (en) 2005-11-30
US20050264703A1 (en) 2005-12-01
CN1703083A (zh) 2005-11-30

Similar Documents

Publication Publication Date Title
EP1600973A1 (en) Moving image processing apparatus and method
KR100899051B1 (ko) 방송 프로그램의 실제 시작 시간 제공 시스템, 방송프로그램의 실제 시작 시간 검출 방법 및 장치, 방송프로그램 녹화 방법 및 장치, 녹화 프로그램 재생 방법
JP3894940B2 (ja) 映像音声記録装置
US8081863B2 (en) Content playback apparatus
US7941031B2 (en) Video processing apparatus, IC circuit for video processing apparatus, video processing method, and video processing program
KR101237229B1 (ko) 콘텐츠 처리 장치 및 콘텐츠 처리 방법
JP4546467B2 (ja) コンテンツ蓄積システム、ホームサーバ装置、情報提供装置、集積回路、及びプログラム
JP4047264B2 (ja) 動画像処理装置、動画像処理方法および動画像処理プログラム
JPWO2006016590A1 (ja) 情報信号処理方法、情報信号処理装置及びコンピュータプログラム記録媒体
US7764862B2 (en) Method of and apparatus for setting video signal delimiter information judged from audio and video signals
JP2007524321A (ja) ビデオトレーラ
EP1293914A2 (en) Apparatus, method and processing program for summarizing image information
JPWO2006016605A1 (ja) 情報信号処理方法、情報信号処理装置及びコンピュータプログラム記録媒体
US7801420B2 (en) Video image recording and reproducing apparatus and video image recording and reproducing method
US7200322B2 (en) Video-signal recording and playback apparatus, video-signal recording and playback method and recording medium
JP2006303869A (ja) 特定条件区間検出装置および特定条件区間検出方法
JP4491009B2 (ja) 動画像処理装置
US20050232598A1 (en) Method, apparatus, and program for extracting thumbnail picture
JP2006270233A (ja) 信号処理方法及び信号記録再生装置
US20060263062A1 (en) Method of and apparatus for setting video signal delimiter information using silent portions
JP5682167B2 (ja) 映像音声記録再生装置、および映像音声記録再生方法
JP5266981B2 (ja) 電子機器、情報処理方法及びプログラム
US7756390B2 (en) Video signal separation information setting method and apparatus using audio modes
JP2007274233A (ja) 映像情報処理装置およびデジタル情報記録媒体、映像情報処理方法、映像情報処理プログラム
JP2009260762A (ja) ダイジェスト作成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees