JP5091806B2 - 映像処理装置及びその方法 - Google Patents

映像処理装置及びその方法 Download PDF

Info

Publication number
JP5091806B2
JP5091806B2 JP2008223666A JP2008223666A JP5091806B2 JP 5091806 B2 JP5091806 B2 JP 5091806B2 JP 2008223666 A JP2008223666 A JP 2008223666A JP 2008223666 A JP2008223666 A JP 2008223666A JP 5091806 B2 JP5091806 B2 JP 5091806B2
Authority
JP
Japan
Prior art keywords
section
input
display
sections
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008223666A
Other languages
English (en)
Other versions
JP2010062649A (ja
Inventor
俊輔 高山
晃司 山本
恒 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008223666A priority Critical patent/JP5091806B2/ja
Priority to US12/382,827 priority patent/US8630532B2/en
Publication of JP2010062649A publication Critical patent/JP2010062649A/ja
Application granted granted Critical
Publication of JP5091806B2 publication Critical patent/JP5091806B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Description

本発明は、テロップを有する映像を、シーンに分割する映像処理装置及びその方法に関する。
近年、放送の多チャンネル化等、又は、情報インフラの発展により、多くの映像コンテンツが流通するようになっている。一方で、ハードディスク・レコーダーやチューナー搭載パソコンのような録画装置の普及によって、映像コンテンツをデジタルデータとして保存し、画像処理を行うことでき、ユーザが効率的な視聴が可能となっている。
このような画像処理の1つとしては、1つの映像コンテンツを一定のまとまりのあるシーンに分割し、「頭出し」ができる機能がある。これらのシーンの開始点はチャプタ点とも呼ばれ、録画装置が自動的にチャプタ点を検出して設定したり、ユーザが任意の箇所にチャプタ点を設定できる。
映像をシーンに分割する方法として、カメラの切り替わりを境界として一つのシーンとする方法がある。また、特許文献1では、スポーツ映像を対象として、試合の経過時間や残り時間を表す競技タイムテロップを検出し、競技タイムテロップが表示されている区間のカメラの切り替わりをシーン境界としないことでシーンの過分割を抑制している。
特開2008−72232公報
スポーツ映像においては、競技の経過時間や残り時間を示すテロップが表示されるものがある。スポーツ映像は、このテロップの出現を検出することにより競技シーンを他のシーンと分割することができる。
しかし、スポーツ映像は、この競技タイムテロップの表示されている区間と競技シーンは必ずしも一致しない。例えば、スポーツ映像は、競技中なのに途中で競技タイムテロップが消えてしまったり、競技終了後もしばらく表示されていたりすることがある。そのため、従来の映像処理装置は、正しくシーン分割ができないという問題点がある。
そこで、本発明は、前記の問題点を解決するためになされたものであって、ユーザが見たいシーンへ分割することができる映像処理装置及びその方法を提供することを目的とする。
本発明は、複数フレームからなる映像を入力する映像入力部と、前記映像中の各フレーム区間において、任意の間隔で周期的に変化する周期変化領域を含むテロップ領域を検出し、前記テロップ領域から時間表示領域を検出する表示検出部と、前記テロップ領域を有する複数のフレーム区間を、それぞれ入力区間として設定し、前記複数の入力区間の中の任意の2つの前記入力区間を選択する区間選択部と、前記2つの入力区間における時間表示領域に基づいて、前記2つの入力区間のそれぞれの表示時間を算出する表示時間算出部と、前記2つの入力区間の表示時間に基づいて、前記2つの入力区間が一連のシーン区間であるか否かを判定し、前記一連のシーン区間であると判定した前記2つの入力区間を連続したシーン区間である出力区間として出力するシーン情報算出部と、を有することを特徴とする映像処理装置である。
本発明によれば、スポーツなどの映像を、ユーザが見たいシーンへ分割することができる。
以下、本発明の一実施形態に係る映像処理装置について図1〜図27に基づいて説明する。
なお、「映像」とは、複数のフレームからなる動画像という。
「フレーム区間」とは、フレーム開始時刻とフレーム終了時刻とで指定される複数のフレームを含む映像である。フレーム開始時刻とフレーム終了時刻とは、映像の流れに対応した時系列のフレーム時間における時刻である。同様に、フレーム開始時刻とフレーム終了時刻とで指定される複数のフレームを含む映像であるが、後述するシーン情報算出部103によって出力される出力区間に含まれるものを、本実施形態では「シーン区間」と称する。
「テロップ」とは、文字に限らず、画面上に合成された文字又は画像を指す。また、文字を含まない画像だけのロゴマークのようなものもテロップと呼ぶ。
「表示時間」とは、映像中にテロップで表示された、時間として認識できる数字をいう。
(1)映像処理装置の構成
図1に示すように、本実施形態の映像処理装置は、映像入力部101、表示検出部102、シーン情報算出部103を備えている。
映像入力部101は、複数の映像フレーム100からなる映像を入力する。
表示検出部102は、映像フレームから時間表示領域を含むテロップ領域を検出する。表示検出部102の詳細は後に図2〜図9に基づいて説明する。
シーン情報算出部103は、検出されたテロップ領域が表示されているフレーム区間に基づいてシーン情報を算出する。シーン情報算出部103の詳細は後に図11〜図26に基づいて説明する。
(2)映像入力部101
まず、映像入力部101について説明する。
映像入力部101は、1枚の映像フレーム100をメモリに読み込む。このとき、映像入力部101は、過去に読み込んだ映像フレーム100を既に蓄積している場合は、映像フレーム100がフレーム時間順に並ぶように蓄積する。この処理を、全映像フレーム100を読み込み終わるか、所定のフレーム数蓄積するまで繰り返す。処理が終わったら表示検出部102へ映像フレーム200として出力する。
(3)表示検出部102の構成
表示検出部102について、図2に基づいて説明する。
映像中からテロップ領域を検出する方法は様々な方法があるが、ここではその一例を示す。図2は表示検出部102の詳細な構成を示すブロック図である。
表示検出部102は、第1表示検出部201、第2表示検出部202、第3表示検出部203、統合部204を含んでいる。
スポーツ映像の競技タイムテロップのようなテロップ領域は、時間表示領域が周期的に変化する特徴を有している。また、映像中では図3のように様々なテロップが出現する。競技タイムテロップは、図3の右下のテロップのように、周辺の変化しない領域と共にテロップ文字が表示されるケースが非常に多い。そこで、まず仮テロップ領域を検出し、次に仮テロップ領域の内部に周期的に変化する周期変化領域を含む時間表示領域を競技タイムテロップのテロップ領域として検出する。図5(C)の例では、数字の8.1の部分が時間表示領域、数字の部分を含む外枠に囲まれた領域がテロップ領域となる。
第1表示検出部201は、蓄積された映像フレーム200を入力として、これらの映像フレーム200のうち、閾値以上の数フレームにわたって変化しない領域を仮テロップ領域として検出する。この仮テロップ領域は、ある閉領域であり、閉領域外部では変化する領域があっても構わない。すなわち、閉領域内部の変化する領域は非変化領域ではない。
第2表示検出部202は、仮テロップ領域に内包される領域を部分領域に分割し、一定の間隔でサンプリングされた隣接フレーム間で各部分領域の変化の有無を検出する。
第3表示検出部203は、所定の間隔で周期的に変化する部分領域を周期変化領域として検出する。
統合部204は、近接する位置の周期変化領域の集合を統合し、周期変化領域を含む仮テロップ領域を、時間表示領域を含むテロップ領域として検出する。
(4)表示検出部102の動作
次に、表示検出部102の動作について図4に基づいて説明する。
(4−1)ステップS401
まず、ステップS401において、第1表示検出部201は、入力された映像に含まれる複数の映像フレーム200にわたって長時間変化しない領域を仮テロップ領域として全て抽出する。第1表示検出部201は、検出した各仮テロップ領域について、その出現位置、大きさ、出現区間を記憶する。仮テロップ領域は、従来から使用されているテロップ検出技術を用いることで検出可能である。仮テロップ領域の検出方法の例としては、特開2007−274154公報で示されている方法がある。
(4−2)ステップS402
次に、ステップS402において、各部201,202,203,204は、ステップS403以降の処理を、検出した全ての仮テロップ領域について行う。
(4−3)ステップS403
次に、ステップS403において、第1表示検出部201は、検出した仮テロップ領域に内包される領域が存在するか調べ、存在する場合にはステップS404に進み、存在しなかった場合にはこの仮テロップ領域の検査を終了し、ステップS402に戻る。
(4−4)ステップS404
次に、ステップS404において、第2表示検出部202は、検出した仮テロップ領域に内包される領域を各部分領域に分割し、一定の間隔でサンプリングされた隣接フレーム間で各部分領域の変化の有無を検出する。
換言すれば、第2表示検出部202は、仮テロップ領域の外縁よりも内部の領域を部分領域に分割する。仮テロップ領域の外縁よりも内部の領域は、変化しない部分も含まれる場合がある。例えば後に説明する図5(B)の例では、右下の仮テロップ領域に含まれる2つの黒塗りの楕円領域は変化領域である。この結果、仮テロップ領域の表示区間中の各隣接フレーム対について、各部分領域の変化の有無が出力される。第2表示検出部202の詳細は、後に図6(A)、図6(B)に基づいて説明する。
仮テロップ領域に内包される領域は、図5のように検出した非変化領域を内包する最小の長方形を求め、この長方形の内部の領域とする。また、非変化領域に囲まれた領域だけをその領域としてもよい。
時間表示領域が仮テロップ領域からはみ出している場合もある。そこで、仮テロップ領域の内部だけでなく、周辺領域を対象として周期変化領域の検出を行ってもよい。
(4−5)ステップS405
次に、ステップS405において、第3表示検出部203は、仮テロップ領域に内包される領域中で、所定の間隔で周期的に変化する部分領域を周期変化領域として検出する。第3表示検出部203は、全ての部分領域について検査を行い、周期変化領域が検出された場合にはステップS406に進み、周期変化領域が全く検出されなかった場合にはその仮テロップ領域の検査を終了してステップS402に進む。第3表示検出部203の詳細は、後に図7に基づいて説明する。
(4−6)ステップS406
最後に、ステップS406において、統合部204は、近接する位置の周期変化領域の集合を統合し、周期変化領域を含む仮テロップ領域を、時間表示領域を含むテロップ領域として検出する。
検出されたテロップ領域は、シーン情報算出部103へ出力される。
そして、統合部204は、このテロップ領域の検査を終了し、ステップS402に戻る。統合部204の詳細は後に説明する。
(5)ステップS404の詳細
次に、ステップS404での領域変化の検出方法について図6(A)、図6(B)に基づいて説明する。第2表示検出部202が、画像の変化の有無を判定するには様々な方法があるが、ここではその一例を示す。
第2表示検出部202の動作は、仮テロップ領域に内包される領域を部分領域に分割するステップと、一定の間隔でサンプリングされた隣接フレーム間で各部分領域の変化の有無を検出するステップからなる。
(5−1)第1の領域変化の検出方法
第1の領域変化の検出方法は、図6(A)のように各画素を部分領域として、隣接フレーム間で各画素の変化の有無を判定する。
領域変化の有無の判定は、注目画素の隣接フレーム間での距離(類似度)をdとし、「d>閾値」を満たす場合に、変化したとみなす。距離(類似度)は、画素の色や輝度、輝度を閾値として2値化した数値などの特徴量の距離(類似度)を用いる。色の距離としては、RGB値やHSV値のユークリッド距離がある。Hは色相、Sは彩度、Vは輝度を示す。また、別の方法として、注目画素の周辺画素を含めたN画素の距離の平均d=Σd/Nを求め、「平均したd>閾値」を満たす場合に、注目画素が変化したとみなしてもよい。なお、Nは予め決定しておく。
(5−2)第2の領域変化の検出方法
第2の領域変化の検出方法は、図6(B)のように隣接する画素の集合を一つの部分領域として、変化の有無を検出する方法である。
変化の有無の判定方法としては、部分領域中で変化した画素の割合をrとし、「r>閾値」を満たす場合に、部分領域が変化したとみなす。各画素の変化の有無の検出には、前記の第1の領域変化の検出方法等を用いればよい。また、各領域の色ヒストグラムを用いて領域全体で比較してもよい。
(5−3)第3の領域変化の検出方法
第3の領域変化の検出方法は、エッジ画像を用いて領域変化を検出する方法である。これは、テロップ領域は高輝度で表示されることが多いという特徴を利用する。まず各フレームを輝度値で2値化する。そして、画素値が1(高輝度)の画素のうち、注目画素の上下左右の4画素とも1である場合は、注目画素の画素値を0に変更する。こうして得られたエッジ画像を用いて、前記の第1、第2の領域変化の検出方法で領域変化の検出を行う。
(6)ステップS405の詳細
次に、ステップS405での周期変化領域の検出方法について、図7に基づいて説明する。第3表示検出部203が、周期性を検出する方法は様々があるが、ここではその一例を示す。
(6−1)第1の方法
第1の方法について説明する。
第3表示検出部203は、所定の間隔で周期的に変化する部分領域を周期変化領域として検出する。
まず、第3表示検出部203は、検出したい領域の周期Cを決定する。
次に、第3表示検出部203は、周期Cで変化する領域を検出する。
次に、第3表示検出部203は、周期Cでサンプリングを行う。
次に、第3表示検出部203は、各部分領域を内包する仮テロップ領域の表示されているフレーム区間において、時間方向の変化率が閾値以上となる部分領域を、周期Cで変化する部分領域として検出する。時間方向の変化率は、仮テロップ領域の総出現時間に対する各部分領域の変化回数の比率により求める。
(6−2)第2の方法
周期Cで変化する領域を検出する第2の方法について説明する。
この第2の方法は、Nを整数として、Cよりも短い周期C/Nでサンプリングを行う方法である。前回その部分領域が変化してから次の変化までの間隔がCであった場合に周期変化したとみなし、周期変化の割合が閾値以上となる部分領域を周期Cで変化する周期変化領域として検出する。
図7に一例を示す。この例では検出周期をCとして、区間長が4Cの間に3回の周期変化が観測されたので、周期変化率は3/4となる。
(6−3)第3の方法
第3の方法は、検出したい領域の周期が事前に定まっていない場合の方法である。
第3の方法は、時間方向の変化の有無のデータを入力として周波数解析を行うことによって、各部分領域の周期変化の有無とその周期を求めることができる。
例えば、離散フーリエ変換を行って、その中で最大のスペクトルが事前に定めた閾値以上であれば、そのスペクトルの周期を持つ周期変化領域として出力する。
(7)ステップS406の詳細
最後に、ステップS406における統合部204のテロップ領域の検出方法について説明する。
統合部204は、近接する位置の同一周期の周期変化領域の集合を統合し、周期変化領域を含む仮テロップ領域を、時間表示領域を含むテロップ領域として検出する。
(7−1)第1の方法
まず、第2表示検出部202で各画素を一つの部分領域とした場合の第1の方法について説明する。
第2表示検出部202は、検出した各周期変化画素について、その画素からの距離がd以内の領域で、周期変化画素の割合が閾値以上となる場合に、その領域を周期変化領域として統合する。そして、第2表示検出部202は、周期変化領域を含む仮テロップ領域を、テロップ領域として検出する。
(7−2)第2の方法
第2表示検出部202で隣接する画素の集合を一つの部分領域とした場合の第2の方法について説明する。
第2表示検出部202は、各周期変化領域の画素数、又は距離の近い周期変化領域をまとめた合計の画素数nを求め、「n>閾値」となる場合にテロップ領域とする。
(7−3)第3の方法
統合部204は、第3の方法として、近接する位置の異なる周期を持つ周期変化領域を一つの周期変化領域として統合してもよい。時間表示領域は、図8のように異なる周期の複数の領域から成ることが多い。そこで、前記の第1、2の方法等を利用して検出した各周期の領域を統合して一つの周期変化領域とする方法もある。
この統合により、後の処理が簡単になったり、テロップ領域の検出精度を向上することができる。例えば、1秒周期で変化する領域の右隣に0.1秒周期で変化する領域があり、左隣に10秒周期で変化する領域があった場合、テロップ領域である可能性が非常に高い。逆に、周辺に周期的に変化する領域が存在しなかった場合、ごみとして除去するなどの処理を施してもよい。
(8)テロップ領域の検出精度向上のための処理
テロップ領域は、番組中で画像フレーム中の同じ位置に表示されることが多いという特徴がある。そこで、テロップ領域の検出精度向上のため、以下の処理を施してもよい。
まず、検出された複数の仮テロップ領域をその画像フレーム内での表示位置、大きさ、色情報に基づいていくつかのグループに分類する。グループ化の方法は、2つの仮テロップ領域の表示位置の重なる部分を求め、各々の仮テロップ領域の面積に対する重なる部分の比率が閾値以上あれば同一のグループとする。また、色ヒストグラムを用いて仮テロップ領域同士の類似度を計算しても良い。
次に、出現頻度の少ない仮テロップ領域のグループを削除する。グループの削除の基準は、例えば3つ以下からなるグループでもよいし、各グループの総出現時間を求め、総出現時間が番組の総時間に一定の比率をかけた値未満のグループを削除しても良い。
時間表示領域のタイムは常に変化しているわけではない。例えば、柔道やアメリカンフットボールなどでは、競技が頻繁に中断し、中断中はタイムの進行が止まる。
競技タイムテロップが表示されている間ほとんどタイムが止まっているようなフレーム区間の場合、検出したテロップ一つ一つについて周期変化を検出する方法ではうまく検出できない。
そこで、同じ番組中で何度も表示されるテロップをグループ化して平均の周期変化を検出することで、間にタイムが静止しているフレーム区間があっても正しく検出できるようになる。
(9)テロップ領域の検出方法の具体例
次に、表示検出部102の検出方法の具体例について図9に基づいて説明する。
まず、表示検出部102は、従来から用いられているテロップ抽出技術を用いて、映像中の仮テロップ領域とその表示区間を求める(図9(A)のステップS91、図9(B))。
次に、表示検出部102は、画像を輝度値で2値化する(図9(A)のステップS92)。
次に、表示検出部102は、1秒周期でサンプリングされた前後のフレーム間で画素値の変化を調べる(図9(A)のステップS93)。輝度値を2値化する際は、輝度値>150を満たす場合に1、それ以外を0とする。
次に、表示検出部102は、仮テロップ領域の表示されているシーン区間内で変化率が閾値以上となる画素を周期変化画素として検出する(図9(A)のステップS91、図9(C))。
最後に、表示検出部102は、周期変化画素が密集する領域を含んでいる仮テロップ領域をテロップ領域として検出する(図9(A)のステップS94、図9(D))。テロップ領域の判定は解像度によるが、360x240の場合、5x5の領域に10画素以上の周期変化画素が存在している場合に、その領域を含む仮テロップ領域をテロップ領域とする。
ここでは時間方向の変化率の閾値は0.3とする。時間方向の変化率とは、あるフレーム区間内で変化があった割合を示す。例えば、10フレームで3回変化があったら0.3とする。但し、閾値が高いとテロップ領域の未検出が増え、閾値が低いとテロップ領域以外の誤検出が増えるため、この値は実験的に求めるのが有効である。
(10)表示検出部102の変更例
表示検出部102は図2のような構成でなくてもよい。
例えば、特許文献1に示されている方法を用いても良い。
また、仮テロップ領域を検出してその内部の領域をテロップを認識し、テロップが数字と記号のみを含む場合にテロップ領域であると判定するなどの方法もある。テロップ認識は、従来から用いられているテロップ認識技術を使用して行うことができる。例えば、特開2007−102264公報で示されている方法などがある。
(11)シーン情報算出部103
シーン情報算出部103について説明する。
シーン情報算出部103は、テロップ領域が表示されているフレーム区間に基づいて、競技場面として出力する。例えば、テロップ領域が表示されているフレーム区間自体を競技場面として出力する方法がある。
しかし、このテロップ領域の表示されているフレーム区間と競技場面は必ずしも一致しない。図26の例に示すように、競技中なのに途中でテロップ領域が消えてしまったり、競技終了後もしばらく表示されることもある。シーン情報算出部103は、このような場面を検出し、真の競技場面を推定する。
本実施形態における競技シーンの算出の大まかな流れを図10に示す。
また、テロップ領域には、放送中の現在の時刻表示も含まれるが、これは競技場面の推定に不要なので除去する。この時刻表示は1分単位なので、周期が5秒以上のテロップ領域を除去するの処理などを行えばよい。
シーン情報算出部103は、検出されたテロップ領域について、テロップ領域の出現回数が閾値回数以上のグループ、又は、テロップ領域の総出現時間が閾値秒以上のテロップ領域のグループだけを、競技のシーン情報の算出対象とする。
次に、シーン情報算出部103について図11に基づいて説明する。図11はシーン情報算出部103の詳細な構成を示すブロック図である。
シーン情報算出部103は、区間入力部1101、シーン処理部1102、除去部1103、ラベリング部1104を含んでいる。
なお、シーン情報算出部103の各部1101〜1104は、複数のシーン区間を入力として処理を行い、処理後の複数のシーン区間を出力する。以後では簡単のため、入力した処理前の状態を「入力区間」、処理後の出力した状態を「出力区間」という。このため、ある処理部で出力された出力区間が別の処理部の入力区間として入力されることもある。図26の例では、上の行に示した時間進行
表示部分が入力区間を示し、下の行に示した競技場面が出力区間を示す。
区間入力部1101は、表示検出部102によって得られたテロップ領域の表示されている複数のフレーム区間を、入力区間としてシーン処理部1102に出力する。
シーン処理部1102は、任意の2つの入力区間を選択する。シーン処理部1102は、各入力区間中のフレームに含まれる時間表示領域の表示時間に基づいて、前記2つの入力区間が一連のシーン区間であるか判定する。シーン処理部1102は、一連のシーン区間であると判定した2つの入力区間を補間して統合して処理したシーン区間を出力区間として出力する。
除去部1103は、入力区間内で所定の条件を満たすフレーム区間を、特定のフレーム区間と異なるフレーム区間として取り除き、残りのフレーム区間を出力区間として設定し出力する。
ラベリング部1104は、出力された出力区間のうち、時間表示領域の静止区間を検出して、その静止区間が重要区間か中断区間かのラベリングを行う。
図11のブロック図はあくまで一例を示したものであり、シーン情報算出部103の処理部1101〜1104は必ずしも全てが必要なわけではなく、一部の処理だけを含んだり、順番が入れ替わっても良い。
シーン処理部1102や除去部1103では、フレーム区間のシーン処理や除去を行うとしているが、シーン処理や除去を行わずラベリングするだけでもよい。実際にシーン処理や除去を行うかどうかはアプリケーションや状況によって使い分ければよい。例えば、テロップ領域の表示区間が8分間で、8分のダイジェスト映像を作りたい場合には、時間表示領域の表示区間をそのまま用いればよい。5分のダイジェスト映像を作りたい場合には、テロップ領域の表示区間中でシーン外区間と判定された入力区間を除去し、残りの入力区間からダイジェスト映像を作成するなどの利用方法がある。
(12)シーン処理部1102
次に、図11のシーン処理部1102について図12に基づいて説明する。図12はシーン処理部1102の詳細な構成を示すブロック図である。
(12−1)目的
シーン処理部1102の目的について説明する。
スポーツ番組では、競技中にテロップ領域が消失し、再度表示されるような場合がある。この場合、テロップ領域が消失する前と再出現した後で、時間的な整合性がとれているかどうかを調べることで、前後の区間が同一の競技シーンであるかを判定することができる。例えば、図14のように、テロップ領域が消失する直前のタイムが10秒で、その5秒後に再びテロップ領域が出現して、そのタイムが15秒であれば、テロップ領域が消える前と後で同じ競技中であると判定し、前後のフレーム区間を連続させたシーン区間を真の競技場面とする。
また、柔道のような途中で中断区間を含むような競技の場合、中断中にテロップ領域が消失し、再度表示される場合がある。このような場合も、テロップ領域が消失する前の再出現した後のタイムを比較することで前後のフレーム区間が同一の競技場面であるか判定することができる。中断区間ではタイムが変化しないので、消失前後の時間表示領域の表示時間はほとんど変化していない。例えば、図17のように、テロップ領域が消失する直前のタイムが2:31秒で、その10秒後に再びテロップ領域が出現して、そのタイムが2:32秒であれば、テロップ領域が消える前と後で同じ競技中であると判定し、前後の区間を連続させたフレーム区間を真の競技場面とする。
(12−2)シーン処理部1102の構成
シーン処理部1102は、図12に示すように、第1シーン処理部1201、第2シーン処理部1202を含んでいる。
第1シーン処理部1201は、任意の2つの入力区間について、各入力区間中のフレームに含まれる時間表示領域の表示時間に基づいて、テロップ領域が消失していた入力区間の長さと、消失した前後の時間表示領域の表示時間の進みが同程度であるか比較する。第1シーン処理部1201は、同程度である場合には2つの入力区間が一連のシーンであると判定して、各入力区間を、連続したシーン区間である出力区間として出力する。
第2シーン処理部1202は、映像中でフレーム開始時刻の序列が連続している2つの入力区間に挟まれた入力区間のうち、第1シーン処理部1201で処理されなかった入力区間について判定する。第2シーン処理部1202は、この判定する入力区間について、前後の各入力区間中のフレームに含まれる時間表示領域の表示時間に基づいて、消失した前後の時間表示領域の表示時間の差を算出する。第2シーン処理部1202は、この差が小さい場合には2つの入力区間が一連のシーン区間であると判定して、各入力区間を連続したシーン区間である出力区間として出力する。
(12−3)第1シーン処理部1201の構成
第1シーン処理部1201は、第1区間選択部1301、フレーム選択部1302、実時間差分算出部1303、表示時間差分算出部1304、第1連続性判定部1305を含んでいる。
第1区間選択部1301は、複数の入力区間から任意の2つの入力区間を選択する。この場合に、第1区間選択部1301は、2つの入力区間の間には、任意のフレーム時間が存在するようにものを選択する。すなわち、第1区間選択部1301は、フレーム時間が連続した入力区間は選択しない。
フレーム選択部1302は、前記2つの入力区間からそれぞれ1フレームずつ選択する。
実時間差分算出部1303は、この選択した2つのフレームのフレーム出現時間の差分を、実時間差分として算出する。
表示時間差分算出部1304は、この選択した2つのフレーム中にそれぞれ含まれる時間表示領域の表示時間の差分を、表示時間差分として算出する。
第1連続性判定部1305は、実時間差分と表示時間差分の差が閾値以下となる場合に、前後一対の入力区間が一連のシーン区間であると判定する。
(12−4)第2シーン処理部1202の構成
第2シーン処理部1202は、第2区間選択部1601、フレーム選択部1602、表示時間差分算出部1603、第2連続性判定部1604を含んでいる。
第2区間選択部1601は、第1シーン処理部1201で補間されなかった一対の入力区間のうち、映像におけるフレーム開始時刻の序列(順序)が連続している2つの入力区間を選択する。
フレーム選択部1602は、フレーム開始時刻が早い時刻の入力区間の終了フレームと、遅い時刻の入力区間の開始フレームを選択する。
表示時間差分算出部1603は、この選択した2つのフレーム中にそれぞれ含まれる時間表示領域の表示時間の差分を、表示時間差分として算出する。
第2連続性判定部1604は、表示時間差分が閾値以下である場合に、前記2つの入力区間を連続したシーン区間である出力区間として出力する。また、第2連続性判定部1604は、前記2つの入力区間に挟まれた入力区間を、前記出力区間の中断区間として設定する。
(12−5)第1シーン処理部1201の動作
次に、第1シーン処理部1201の動作について説明する。
第1シーン処理部1201は、複数の入力区間から選択される全ての一対の入力区間について、以降の処理を行う。
まず、第1区間選択部1301は、複数の入力区間から任意の2つの入力区間を一対の入力区間として選択する。この選択時には、処理時間短縮や精度向上のため、制約条件をつけてもよい。例えば、2つの入力区間が時間的に近いペアだけを選択するなどの方法がある。開始時刻の序列が連続する2つの入力区間だけを選択しても良い。
次に、フレーム選択部1302は、選択された前記2つの入力区間からそれぞれ1フレームずつ選択する。選択するフレームは入力区間内であればどこでもよい。
次に、実時間差分算出部1303は、選択された2つのフレームのフレーム出現時間の差分を、実時間差分として出力する。選択した2つのフレームの実時間差分は、映像のサンプリングレートを用いて求めることができる。
次に、表示時間差分算出部1304は、選択した2つのフレーム中にそれぞれ含まれる時間表示領域の表示時間の差分を、表示時間差分として算出する。表示時間差分算出部1303の詳細は後に説明する。
次に、第1連続性判定部1305は、実時間差分と表示時間差分の差を求める。この差が閾値以下である場合に、前後の入力区間の時間的な整合性がとれているとみなし、一連のシーン区間であると判定する。例えば、差分が1秒以下の場合に一連のシーン区間と判定すればよい。
最後に、一連のシーン区間を連続させる処理を行い、出力区間として出力する。その結果、この出力区間の開始フレームは、フレーム出現時刻の早い時刻の入力区間の開始フレームとなり、終了フレームは、フレーム出現時刻の遅い時刻の入力区間の終了フレームとなる。
(12−6)表示時間差分算出部1304
次に、表示時間差分算出部1304の詳細について説明する。
表示時間差分算出部1304は、各フレーム中の時間表示領域をテロップ認識してタイムを求め、特定の単位に変換した後(1:30は90秒など)、差分を表示時間差分として出力する。テロップ認識は、従来から使用されているテロップ認識技術を用いればよい。
次に、時間表示領域をテロップ認識しないで区間連続性を判定する第1の方法について、図15に示す具体例を用いて説明する。
この第1の方法は、まず実時間差分が10秒(の倍数)となるように2つのフレームを選択する。次に、両フレームの時間表示領域中の秒を示す部分について類似度に基づくマッチングを行い、同一であると判定された場合に両フレーム区間が一連のシーンを表すと判定する。類似度の計算は、図4のステップS404における「第2の領域変化検出方法」で説明した方法を用いてもよいし、他の文献で提案されている方法を用いてもよい。時間表示領域中の秒を示す部分は、周期1秒で変化する領域として事前に求めておく。
時間表示領域の各単位(分、秒など)は、周期的に同じ数字になるという特徴がある。例えば3秒から13秒(10秒後)、13秒から23秒(20秒後)のように、秒の部分は10秒毎に同じ数字となる(この例では3)。図15の例では、番組開始から10秒〜20秒、25秒〜33秒を示すテロップ領域が観測されている。フレーム選択部1302では、番組開始から17秒のフレームと27秒のフレームをそれぞれ選択する。両フレームの時間表示領域中の秒を示す部分を比較し、マッチングがとれた場合には、前後のフレーム区間を一連のシーン区間であると判定する。
時間表示領域をテロップ認識しないで区間連続性を判定する第2の方法がある。この第2の方法は、前後の第1区間で時間表示領域の変化のタイミングが同じかどうかにより判定する。例えば、1秒周期で変化する時間表示領域の場合、秒間30フレームでサンプリングを行い、各フレームに0番から29番までの番号を付ける。前の入力区間では毎秒27番で時間表示領域が変化しており、後ろの入力区間でも毎秒27番で時間表示領域が変化していれば、前後の入力区間の変化のタイミングが同じなので、両フレーム区間が一連の競技シーンと判定することができる。
(12−7)第2シーン処理部1202の動作
次に、第2シーン処理部1202の動作について説明する。
第2シーン処理部1202は、第1シーン処理部1201で補間されなかった一対の入力区間のうち、映像におけるフレーム開始時刻の序列が連続している全ての一対の入力区間について、以降の処理を行う。
まず、第2区間選択部1601は、第1シーン処理部1201で補間されなかった一対の入力区間のうち、映像におけるフレーム開始時刻の序列が連続している任意の2つの入力区間を選択する。
フレーム選択部1602は、第2区間選択部1601で選択された2つの入力区間から、映像中でフレーム開始時刻が早い時刻の入力区間の終了フレームと、遅い時刻の入力区間の開始フレームを選択する。
表示時間差分算出部1603は、選択した2つのフレーム中にそれぞれ含まれる時間表示領域の表示時間の差分を、表示時間差分として算出する。表示時間差分算出部1603は、第1シーン処理部1201の表示時間差分算出部1304と同様の動作であるため詳細は省略する。
第2連続性判定部1604は、表示時間差分が閾値以下である場合に、前記2つの入力区間を、連続させる処理を行ったフレーム区間を出力区間として出力する。また、第2連続性判定部1604は、前記2つの入力区間に挟まれたフレーム区間を出力区間の中断区間として設定する。例えば、差分が3秒以下の場合に前後の入力区間が一連のシーン区間であると判定して処理すればよい。
最後に、一連のシーン区間を処理して、出力区間として出力する。その結果、出力区間の開始フレームは、フレーム出現時刻の早い時刻の入力区間の開始フレームとなり、終了フレームは、フレーム出現時刻の遅い時刻の入力区間の終了フレームとなる。
(12−8)その他
競技場面の判断は、前記方法とCM情報とを併用しても良い。生中継の番組の場合、テロップ領域が消える前と後で時間的な整合性があっても、途中でCMを挟んでいる場合がある。そこで、CM情報を利用し、テロップ領域が消えているフレーム区間がCMを含んでいる場合にはそのフレーム区間を競技場面としないという処理が有効である。CM情報は、従来から使用されているCM検出技術を用いることで生成可能である。例えば、特開2006−324770公報で示されている方法を利用すればよい。
また、その他の競技場面の判断方法としては、テロップ領域が消えている区間が短い(例えば10秒程度)場合には競技場面と判定してもよい。一つの競技が終了してから次の競技が始まる間にはしばらく時間があることが多いので、このような処理も効果的である。
また、第1シーン処理部1201で処理されなかった入力区間のうち、テロップ領域が消えている区間が短いものは競技の中断区間として判定することもできる。
(12−9)重要区間の設定
第1シーン処理部1102によって処理されたフレーム区間を含む出力区間を重要区間として設定してもよい。このことについて図18を用いて説明する。例えば、オリンピックなどの国際映像を用いた番組では、国際映像に競技タイムテロップが重畳されているため、競技中は基本的に競技タイムテロップが含まれている。しかし、日本選手などの注目選手が出場している競技では、競技の途中でその選手のアップを映した独自映像が入り、競技タイムテロップが一時的に消失する。この特徴を利用して、競技の途中で競技タイムテロップが消失する競技シーンを重要競技とみなすことができる。
また、前記のような特徴を利用してサムネイル画像の選択に用いることができる。競技タイムテロップが消えている入力区間は選手のアップが映っていることが多い。そのため、その入力区間内からサムネイル画像を選択し、その競技場面を現す代表画像として用いる。単純に競技の先頭をサムネイル画像として選択した場合、全ての競技で同じような映像が選択されてしまうのに対し、この方法を用いることで、代表画像により出場選手の把握が可能になる。
また、顔検出と組み合わせて用いてもよい。競技タイムテロップが消えている入力区間内で顔検出を行い、顔が検出されたフレームをサムネイル画像とすることで、精度よくサムネイル画像が選択できる。
(13)除去部1103
次に、シーン情報算出部103の除去部1103について図19に基づいて説明する。図19は除去部1103の詳細な構成を示すブロック図である。
テロップ領域は、競技が開始する少し前から表示されたり、図21に示すように競技終了後もしばらく表示されていることがある。このような区間を検出する方法として、時間表示領域が変化しているかどうかを利用する方法がある。競技中は時間表示領域のタイムは変化しているが、競技開始前や終了後は止まる。そのため、除去部1103は、時間表示領域が変化していない入力区間を求めることで不要な入力区間を除去できる。
また、陸上競技や競泳などのタイムを競う競技では、同じ種目のレースであっても、競技毎にゴールタイムがそれぞれ異なる。これを用いて、図23の例に示すようにリプレイのフレーム区間を検出することができる。例えば、同じ1000m走であっても、第1レースでは3:26であり、第2レースでは3:31といったように、異なるレースで同じタイムが出ることは稀である。それに対して、リプレイシーンでは元の映像と同じタイムとなる。そこで、ゴールタイムが同じものはリプレイシーンとして検出して、その入力区間を除去する。
除去部1103は、区間縮小部1901、リプレイ除去部1902を含んでいる。
区間縮小部1901は、入力区間内で時間表示領域が変化していない静止区間を検出する。区間縮小部1901は、入力区間の開始フレーム、又は、終了フレームのどちらか一方を含む静止区間を不要なものとして取り除く。区間縮小部1901は、残りの入力区間を出力区間として出力する。
リプレイ除去部1902は、任意2つの入力区間について、フレームの類似度に基づいて同一性を判定する。リプレイ除去部1902は、同一であると判定された場合に、フレーム出現時刻が遅い時刻の入力区間を、フレーム出現時刻が早い時刻の入力区間のリプレイシーンであるとして、入力区間から除去した入力区間を出力区間として出力する。
図19のブロック図はあくまで一例を示したものであり、除去部1103の処理部1901〜1902は必ずしも全てが必要なわけではなく、一部の処理だけを含んだり、順番が入れ替わっても良い。
(13−1)区間縮小部1901
次に、図19の区間縮小部1901について図20に基づいて説明する。図20は区間縮小部1901の詳細な構成を示すブロック図である。
区間縮小部1901は、変化検出部2001、静止区間算出部2002を含んでいる。
変化検出部2001は、時間表示領域を構成する各周期変化領域の変化の有無に基づいて時間表示領域の変化の有無を判定する。
静止区間算出部2002は、時間表示領域の変化率がその変化周期より著しく低い区間を静止区間として出力する。
次に、図19の区間縮小部1901の動作について説明する。
区間縮小部1901は、検出した全ての入力区間について、以降の処理を行う。
まず、変化検出部2001は、時間表示領域を構成する各周期変化領域の変化の有無に基づいて時間表示領域の変化の有無を判定する。
時間表示領域が同一周期の周期変化領域のみから構成されている場合、時間表示領域を構成する全周期変化領域を対象として、変化の有無の判定を行う。変化の有無の判定方法としては、図4のステップS404における「第2の領域変化検出方法」で説明した方法を用いればよい。
時間表示領域が複数の周期の周期変化領域から構成されている場合、その中で最も短い周期を持つ周期変化領域を対象として、変化の有無の判定を行う。変化の有無の判定方法としては、図4のステップS404における「第2の領域変化検出方法」で説明した方法を用いればよい。
静止区間算出部2002は、時間表示領域の表示時間方向の変化率がその変化周期よりも著しく低い区間を、時間表示領域が変化していない静止区間として出力する。
始めに、注目フレームの前後nフレームについて各隣接フレームを比較し、[変化した画素/周期変化領域に含まれる全画素]を閾値処理することにより時間表示領域の変化の有無を検出する。
そして、[前後nフレームの時間表示領域の変化回数/2n]を時間表示領域の時間方向の変化率として求める。静止区間を求める際の閾値には、変化周期Cに一定の比率Rを掛けた数値CxRを用いる。時間表示領域の変化率がCxR未満となる区間を静止区間とする。
最後に、入力区間の開始フレーム、又は、終了フレームを含む静止区間を不要なものとして取り除き、残りの入力区間を出力区間として出力する。
(13−2)リプレイ除去部1902
次に、図19のリプレイ除去部1902について図22に基づいて説明する。図22はリプレイ除去部1902の詳細な構成を示すブロック図である。
リプレイ除去部1902は、同一性判定部2201、リプレイ検出部2202を備えている。
同一性判定部2201は、任意の2つの入力区間について、入力区間の終了直前のフレームの全部又は一部を比較し、その類似度に基づいて同一性を判定する。
リプレイ検出部2202は、終了フレームが同一であると判定された場合に、映像中でテロップ領域の出現時刻が遅いシーンを出現時刻が早いシーンのリプレイであるとする。
次に、図19のリプレイ除去部1902の動作について説明する。
リプレイ除去部1902は、全ての入力区間の対について、以降の処理を行う。
まず、同一性判定部2201は、2つの入力区間について、入力区間の終了直前のフレームの全部又は一部を比較し、その類似度を閾値として同一性を判定する。画面全体の類似度、又は、映像中の時間表示領域の類似度を比較する。類似度の計算は、従来から使用されている画像比較技術を利用して求めることができる。
リプレイ検出部2202は、2つの入力区間が同一と判定された場合には、フレーム出現時刻が遅い時刻の入力区間を、フレーム出現時刻が早い時刻の入力区間のリプレイシーンであるとして出力する。
最後に、リプレイシーンであると判定された入力区間を取り除き、残りの入力区間を出力区間として出力する。
(14)ラベリング部1104
次に、シーン情報算出部103のラベリング部1104について図24に基づいて説明する。図24はラベリング部1104の詳細な構成を示すブロック図である。
ラベリング部1104は、第1静止区間判定部2401、第2静止区間判定部2402を含んでいる。
第1静止区間判定部2401は、入力区間中の非静止区間に挟まれた静止区間について、時間表示領域が静止していた入力区間の長さと、静止していた前後の時間表示領域の表示時間の進みが同程度であるか比較し、同程度である場合にはその静止区間を重要区間であると判定する。
第2静止区間判定部2402は、第1静止区間判定部2401で重要区間と判定されなかった静止区間について、前後の各入力区間中のフレームに含まれる時間表示領域の表示時間に基づいて、消失した前後の時間表示領域の表示時間の差が小さい場合には、その静止区間を中断区間であると判定する。
図24のブロック図はあくまで一例を示したものであり、ラベリング部1104の処理部2401〜2402は必ずしも全てが必要なわけではなく、一部の処理だけを含んだり、順番が入れ替わっても良い。
(14−1)第1静止区間判定部2401
第1静止区間判定部2401は、図13の第1シーン処理部1201とほぼ同様の構造のため、図は省略する。すなわち、第1静止区間判定部2401は、フレーム選択部1302、実時間差分算出部1303、表示時間差分算出部1304、第1連続性判定部1305を含んでいる。
フレーム選択部1302は、入力区間中の非静止区間に挟まれた静止区間について、その前後の入力区間からそれぞれ1フレームずつ選択する。
実時間差分算出部1303は、選択した2つのフレームのフレーム出現時間の差分を実時間差分として算出する。
表示時間差分算出部1304は、選択した2つのフレーム中にそれぞれ含まれる時間表示領域の表示時間の差分を、表示時間差分として算出する。
第1連続性判定部1305は、実時間差分と表示時間差分の差が閾値以下となる場合に、その静止区間が重要区間であると判定する。
(14−2)第2静止区間判定部2402
第2静止区間判定部2402は、図16の第2シーン処理部1202とほぼ同様の構造のため、図は省略する。第2静止区間判定部2402は、フレーム選択部1602、表示時間差分算出部1603、第2連続性判定部1604を含んでいる。
フレーム選択部1602は、第1静止区間判定部2401で重要区間と判定されなかった静止区間について、静止区間の終了フレームと直後の非静止区間の開始フレームの計2フレームを選択する。
表示時間差分算出部1603は、選択した2つのフレーム中にそれぞれ含まれる時間表示領域の表示時間の差分を、表示時間差分として算出する。
第2連続性判定部1604は、表示時間差分が閾値以下である場合に、その静止区間が中断区間と判定する。
(14−3)効果
ラベリング部1104の効果について説明する。
陸上競技等ではチェックポイントで、柔道などでは試合の中断で、タイムが一旦止まる場合がある。例えば図25(A)に示すように、陸上競技では1000mの通過時に通過タイムが表示されて、タイムがしばらく静止する。このような場合、タイムが静止した前後の区間での表示時間の変化と、タイムが静止していた区間の整合性をとることで、チェックポイントかどうかを判定することができる。
また、柔道では図25(B)に示すように、柔道では競技が途中で中断し、タイムがしばらく静止する。この場合、タイムが静止した前後の区間で表示時間がほとんど変化していないため、静止区間の前後の区間のタイムを比較することで中断区間かどうか判定することができる。
(14−4)その他の方法
その他の中断区間の判定方法は、前後の非静止区間に挟まれた時間表示領域の静止区間のうち、第1静止区間判定部2401で重要区間と判定されなかった入力区間を中断区間として判定してもよい。
チェックポイントか中断区間かを判定するには別の方法もある。例えば、陸上競技などでは100m、200mなどのチェックポイントで一旦タイムが止まるが、このとき図25(A)のようにテロップ領域の周辺にチェックポイントの距離を示すテロップが表示されることが多い。そこで、一般的なテロップ抽出方法などを用いて、タイムが止まった直後にテロップが出現したかどうかを検出し、テロップが見つかった場合にはその地点をチェックポイント、見つからなかった場合には中断区間として判定する。
また、競技のジャンル情報を用い、陸上競技や競泳などの競技番組では静止区間をチェックポイントと判定し、柔道やアメリカンフットボールでは静止区間を中断区間と判定してもよい。
(15)映像処理装置の利用方法
こうして求めた真の競技場面の情報を用いて、映像処理装置は、次のような利用方法が考えられる。
図27は、スポーツ番組の再生方法の一例を示したものである。「前の競技」ボタンを押すと、再生地点から一つ前の競技の開始フレームにジャンプする。「競技先頭」ボタンを押すと、再生地点が競技中であった場合だけ、その競技の先頭にジャンプする。「ゴール」ボタンを押すと、再生地点が競技中であった場合だけ、その競技の終了フレームの直前にジャンプする。このようなインターフェースを用いることで、ユーザは番組を効率的に視聴することが可能となる。
また、柔道などでは競技中に中断区間を多く含むため、中断区間を除いた競技場面をダイジェスト映像として作成する。
また、検出したチェックポイントにチャプタを打ったり、チェックポイントを含めたダイジェスト映像の作成に利用する。リプレイシーンは既に編集されたハイライトとなっていることが多いので、リプレイシーンの入力区間をそのままハイライトとして再生できる。同一の競技のリプレイシーンが複数ある場合には、そのうち一つだけを再生すればよい。
前記実施形態の映像処理装置によれば、抽出したテロップの領域内の変化の周期性を検出し、テロップの一部が周期的に変化する領域をテロップ領域として検出して、競技中にテロップ領域が消失したり競技終了後もしばらく表示されるフレーム区間を推定することにより、映像を適切なシーン区間へ分割することができる。
(16)映像処理装置の実現方法
映像処理装置の処理手順に示した指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記録しておき、このプログラムを読み込むことにより、前記した実施形態の映像処理装置による効果と同様な効果を得ることも可能である。前記の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータ又は組み込みシステムが読み取り可能な記録媒体であれば、その記録形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、前記した実施形態の映像処理装置と同様な動作を実現することができる。また、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼動しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行しても良い。
本願発明における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記録又は一時記録した記録媒体も含まれる。
記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
本願発明におけるコンピュータ又は組み込みシステムは、記録媒体に記録されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であっても良い。
本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
本願発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の一実施形態に係る映像処理装置のブロック図である。 表示検出部のブロック図である。 映像中で表示される競技タイムテロップの例を示す図である。 映像処理装置の動作の一例を示すフローチャートである。 映像中から抽出した仮テロップ領域と、仮テロップ領域に内包される領域の例を示す図である。 (A)は、仮テロップ領域に内包される領域を画素毎に部分領域として分割した例を示す図であり、(B)は、仮テロップ領域に内包される領域を、隣接画素の集合を部分領域として分割した例を示す図であり、(C)はテロップ領域の拡大図である。 周期変化領域の検出方法の一例を示す図である。 テロップ領域中の周期変化領域の構成を示す図である。 表示検出部の動作の一例を示す図である。 シーン情報算出部の動作の流れを示すフローチャートである。 図1のシーン情報算出部のブロック図である。 図11のシーン処理部のブロック図である。 図12の第1シーン処理部のブロック図である。 第1シーン処理部によるシーンの補間が行われる具体例を示す図である。 第1シーン処理部による区間同一性の判定の一例を示す図である。 図12の第2シーン処理部のブロック図である。 第2シーン処理部によるシーンの補間が行われる具体例を示す図である。 競技の途中でテロップ領域が消失する具体例を示す図である。 図11のシーン外区間除去部のブロック図である。 図19の区間縮小部のブロック図である。 区間縮小部によりシーン外区間の除去が行われる具体例を示す図である。 図19のリプレイ除去部のブロック図である。 リプレイ除去部によりシーン外区間の除去が行われる具体例を示す図である。 図11のラベリング部のブロック図である。 (A)は、陸上競技のチェックポイントでタイムが止まる例を示す図であり、(B)は、柔道の中断区間でタイムが止まる例を示す図である。 テロップ領域と真の競技場面の関係を示す図である。 真の競技場面の情報を用いたスポーツ映像の再生方法の一例を示す図である。
符号の説明
101 映像入力部
102 表示検出部
103 シーン情報算出部

Claims (13)

  1. 複数フレームからなる映像を入力する映像入力部と、
    前記映像中の各フレーム区間において、任意の間隔で周期的に変化する周期変化領域を含むテロップ領域を検出し、前記テロップ領域から時間表示領域を検出する表示検出部と、
    前記テロップ領域を有する複数のフレーム区間を、それぞれ入力区間として設定し、前記複数の入力区間の中の任意の2つの前記入力区間を選択する区間選択部と、
    前記2つの入力区間における時間表示領域に基づいて、前記2つの入力区間のそれぞれの表示時間を算出する表示時間算出部と、
    前記2つの入力区間の表示時間に基づいて、前記2つの入力区間が一連のシーン区間であるか否かを判定し、前記一連のシーン区間であると判定した前記2つの入力区間を連続したシーン区間である出力区間として出力するシーン情報算出部と、
    を有することを特徴とする映像処理装置。
  2. 前記区間選択部は、前記複数の入力区間の中で、前記各入力区間のフレーム開始時刻の順序が並んでいる2つの前記入力区間を選択する、
    ことを特徴とする請求項1記載の映像処理装置。
  3. 前記シーン情報算出部は、
    前記区間選択部で選択された2つの入力区間からそれぞれ1フレームずつ選択する第1フレーム選択部と、
    前記2つのフレームのフレーム出現時間の差分を、第1実時間差分として算出する第1実時間差分算出部と、
    前記2つのフレームの前記表示時間の差分を、第1表示時間差分として算出する第1表示時間差分算出部と、
    前記第1実時間差分と前記第1表示時間差分との差が第1閾値以下である場合に、前記2つの入力区間が前記一連のシーン区間であると判定する第1連続性判定部と、
    を有することを特徴とする請求項1記載の映像処理装置。
  4. 前記シーン情報算出部は、
    前記第1連続性判定部で処理されなかった前記2つの入力区間に挟まれた入力区間のうち、フレーム開始時刻が早い時刻の前記入力区間の終了フレームと、フレーム開始時刻が遅い時刻の前記入力区間の開始フレームを選択する第2フレーム選択部と、
    前記2つのフレームの前記表示時間の差分を、第2表示時間差分として算出する第2表示時間差分算出部と、
    前記第2表示時間差分が第2閾値以下である場合に、前記2つの入力区間が前記一連のシーン区間であると判定すると共に、前記2つの入力区間に挟まれた入力区間を、前記出力区間の中断区間として設定する第2連続性判定部と、
    を有することを特徴とする請求項3記載の映像処理装置。
  5. 前記シーン情報算出部は、前記出力区間を重要区間として設定する、
    ことを特徴とする請求項1記載の映像処理装置。
  6. 前記出力区間内の前記フレームから、サムネイル画像を選択するサムネイル画像選択部をさらに有し、
    サムネイル画像選択部は、出力区間内で時間表示領域が掲出していないシーン区間内の前記フレームを優先して選択する、
    ことを特徴とする請求項1記載の映像処理装置。
  7. 前記シーン情報算出部は、
    前記時間表示領域の周期変化が、任意の変化周期より低い前記入力区間を、静止区間として設定し、
    前記入力区間の開始フレーム、又は、終了フレームのどちらか一方に含まれる静止区間を前記入力区間から取り除き、残りの前記入力区間を前記出力区間として出力する、
    ことを特徴とする請求項1記載の映像処理装置。
  8. 前記シーン情報算出部は、
    前記2つの入力区間について、前記入力区間のそれぞれの終了直前のフレーム同士を比較して類似度を求め、前記類似度に基づいて前記各フレームの同一性を判定し、
    前記各フレームが同一であると判定された場合に、前記テロップ領域のフレーム出現時刻が遅い前記入力区間を、前記フレーム出現時刻が早い前記入力区間のリプレイシーンであると判定し、
    前記入力区間から、前記リプレイシーンと判定された前記入力区間を取り除いた前記入力区間を、前記出力区間として出力する、
    ことを特徴とする請求項1記載の映像処理装置。
  9. 前記シーン情報算出部は、
    前記時間表示領域の周期変化が、任意の変化周期より低い前記入力区間を、静止区間として設定し、
    前記静止区間を挟む前後の非静止状態の前記入力区間から1フレームずつ選択する第3フレーム選択部と、
    前記2つのフレームのフレーム出現時間の差分を、第3実時間差分として算出する第3実時間差分算出部と、
    前記2つのフレームの前記表示時間の差分を、第3表示時間差分として算出する第3表示時間差分算出部と、
    前記第3実時間差分と前記第3表示時間差分との差が第3閾値以下である場合に、前記静止区間を重要区間と判定する第1静止区間判定部と、
    を有することを特徴とする請求項1記載の映像処理装置。
  10. 前記シーン情報算出部は、
    前記重要区間であると判定されなかった前記静止区間について、前記静止区間の終了フレームと、前記静止区間の直後の非静止状態の前記入力区間の開始フレームの表示時間の差分を、第4表示時間差分として算出する第4表示時間差分算出部と、
    前記第4表示時間差分が第4閾値以下である場合に、前記静止区間が中断区間であると判定する第2静止区間判定部と、
    を有することを特徴とする請求項9記載の映像処理装置。
  11. 前記中断区間を除いた前記出力区間からダイジェスト映像を作成するダイジェスト映像作成部をさらに有する、
    ことを特徴とする請求項4又は10記載の映像処理装置。
  12. 複数フレームからなる映像を入力する映像入力ステップと、
    前記映像中の各フレーム区間において、任意の間隔で周期的に変化する周期変化領域を含むテロップを検出し、前記テロップから時間表示領域を検出する表示検出ステップと、
    前記時間表示領域を有する複数のフレーム区間を、それぞれ入力区間として設定し、前記複数の入力区間の中の任意の2つの前記入力区間を選択する区間選択ステップと、
    前記2つの入力区間における時間表示領域に基づいて、前記2つの入力区間のそれぞれの表示時間を算出する表示時間算出ステップと、
    前記2つの入力区間の表示時間に基づいて、前記2つの入力区間が一連のシーン区間であるか否かを判定し、前記一連のシーン区間であると判定した前記2つの入力区間を連続したシーン区間である出力区間として出力するシーン処理ステップと、
    を有することを特徴とする映像処理方法。
  13. 複数フレームからなる映像を入力する映像入力機能と、
    前記映像中の各フレーム区間において、任意の間隔で周期的に変化する周期変化領域を含むテロップを検出し、前記テロップから時間表示領域を検出する表示検出機能と、
    前記時間表示領域を有する複数のフレーム区間を、それぞれ入力区間として設定し、前記複数の入力区間の中の任意の2つの前記入力区間を選択する区間選択機能と、
    前記2つの入力区間における時間表示領域に基づいて、前記2つの入力区間のそれぞれの表示時間を算出する表示時間算出機能と、
    前記2つの入力区間の表示時間に基づいて、前記2つの入力区間が一連のシーン区間であるか否かを判定し、前記一連のシーン区間であると判定した前記2つの入力区間を連続したシーン区間である出力区間として出力するシーン処理機能と、
    をコンピュータによって実現することを特徴とする映像処理プログラム。
JP2008223666A 2008-09-01 2008-09-01 映像処理装置及びその方法 Expired - Fee Related JP5091806B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008223666A JP5091806B2 (ja) 2008-09-01 2008-09-01 映像処理装置及びその方法
US12/382,827 US8630532B2 (en) 2008-09-01 2009-03-24 Video processing apparatus and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008223666A JP5091806B2 (ja) 2008-09-01 2008-09-01 映像処理装置及びその方法

Publications (2)

Publication Number Publication Date
JP2010062649A JP2010062649A (ja) 2010-03-18
JP5091806B2 true JP5091806B2 (ja) 2012-12-05

Family

ID=41725584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008223666A Expired - Fee Related JP5091806B2 (ja) 2008-09-01 2008-09-01 映像処理装置及びその方法

Country Status (2)

Country Link
US (1) US8630532B2 (ja)
JP (1) JP5091806B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5634111B2 (ja) * 2010-04-28 2014-12-03 キヤノン株式会社 映像編集装置、映像編集方法及びプログラム
WO2012086616A1 (ja) * 2010-12-22 2012-06-28 株式会社Jvcケンウッド 映像処理装置、映像処理方法及び映像処理プログラム
JP5853667B2 (ja) * 2011-12-20 2016-02-09 株式会社ソシオネクスト 映像検出装置,映像記録装置,映像記録再生装置,映像検出方法,映像記録方法,および,映像記録再生方法
BR112015014557A2 (pt) * 2012-12-18 2017-07-11 Thomson Licensing método, aparelho e sistema para indexar conteúdo com base na informação do tempo
US10037380B2 (en) * 2014-02-14 2018-07-31 Microsoft Technology Licensing, Llc Browsing videos via a segment list
CN104202668B (zh) * 2014-09-09 2018-05-29 安一恒通(北京)科技有限公司 视频广告的过滤方法和装置
CN110569373B (zh) 2018-03-29 2022-05-13 北京字节跳动网络技术有限公司 一种媒体特征的比对方法及装置
CN110519655B (zh) * 2018-05-21 2022-06-10 阿里巴巴(中国)有限公司 视频剪辑方法、装置及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0324574A (ja) 1989-06-21 1991-02-01 Seiko Epson Corp 現像装置
JP3607717B2 (ja) 1993-07-28 2005-01-05 日本電信電話株式会社 映像切り出し方法
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JP3024574B2 (ja) 1996-11-25 2000-03-21 松下電器産業株式会社 動画像検索装置
US6219382B1 (en) * 1996-11-25 2001-04-17 Matsushita Electric Industrial Co., Ltd. Method and apparatus for locating a caption-added frame in a moving picture signal
KR100650127B1 (ko) * 1998-01-07 2006-11-24 톰슨 라이센싱 비디오 신호 처리 방법 및 장치
JP2000165806A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP3774738B2 (ja) 2000-03-31 2006-05-17 東芝ソリューション株式会社 テジタル記録媒体への変換サービス方法
US6580437B1 (en) * 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
US20050203927A1 (en) * 2000-07-24 2005-09-15 Vivcom, Inc. Fast metadata generation and delivery
US7162097B1 (en) * 2001-05-29 2007-01-09 Cisco Technology, Inc. Methods and apparatus for transform coefficient filtering
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US7020336B2 (en) * 2001-11-13 2006-03-28 Koninklijke Philips Electronics N.V. Identification and evaluation of audience exposure to logos in a broadcast event
EP2202649A1 (en) * 2002-04-12 2010-06-30 Mitsubishi Denki Kabushiki Kaisha Hint information describing method for manipulating metadata
TW200509676A (en) * 2003-07-03 2005-03-01 Matsushita Electric Ind Co Ltd Video processing apparatus, IC circuit for video processing apparatus, video processing method, and video processing program
US20060045346A1 (en) * 2004-08-26 2006-03-02 Hui Zhou Method and apparatus for locating and extracting captions in a digital image
KR100679027B1 (ko) * 2005-01-19 2007-02-05 삼성전자주식회사 Dc 성분의 손실 없이 영상을 코딩하는 방법 및 장치
JP4373961B2 (ja) * 2005-05-17 2009-11-25 株式会社東芝 映像録画再生装置及び映像録画再生方法
JP4528705B2 (ja) 2005-09-30 2010-08-18 株式会社東芝 文字認識装置および文字認識方法
WO2007073347A1 (en) 2005-12-19 2007-06-28 Agency For Science, Technology And Research Annotation of video footage and personalised video generation
KR100764175B1 (ko) * 2006-02-27 2007-10-08 삼성전자주식회사 맞춤형 방송 서비스를 위한 동영상의 중요 자막을 검출하는장치 및 방법
JP4377887B2 (ja) * 2006-03-30 2009-12-02 株式会社東芝 映像分割装置
JP4442585B2 (ja) * 2006-05-11 2010-03-31 三菱電機株式会社 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置
JP2008072232A (ja) * 2006-09-12 2008-03-27 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP4398994B2 (ja) * 2007-04-27 2010-01-13 株式会社東芝 映像処理装置及び方法

Also Published As

Publication number Publication date
US20100054691A1 (en) 2010-03-04
US8630532B2 (en) 2014-01-14
JP2010062649A (ja) 2010-03-18

Similar Documents

Publication Publication Date Title
JP5091806B2 (ja) 映像処理装置及びその方法
US7499077B2 (en) Summarization of football video content
JP4613867B2 (ja) コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム
JP4377887B2 (ja) 映像分割装置
US20080044085A1 (en) Method and apparatus for playing back video, and computer program product
EP1659519A2 (en) Method and apparatus for summarizing sports moving picture
KR20060027826A (ko) 비디오 처리장치, 비디오 처리장치용 집적회로, 비디오처리방법, 및 비디오 처리 프로그램
JP2005210234A (ja) 映像内容認識装置、録画装置、映像内容認識方法、録画方法、映像内容認識プログラム、および録画プログラム
US7149365B2 (en) Image information summary apparatus, image information summary method and image information summary processing program
JP2008283486A (ja) 情報処理装置、情報処理方法、およびプログラム
US20080266319A1 (en) Video processing apparatus and method
US8542983B2 (en) Method and apparatus for generating a summary of an audio/visual data stream
US20070292112A1 (en) Searching method of searching highlight in film of tennis game
JP2008072232A (ja) 情報処理装置、情報処理方法、およびプログラム
US20100079673A1 (en) Video processing apparatus and method thereof
KR100707205B1 (ko) 스포츠 동영상의 플레이 구간 검출 방법 및 장치
JP2009260762A (ja) ダイジェスト作成装置
JP2019125939A (ja) コマーシャル境界判定装置、コマーシャル境界判定方法、及びプログラム
KR20080087308A (ko) 음악과 영상의 동기화를 위한 피크 검출 장치 및 이를이용한 음악과 영상의 동기화 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees