JP2007274154A - 映像分割装置、テロップ抽出装置、方法およびプログラム - Google Patents

映像分割装置、テロップ抽出装置、方法およびプログラム Download PDF

Info

Publication number
JP2007274154A
JP2007274154A JP2006095057A JP2006095057A JP2007274154A JP 2007274154 A JP2007274154 A JP 2007274154A JP 2006095057 A JP2006095057 A JP 2006095057A JP 2006095057 A JP2006095057 A JP 2006095057A JP 2007274154 A JP2007274154 A JP 2007274154A
Authority
JP
Japan
Prior art keywords
line segment
video
image
telop
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006095057A
Other languages
English (en)
Other versions
JP4377887B2 (ja
Inventor
Koji Yamamoto
晃司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006095057A priority Critical patent/JP4377887B2/ja
Priority to US11/533,972 priority patent/US20070230781A1/en
Priority to EP07250673.6A priority patent/EP1845477A3/en
Priority to CNB2007100862287A priority patent/CN100499751C/zh
Publication of JP2007274154A publication Critical patent/JP2007274154A/ja
Application granted granted Critical
Publication of JP4377887B2 publication Critical patent/JP4377887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/635Overlay text, e.g. embedded captions in a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】映像を意味のあるシーンへ精度よく分割する。
【解決手段】複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段101と、時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出する抽出手段102,103と、線分の時間方向の区間に基づいて、時空間画像を複数のシーンに分割する分割手段103と、を具備する。
【選択図】図1

Description

本発明は、画面上で文字または画像が合成された映像データで、映像をシーンに分割、あるいは、映像に含まれるテロップを抽出するようにした、映像分割装置、テロップ抽出装置、方法およびプログラムに関する。
近年、放送の多チャンネル化等、情報インフラの発展により、多くの映像コンテンツが流通するようになっている。一方で、録画装置の側もハードディスク・レコーダーやチューナー搭載パソコンのような機器の普及によって、映像コンテンツをデジタルデータとして保存し、処理を行うことで、効率的な視聴が可能となっている。このような処理の1つとして1つの映像コンテンツを一定のまとまりのあるシーンに分割し、「頭出し」や「とばし見」ができる機能がある。これらのシーンの開始点はチャプタ点とも呼ばれ、機器が自動的にチャプタ点を検出して設定したり、ユーザが任意の箇所にチャプタ点を設定できる。
映像をシーンに分割する方法として、テロップの出現を検出し、同一のテロップが出現している区間を1つのシーンとする方法がある。例えば、テロップを検出するために、1フレーム内の画像をブロックに分割し、隣接する2フレーム間で輝度などが一定の条件を満たすブロックを抽出し、縦または横に連続するブロックをテロップ領域とする(例えば、特許文献1参照)。
特許第3024574号公報
テロップが出現している区間を1シーンとするには、そのテロップが出現している間、途切れることなくテロップを検出する必要がある。しかし、上述した技術では時間方向の連続性として隣接する2フレームの情報しか利用していない。そのため、背景の輝度変動により、検出されるテロップ領域の大きさが変化したり、テロップを検出できずにシーンが途切れてしまう問題がある。特に、映像を意味的なシーン分割するための重要なテロップは画面の隅に長時間表示されることが多いが、このようなテロップは、目立たないように色が薄かったり、半透明であったり、小さい文字で表示されたりするため、安定して検出することができない。
上述したように、従来技術では長時間表示される目立たないテロップが安定的に検出できないため、これらのテロップの出現区間に基づいてシーンを分割すると過剰に分割されたり、分割できずに精度が低下するという問題があった。
本発明は、上記の問題点を解決するためになされたものであって、映像を意味のあるシーンへ精度よく分割することが可能な、映像分割装置、テロップ抽出装置、方法およびプログラムを提供することを目的とする。
上述の課題を解決するため、本発明の映像分割装置は、複数の映像フレームが時刻順に複数配置されている時空間画像を格納する格納手段と、前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる時間軸に平行な線分を少なくとも1つ抽出する抽出手段と、前記線分の時間方向の区間に基づいて、前記時空間画像を複数のシーンに分割する分割手段と、を具備することを特徴とする。
本発明のテロップ抽出装置は、複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段と、前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出する抽出手段と、抽出された線分間の距離が閾値以下である場合にはこれら線分をテロップ領域として統合する統合手段と、を具備することを特徴とする。
本発明の映像分割装置、テロップ抽出装置、方法およびプログラムによれば、映像を意味のあるシーンへ精度よく分割することが可能になる。
以下、図面を参照しながら本発明の実施形態に係る映像分割装置、テロップ抽出装置、方法およびプログラムについて詳細に説明する。
本発明の本実施形態の映像分割装置、テロップ抽出装置、方法およびプログラムは、画面上で文字または画像が合成された映像データのフレームを時刻順に時空間画像として蓄積し、時空間画像を時間軸に平行な面で切断したスライス画像から時間軸に平行な線分を抽出し、抽出された線分の区間あるいは統合された領域に基づいて、前記映像をシーンに分割、あるいは、前記映像に含まれるテロップを抽出する。なお、ここでテロップとは文字に限らず、画面上に合成された文字または画像を差す。文字を含まない画像だけのロゴマークのようなものもテロップと呼ぶこととする。また、シーンとは、開始時刻と終了時刻とで指定される複数の映像フレームを含む映像である。
本実施形態では、テロップの出現区間を時空間画像内での線分として検出することにより、映像の意味的なシーンへの分割を可能とする。また、線分の領域を統合することで、テロップの領域を抽出する。本実施形態によれば、背景の色が変化したり、テロップが半透明であったり、小さいテロップであったりするような映像に対しても、テロップの出現区間を安定して検出することにより、精度の高いシーンの分割やテロップ領域の抽出が可能となる。
(第1の実施形態)
本実施形態に係る映像分割装置について図1を参照して説明する。
本実施形態の映像分割装置は、時空間画像蓄積部101、線分検出部102、シーン分割部103を備えている。
時空間画像蓄積部101は、映像に含まれている複数の映像フレーム100を入力し、複数の映像フレーム100を1つの時空間画像として蓄積する。時空間画像蓄積部101は、複数の時空間画像を蓄積することができる。時空間画像蓄積部101は、例えば、メモリを有していてメモリに、映像フレーム、時空間画像を蓄積する。時空間画像蓄積部101の詳細は後に図14、図15、図16、図17を参照して説明する。
線分検出部102は、時空間画像蓄積部101に蓄積されている、少なくとも1つの時空間画像から線分を検出する。線分検出部102の詳細は後に図2、図3、図5から図9B、図12A、図12Bを参照して説明する。
シーン分割部103は、線分検出部102で検出された線分に基づいて映像をシーンに分割し、シーン情報104を出力する。シーン分割部103の詳細は、後に図4A、図4B、図10、図11、図18、図19A、図19B、図20、図21A、図21B、図22、図23を参照して説明する。
次に、図1の映像分割装置の動作について図2を参照して説明する。以下、既に説明した装置部分と同様なものは同一の番号を付してその説明を省略する。
まず、時空間画像蓄積部101は1枚の映像フレームをメモリに読み込む(ステップS201)。このとき、時空間画像蓄積部101は、過去に読み込んだ映像フレームを既に蓄積している場合は、映像フレームが時間順に並ぶように蓄積する。このステップS201の処理を、全映像フレームを読み込み終わるか、メモリが一杯になるまで繰り返す(ステップS202)。メモリが一杯になった場合には、時空間画像蓄積部101は線分検出部102に途中までの時空間画像を出力し、その後途中からの時空間画像を時空間画像蓄積部101から取得後、線分検出部102でそれらの時空間画像を合成して1つの時空間画像を得る。
次に、線分検出部102は、1つの時空間画像から複数のスライス画像を生成し、複数の線分を検出する(ステップS203)。スライス画像については後に図3を参照して説明する。線分検出部102は、例えば、シーンの開始時刻から終了時刻までの区間時刻情報と、シーンの開始位置から終了位置までの区間位置情報とを含む区間情報(または線分情報と呼ばれる)を検出することになる。終了位置ステップS202においてメモリが一杯になったために、未処理の映像フレームが残っている場合はステップS201に戻り、全映像フレームを処理するまで繰り返す(ステップS204)。
次に、シーン分割部103は、線分検出部102で検出された線分の区間情報を基にして映像をシーンに分割する(ステップS205)。シーン分割部103は、例えば、区間の開始時刻にシーンの開始を示すチャプタ点を設定する。チャプタ点の設定は区間の開始時刻そのものではなくて、その前後にずらした時刻を用いてもよい。例えば、開始時刻より一定の時刻、早い時刻をチャプタ点としたり、最寄りのカット点(編集などにより映像が不連続となる箇所)としたりする。
次に、時空間画像とスライス画像の関係について図3を参照して説明する。
300は時空間画像を表しており、奥行き方向を時間軸として、時間順に並べられた映像フレームの集合である。すなわち、時空間画像は、時刻の小さい映像フレームから順に時間軸の対応する時刻上に映像フレームを並べた、複数の映像フレームからなる集合である。映像フレーム301は、時空間画像に含まれる1枚の映像フレームを抜き出したものを示す。
線分検出部102は時空間画像300を時間軸に平行な1つ以上の面で切断する。面は水平な面(y=一定)でもよいし、垂直な面(x=一定)でもよいし、斜めの面でもよいし、曲面であってもよい。線分検出部102は、最初、時空間画像を曲面で切断し、テロップが存在しそうな位置を探り、その次ぎに、探った位置近辺を切断するような面で時空間画像を切断してもよい。また、テロップは通常、画面の端近辺に存在することが多いので、端近辺を切断するような面で時空間画像を切断することが望ましい。
切断面が複数あるときは複数のスライス画像が生成される。yを1ずつずらしながら水平な面で切断すれば、画像の高さと同じ数のスライス画像が生成される。図3では、例として、y=s、s、sの3箇所の面で切断して3つのスライス画像を得ている。スライス画像302はy=sのスライス画像である。303のようなテロップを含む面で切断したスライス画像には、テロップと背景とのエッジ部分が304のような複数の線分の集合として現れる。線分検出部102はこれらの線分を検出する。検出方法については後に図5から図9Bを参照して説明する。
次に、図1のシーン分割部103が行う、テレビ番組のシーン分割例について図4A、図4Bを参照して説明する。
映像フレーム400では画面内にテロップ401やテロップ402が表示されている。図4Aでは、格闘技番組を例にテロップ401が対戦カードを示すテロップを示し、テロップ402が試合時間を示すテロップを示している。図4Bに示すように、横軸を時間軸として、映像中のテロップの出現時間について、テロップ401が表示区間403、テロップ402が表示区間404であったとする。この表示区間404の開始時刻に黒丸で示すチャプタ点405を設定し、映像をシーンに分割すると、例えば、406のようなシーンの一覧表示が可能となる。チャプタ点405を設定することがシーン分割に対応する。このシーンは対戦カードが切り替わる時刻やラウンド開始後の試合時間が表示される時刻に設定されるため、単純な画面の切り替わりなどから得られるカット点と異なり、意味的なシーンとして分割することができる。
次に、図2のステップS203での線分の検出方法について図5、図6、図7A、図7B、図8A、図8B、図9A、図9Bを参照して説明する。画像から線分を検出するには様々な方法があるが、ここではその一例を示す。
図5の線分500は、図3のスライス画像302における線分集合304のうちの一本の線分付近を拡大した図である。501は注目画素502(太線内)を中心にした一部の画素の配置を示す。以下、注目画素502が線分の一部であるか否かを判定する方法について図6、図7A、図7B、図8A、図8B、図9A、図9Bを参照して説明する。
まず、線分検出部102が、注目画素が一定以上の輝度であるか判定する(ステップS601)。これはテロップが背景に対して輝度が高い場合が多いためである。一定以上の輝度である場合はステップS602へ進む。そうでない場合は線分ではないとして処理を終了する。
次に、注目画素が時間軸方向に連続した色成分であるかを判定する(ステップS602)。図7Aのように、注目画素と、注目画素と同じ時間軸上にある別の画素との距離をdとし、「d < 閾値」を満たす場合、注目画素が時間軸方向に連続した色成分であると判定できる。ここでの距離には色や輝度などの特徴量の距離を用いる。色の距離としては、例えば、RGB値またはHSV値のユークリッド距離がある。Hは色相、Sは彩度、Vは輝度を示す。また、別の方法として、図7Bのように注目画素の近傍のN個の画素との距離の平均<d>=Σd/Nを求め、「<d> < 閾値」を満たす場合に注目画素が時間軸方向に連続した色成分であると判定してもよい。このNは予め決定しておく。以後同様。注目画素が時間軸方向に連続した色成分である場合はステップS604へ進む。そうでない場合は線分ではないとして処理を終了する。
次に、注目画素のエッジの強度が一定以上であるかを判定する(ステップS604)。図8Aのように、注目画素と、時間軸に直交する向きに隣接する画素との距離をdとし、「d > 閾値」を満たす場合、注目画素のエッジの強度が一定以上であると判定する。また、別の方法として、図8Bに示すように、注目画素の近傍のN個の隣接画素の組の距離の平均<d>=Σd/Nを求め、「<d> > 閾値」を満たす場合に注目画素のエッジの強度が一定以上であると判定してもよい。注目画素のエッジの強度が一定以上である場合は線分であるとして処理を終了する。そうでない場合は線分ではないとして処理を終了する。
次に、半透明の線分の検出を可能にするため、注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続しているかを判定する(ステップS603)。注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続していると判定された場合にはステップS604に進み、連続していないと判定された場合には線分ではないとして処理を終了する。図8Aと同様に、注目画素と隣接する画素との組の距離色成分ごとの差分を求め、図9Aのように時間軸方向に隣接する別の組との距離差分の差分距離dを求める。「d < 閾値」を満たす場合、注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続していると判定する。また、別の方法として、図9Bのように注目画素の近傍のN個の組との距離差分の差分距離の平均<d> = Σd/Nを求め、「<d> < 閾値」を満たす場合に注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続していると判定してもよい。
図6のフローチャートはあくまで一例を示したものであり、ステップS601〜S604の処理は必ずしもすべてが必要なわけではなく、一部の処理だけを含んだり、順番が入れ替わったり、他の処理を含んだフローを用いて判定してもよい。他の処理としては分断された微小な領域を結合したり除去するための線分の拡張や閾値処理なども含まれる。
線分の拡張は、図6のフローチャートの後の処理であり、例えば、注目画素の周りの9画素について5個以上が線分であるかどうかを判定する。5個以上が線分である場合にはその注目画素も線分に含まれ、5個以上が線分でない場合には注目画素は線分に含まれないとして、線分の拡張を行う。線分の閾値処理は、注目画素を他の線分と結合したり、注目画素を消去することである。例えば、注目画素が2つの線分の間に挟まれている場合には、2つの線分を1つの線分に結合して、その注目画素を新たな線分に含める。また、例えば、注目画素が線分から所定の距離以上離れている場合には、その線分を消去する。
次に、図1のシーン分割部103について図10を参照して説明する。図10はシーン分割部103の詳細な構成を示すブロック図である。
シーン分割部103は、線分統合部1001、区間長判定部1002、シーン決定部1003を含んでいる。
線分統合部1001は、線分検出部102によって得られた線分情報1000を入力し、複数の線分を統合する。区間長判定部1002は線分の区間長を判定する。シーン決定部1003は、線分からチャプタ点を決定して、シーン情報804を出力するチャプタ点決定部803とを備えている。
次に、シーン分割部103の詳細な動作について図11を参照して説明する。図11はシーン分割部の動作を示すフローチャートである。
まず、線分統合部1001が、線分iの時間方向の開始点と終了点との区間と、区間が重なる線分jを探索する(ステップS1101)。ただし、線分の総数をNとし、i,j=1,…,Nとする。区間が重なる線分jが存在する場合は、ステップS1102へ進む。そのような区間が存在しない場合はステップS1105へ進む。
線分統合部1001が、線分iと区間が重なる線分jの距離が閾値以下であるかを判定する(ステップS1102)。ここでの距離には時空間画像内での線分i及び線分jの空間的な距離を用い、時空間画像内で近傍に存在する場合に距離が小さくなる。例えば、画素数で距離を数える。また、色情報などを距離として用いてよい。これらの距離が閾値以下である場合はステップS1103へ進む。異なる場合はステップS1101へ戻り、次の線分jを探索する。
線分統合部1001が、線分jの時空間画像における領域を線分iの領域に統合する(ステップS1103)。ここで言う領域とは、x、y、t座標からなる3次元的な領域である。次に、ステップS1101へ戻り、次の線分jを探索する。次の線分jが存在しない場合は、ステップS1105へ進む。
線分統合部1001が、あるスライス画像中の全てのi=1,…,Nの線分iについて、処理が終了した場合はステップS1106へ進む(ステップS1105)。この処理が終了していない場合はiを更新し(ステップS1104)、ステップS1101へ戻って処理を繰り返す。ここまでが、線分統合部1001における処理であり、時空間画像内で一定の密度で存在している線分が統合される。
次に、区間長判定部1002が、統合された線分の領域の時間方向の区間長が一定値(閾値)に満たない場合に、この線分を削除する(ステップS1106)。区間長には、例えば、統合された線分の領域の時間軸方向の最大値−最小値を用いる。
次に、シーン決定部1003が、統合された線分の区間に基づきシーンを決定する(ステップS1107)。例えば、区間の開始時刻と区間の終了時刻との間を決定する。シーンの設定は区間の開始時刻、区間の終了時刻そのものからではなく、その時刻の前後にずらした時刻を使用して決定されてもよい。また、シーンではなく、チャプタ点を設定する場合もある。この場合は、例えば、区間の開始時刻にシーンの開始を示すチャプタ点を設定する。チャプタ点の設定は区間の開始時刻そのものではなくて、その前後にずらした時刻を用いてもよい。例えば、開始時刻より一定の時刻、早い時刻をチャプタ点としたり、最寄のカット点(編集などにより映像が不連続となる箇所)としたりする。
次に、線分が存在する否かの判定結果の信頼性が区間によって異なることがあり、その信頼性を考慮する場合の線分検出部102とシーン決定部1003に取って代わるブロックについて図12A、図12Bを参照して説明する。
図1の線分検出部102は、図12Aに示す1201のブロックに変更される。ブロック1201は、線分検出部102と評価値計算部1203を含んでいる。評価値計算部1203は、区間の評価値を計算する。評価値計算部1203は、画素ごとに評価値を計算する。評価値計算部1203は、例えば、時空間画像蓄積部101に蓄積されている時空間画像のあるスライス画像に含まれている画素ごとに評価値を計算する。評価値は、線分が存在するか否かの判定結果の信頼性を示し、評価値が低いほどこの判定結果の信頼性が低いことを示す。この評価値は、時空間画像内では背景の条件などにより変動する場合がある。信頼性が低くなる原因の例としては、テロップと背景の色や輝度が類似している場合が挙げられる。
図10のシーン決定部1003は、図12Bに示す1202のブロックに変更される。ブロック1202は、シーン決定部1003とシーン訂正部1204を含んでいる。シーン訂正部1204は、評価値計算部1203の計算結果のうち、評価値がある閾値よりも低い低信頼性区間にシーンの開始点またはシーンの終了点が付加されている場合には付加されている開始点または終了点を取除く。
次に、低信頼性区間が存在する場合の処理について図13を参照して説明する。
評価値計算部1203が、区間1301が低信頼性区間であると計算したとし、線分検出部102がこの区間での線分1302の検出に失敗し、線分が2つの区間に分かれたとする。このように線分の途中に低信頼性区間が存在する場合は、シーン訂正部1204は、チャプタ点を高信頼性区間での線分の開始点1303だけに設定し、点1304には設定しない。この処理によって過剰な分割を抑制できる。このようなブロック1201、1202を用いることで、同じ区間に存在する線分情報を統合し、統合された線分の領域からカット点を決定することができる。
他の方法としては、シーン決定部1003でシーンを決定する際に、低信頼性の区間に含まれている位置、もしくは、低信頼性の区間の近傍には、開始点および終了点を設定しないようにしてもよい。
次に、時空間画像蓄積部101が、映像フレームをそのまま入力するのではなく、時間的、空間的にサンプリングし、間引いたデータを入力することでメモリを削減する方法について図14を参照して説明する。図2の動作では、映像フレーム100をそのまま時空間画像蓄積部101に入力し、時空間画像を構成していた。このため、時空間画像蓄積部101は大量のメモリを必要としてしまう。
まず、時空間画像蓄積部101が映像を時間的にサンプリングする方法について説明する。最も簡単に時間的にサンプリングするには、一定の間隔で元映像から入力フレームを取り出せばよく、映像の形式を問わず有効である。
具体例として、MPEG−1やMPEG−2等の圧縮符号化された映像を高速に時間的にサンプリングする方法について図14を参照して説明する。
MPEG−1やMPEG−2では映像データは1フレーム単位で符号化されたIピクチャ1401、1403と他のフレームからの差分情報を符号化した、複数のPピクチャおよびBピクチャ1402から構成される。Iピクチャは一定の間隔で挿入され、その間にP、Bピクチャが並んでいる。そこで、時空間画像蓄積部101が、Iピクチャ1401、1403だけを抽出して入力映像フレームとすることで、時間的にサンプリングする。このように処理すれば、Iピクチャ1401、1403だけを復号すればよく、高速に処理できる。
次に、時空間画像蓄積部101が映像を時間的にサンプリングする別の方法について図15を参照して説明する。
元映像から映像をつなぎ合わせた編集点など、映像が不連続となるカット点1501、1502を予め検出しておく。このカット点1501、1502の前後の映像だけを入力とする。時空間画像蓄積部101は、例えば、カット点の前後数秒の映像を入力映像フレームとして取得する。カット点の前後ではテロップの出現、消失が起きる可能性が高いので、この部分だけを処理することで、処理範囲を限定し効率よく処理できる。
次に、時空間画像蓄積部101が映像を空間的にサンプリングする方法について説明する。最も簡単に空間的にサンプリングするには元映像のフレームを縦方向、横方向に一定の間隔でダウンサンプリングしてサムネールを作成する。
具体例として、時空間画像蓄積部101がMPEG−1やMPEG−2等の圧縮符号化された映像を高速に空間的にサンプリングする方法について図16を参照して説明する。
1600はMPEG−1やMPEG−2の圧縮された映像フレームを表している。映像フレーム1600はブロック1601のような複数の小ブロックに分割され、ブロック単位にDCTを用いて色情報が周波数情報に変換されている。DCT係数を1602のように左上から右下に向かって周波数成分が高くなるように配置すると、最も左上の1603の係数はDC(直流)成分となる。このDC成分はブロック1601の色情報の平均値と考えることができ、DC成分を1604のように元映像の1ブロックが1画素に対応する縮小画像を生成することができる。この方法はDC成分だけを復号すればよく逆DCTが不要となるので、高速な処理が可能である。
次に、時空間画像蓄積部101が空間的にサンプリングする別の方法について図17を参照して説明する。
映像フレーム400のうち画面中央部1701を除く周辺部分だけを入力とする。区間開始点、区間終了点、チャプタ点の設定に用いられるテロップは長時間表示されるため邪魔にならないように画面の周辺部分に表示されることが多いので、この画面中央部1701だけを処理することで、効率よく処理できる。
以上に説明した時間的、空間的なサンプリング方法は単独で用いられるだけでなく、複数の手法を組み合わせて用いてもよい。このように、時間的、空間的にサンプリングされた映像フレームを入力とすることで、時空間画像蓄積部101はメモリの使用量を削減し、高速な処理を可能とする。
(変形例)
図4Bのシーンの分割例はシーン間の関係は考慮しない例である。しかし、実際の映像では大まかに分割されたシーンがさらに詳細に分割できる階層的なツリー構造を持ったり、シーンの意味によってグループにまとめたりできることが多い。
次に、図10のシーン分割部103に、新たな構成を追加した、図1の変形例の映像分割装置について図18を参照して説明する。シーン分割部103は、新たにシーン構成検出部1801を含む。シーン構成検出部1801は、シーン決定部1003が決定したシーンについての情報を入力して、この情報に基づいてシーンの階層的構成やグループ構成などを検出する。
次に、図4のシーン分割例を用いて階層的なツリー構造の検出について図19A、図19Bを参照して説明する。
1901はシーン分割によって得られたチャプタ点である。シーン構成検出部1801は、これを対戦カードごとのシーン1902と、その子ノードとなるラウンドごとシーン1903に再構成し、階層的なシーン構成とする。
シーン構成検出部1801は、テロップの表示区間の包含関係に基づいて、これらのシーンの階層関係を求める。つまり、ラウンドごとのシーンを決める試合時間のテロップの表示区間404が対戦カードごとのシーンを決める対戦カードのテロップの表示区間403に包含されている場合に子ノードとする。
次に、シーン構成検出部1801の動作について図20を参照して説明する。図20は、包含関係に基づいて、階層的なシーンを検出する動作のフローチャートである。表示区間は線分に対応するので、線分の包含関係を利用する。
まず、線分iの時間方向の開始点、時間方向の終了点の区間に包含される線分jを探索する(ステップS2001)。ただし、線分の総数をNとし、i,j=1,…,Nとする。区間が包含される線分jが存在する場合は、ステップS2002へ進む。存在しない場合はステップS2004へ進む。
線分jを線分iの子ノードとして追加する(ステップS2002)。次に、ステップS2001へ戻り、次の線分jを探索する。次の線分jが存在しない場合は、ステップS2004へ進む。
ステップS2004で、全てのi=1,…,Nの線分iについて、処理が終了した場合は処理を終了する。処理が終了していない場合はiを更新し(ステップS2003)、ステップS2001へ戻って処理を繰り返す。
シーン構成検出部1801がこのように線分の包含関係から階層的なツリー構造を構築することで、大まかなシーンと詳細なシーンの切り替え表示などが可能になる。
次に、図4のシーン分割例を用いて、シーンのグルーピングについて図21A、図21Bを参照して説明する。
1600はシーン分割によって得られたチャプタ点である。シーン構成検出部1801は、これを対戦カードごとのシーン2101と、ラウンドごとシーン2102にグルーピングする。シーン構成検出部1801は、シーンのグルーピングを、テロップの位置や色などの特徴量の類似度に基づくクラスタリングにより行う。
次に、グルーピング結果に基づいて映像を本編とそれ以外に分ける例について図22A、図22Bを参照して説明する。
映像には複数のテロップが含まれており、グルーピングによって別々のグループに分かれている。そのうち、例えばテロップ2200を特定のテロップとし、その表示区間2201を本編と決定する。テロップ2200は、例えば、放送局名である。
次に、シーン構成検出部1801が、シーンのグルーピングを行い、そのうちの特定のグループを本編として再生させるための処理について図23を参照して説明する。
まず、線分の領域から特徴量を抽出し、線分の特徴量ベクトルを求める(ステップS2301)。特徴量とは画面内での表示位置や大きさ、色情報などである。
次に、各線分間の特徴量ベクトルの距離に基づいて、線分のクラスタリングを行う(ステップS2302)。ここで得られたクラスタがグループとなる。シーン構成検出部1801は、例えば、線分ごとに、画像フレーム内での線分の表示位置、線分の大きさ、線分の色情報の少なくともいずれかを含む特徴量を有し、この特徴量の類似度が閾値以上の線分同士を同一グループに属すると判定する。
次に、各グループが再生条件を満たすかを調べ、再生条件を満たすグループを本編として、グループに含まれる線分の区間を再生するように設定する(ステップS2303)。再生条件は、例えば、線分と同様な特徴量、具体的なテロップの形状、テロップの位置、テロップの大きさがある。例えば、放送局ごとに決まったロゴマークのようなもの(例えば、テロップ2200)が本編だけに表示される場合、それを再生条件としてそのロゴマークが表示された区間だけを再生する。
他の再生条件の例としては、図21Bのように取得した複数のシーンにおいて、シーン2101の2つのシーンでそれらのシーン区間の時間をそれぞれt、t、シーン2102の6つのシーンでそれらのシーン区間の時間をそれぞれt、t、t、t、t、tとすると、「t+t > t+t+t+t+t+t」がある。この再生条件を満たした場合には、例えば、t、tを本編とする。すなわち、グルーピングの結果、最大(最長)のグループを本編とする。
このように映像を本編とそれ以外に分割し、本編だけを再生することで短時間での視聴を可能にする。
また、図23のフローチャートではグルーピング結果から再生条件を満たすグループを検索し、そのグループだけを再生するとしたが、グルーピングをせずに全ての線分と再生条件を比較して、条件を満たす線分の区間を本編としてもよい。
次に、シーン構成検出部1801がグルーピング結果を使用した階層構造を修正することについて図24を参照して説明する。
シーンの階層的な関係の構築とグルーピングとは組み合わせて用いることもできる。例えば、図24のように階層的なツリー構造2400が既に得られているとする。線分の包含関係に基づいて構築された場合、各階層のシーンは必ずしも同じ意味を持つとは限らない。そこで、下図の2401のようにグルーピング結果に基づいて、各階層のグループが同じになるようにツリーを再構成する。
次に、シーン構成検出部1801が行う、CM区間が含まれる映像のシーン分割について図25を参照して説明する。この例は、入力映像にCM(広告・宣伝)の区間が含まれる場合である。
CM区間2500が存在する映像の中で、同一のシーンとする区間(例:番組のコーナー)が2501のように続いているとする。通常、テロップはCM区間では表示されないので、検出される表示区間は2502のように分割され、チャプタ点2503、2504が設定される。しかし、番組をコーナー単位に分割するなど、同一のシーンとする区間1901に対して、1つだけチャプタ点が設定される方が望ましい場合もある。このような場合、シーン構成検出部1801は、CM区間情報を取得し、CM区間を挟む場合にはチャプタ点を設定しない。つまり、CM区間直後のチャプタ点2504は破棄する。CM区間情報は、従来から使用されているCM検出技術を用いることで生成可能である。
以上に説明した第1の実施形態の映像分割装置によれば、映像からテロップの存在する区間を線分として検出し、その区間に基づいて区間区切り点(例えば、チャプタ点)を設定することによって、映像をシーンに精度よく分割することが可能となる。
なお、この映像分割装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、時空間画像蓄積部101、線分検出部102およびシーン分割部103は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、映像分割装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。
(第2の実施形態)
本発明の第2の実施形態に係るテロップ抽出装置について図26を参照して説明する。
本実施形態のテロップ抽出装置は、時空間画像蓄積部101、線分検出部102、テロップ領域抽出部2601を備えている。テロップ領域抽出部2601は、線分検出部102で検出された線分に基づいてテロップを抽出し、テロップ領域情報2602を出力する。
次に、図26のテロップ抽出装置の動作について図27を参照して説明する。図27は、本発明の第2の実施形態に係るテロップ抽出装置の動作を示すフローチャートである。第2の実施形態のテロップ抽出装置は第1の実施形態の映像分割装置のシーン分割部をテロップ領域抽出部に変更したものであり、該当部分以外の処理は第1の実施形態と同様である。以下、既に説明したステップと同様なものは同一の番号を付してその説明を省略する。
テロップ領域抽出部2601が、検出された線分の領域を統合する(ステップS2701)。ここで言う領域とはx、y、t座標からなる3次元的な領域である。時空間画像内でテロップが存在する部分は複数の線分が高い密度で存在しているので、線分間の区間の重なりや空間的な距離に基づき、これらの線分の領域を統合する。
次に、テロップ領域抽出部2601が、ステップS2701で統合された線分の領域に基づいて、テロップの領域を含むテロップ情報を出力する(ステップS2702)。テロップ情報は、図28を参照して説明するように、2次元的な領域であり、テロップが存在する領域を示す。
次に、図27のステップS2702での処理である、統合された線分の領域からテロップの領域を求める方法について図28を参照して説明する。
ステップS2701で統合された線分の領域2800はx、y、t空間内の3次元的な領域である。テロップ領域抽出部2601は、これをx、y平面に射影し、x、y平面内での2次元的な領域をテロップの領域2801を求め、この領域を示す座標をテロップ情報とする。また、テロップ領域抽出部2601は、射影されたテロップ領域を囲む矩形領域2802を求め、これの座標をテロップ情報として出力する。
テロップ領域抽出部2601は、x、y、t空間からx、y平面に射影するとき、統合領域2800の各x、y座標における時間方向の長さが一定値、あるいは統合領域全体に対する一定割合に満たない場合はx、y平面に射影せずに無視してもよい。
以上に説明した第2の実施形態に係るテロップ抽出装置によれば、映像からテロップの存在する区間を線分として検出し、その時空間画像内での領域に基づいてテロップ領域を抽出することが可能となる。
なお、このテロップ抽出装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、時空間画像蓄積部101、線分検出部102およびテロップ領域抽出部2601は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、テロップ抽出装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。
また、上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の映像分割装置、テロップ抽出装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の映像分割装置、テロップ抽出装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーションシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本願発明における記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本願発明におけるコンピュータまたは組み込みシステムは、記憶媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第1の実施形態に係る映像分割装置のブロック図。 図1の映像分割装置の動作の一例を示すフローチャート。 時空間画像とスライス画像の関係を示す図。 図1のシーン分割部が行う処理を説明するための図。 図4Aに対応するシーン分割例を示す図。 図3の線分集合のうちの一本の線分付近を拡大した図。 図2のステップS203の線分検出方法の一例を示すフローチャート。 注目画素と、注目画素と同じ時間軸上にある別の画素との距離を示す図。 注目画素の近傍のN個の画素との距離の平均を示す図。 注目画素と、時間軸に直交する向きに隣接する画素との距離を示す図。 注目画素の近傍のN個の隣接画素の組の距離の平均を示す図。 時間軸方向に隣接する別の組との距離の差分を示す図。 注目画素の近傍のN個の組との距離の差分の平均を示す図。 図1のシーン分割部のブロック図。 図10のシーン分割部の動作の一例を示すフローチャート。 図1の線分検出部が変更されるブロック図。 図1のシーン決定部が変更されるブロック図。 低信頼性区間が存在する場合の処理を説明するための図。 圧縮符号化された映像を高速に時間的にサンプリングする方法について説明するための図。 時間的にサンプリングする別の方法について説明するための図。 圧縮符号化された映像を高速に空間的にサンプリングする方法について説明するための図。 空間的にサンプリングする別の方法について説明するための図。 図1のシーン分割部のブロック図。 図1のシーン分割部が行う階層的なツリー構造を検出する処理を説明するための図。 図19Aに対応するシーン分割例を示す図。 図18のシーン構成検出部の動作の一例を示すフローチャート。 図1のシーン分割部が行うシーンのグルーピング処理を説明するための図。 図21Aに対応するシーン分割例を示す図。 図1のシーン分割部が行う映像を本編とそれ以外に分ける処理を説明するための図。 図22Aに対応するシーン分割例を示す図。 図18のシーン構成検出部の動作を含むフローチャート。 図18のシーン構成検出部が階層構造を修正することを説明するための図。 図18のシーン構成検出部が行うCM区間が含まれる映像のシーン分割処理について説明するための図。 本発明の第2の実施形態に係るテロップ抽出装置のブロック図。 図26のテロップ抽出装置の動作の一例を示すフローチャート。 図27のステップS2702を説明するための図。
符号の説明
100,301,400,1600…映像フレーム、101…時空間画像蓄積部、102…線分検出部、103…シーン分割部、104…シーン情報、300…時空間画像、302…スライス画像、304…線分集合、401,402…テロップ、403,404,2201…表示区間、405,2503,2504…チャプタ点、500,1302…線分、502…注目画素、803…チャプタ点決定部、804…シーン情報、1000…線分情報、1001…線分統合部、1002…区間長判定部、1003…シーン決定部、1201,1202…ブロック、1203…評価値計算部、1204…シーン訂正部、1301,1901,2500…区間、1303…開始点、1401,1402…ピクチャ、1501…カット点、1601…ブロック、1701…画面中央部、1801…シーン構成検出部、1902,1903,2101,2102…シーン、2200…テロップ、2400…ツリー構造、2601…テロップ領域抽出部、2602…テロップ領域情報、2800…統合領域、2801…テロップ領域、2802…矩形領域。

Claims (15)

  1. 複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段と、
    前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出する抽出手段と、
    前記線分の時間方向の区間に基づいて、前記時空間画像を複数のシーンに分割する分割手段と、
    を具備することを特徴とする映像分割装置。
  2. 前記抽出手段は、前記線分の時間方向の区間長が閾値未満の場合は、該線分を削除することを特徴とする請求項1に記載の映像分割装置。
  3. 前記分割手段は、抽出された線分のうち線分間の距離が閾値以下であるものを一つの線分に統合する統合手段を含み、
    前記分割手段は、前記統合手段で前記線分を統合してから、前記時空間画像を複数のシーンに分割する、
    ことを特徴とする請求項1または請求項2に記載の映像分割装置。
  4. 前記抽出手段は、前記時空間画像のあるスライス画像に含まれている画素ごとに、線分が含まれているか否かの判定結果の信頼性を示す評価値を計算する計算手段を含み、
    前記分割手段は、前記評価値が閾値よりも低い時間方向の区間では、シーンに分割しないことを特徴とする請求項1に記載の映像分割装置。
  5. 前記格納手段は、複数の前記映像フレームから時間的に間引かれた一部の映像フレームを入力することを特徴とする請求項1から請求項4のいずれか1項に記載の映像分割装置。
  6. 前記格納手段は、前記映像フレームごとに大きさを縮小して入力する、または、映像フレームごとに映像フレーム内の一部の領域だけを入力することを特徴とする請求項1から請求項4のいずれか1項に記載の映像分割装置。
  7. 前記分割手段は、線分ごとに、時間方向の第1の線分の開始点から時間方向の第1の線分の終了点までの表示区間に含まれる第2の線分を、第1の線分の階層の下の階層に属すると判定する判定手段を含むことを特徴とする請求項1から請求項6のいずれか1項に記載の映像分割装置。
  8. 前記分割手段は、線分ごとに、画像フレーム内での線分の表示位置、線分の大きさ、線分の色情報の少なくともいずれかを含む特徴量を有し、該特徴量の類似度が閾値以上の線分同士を同一グループに属する判定する判定手段を含むことを特徴とする請求項1から請求項7のいずれか1項に記載の映像分割装置。
  9. 前記分割手段は、複数の前記グループのうち、時間方向の区間が最大のグループに対応する区間を本編とし、該本編とそれ以外に分割することを特徴とする請求項8に記載の映像分割装置。
  10. 前記分割手段は、特定の文字に対応する線分または特定の画像に対応する線分が検出される時間方向の区間を本編とし、該本編とそれ以外に分割することを特徴とする請求項1から請求項6のいずれか1項に記載の映像分割装置。
  11. 複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段と、
    前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出する抽出手段と、
    抽出された線分間の距離が閾値以下である場合にはこれら線分をテロップ領域として統合する統合手段と、
    を具備することを特徴とするテロップ抽出装置。
  12. 複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段を用意し、
    前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出し、
    前記線分の時間方向の区間に基づいて、前記時空間画像を複数のシーンに分割することを特徴とする映像分割方法。
  13. 複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段を用意し、
    前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出し、
    抽出された線分間の距離が閾値以下である場合にはこれら線分をテロップ領域として統合することを特徴とするテロップ抽出方法。
  14. コンピュータを、
    複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段と、
    前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる、時間軸に平行な線分を少なくとも1つ抽出する抽出手段と、
    前記線分の時間方向の区間に基づいて、前記時空間画像を複数のシーンに分割する分割手段として機能させるための映像分割プログラム。
  15. コンピュータを、
    複数の映像フレームが時刻順に配置されている時空間画像を格納する格納手段と、
    前記時空間画像の時間軸に平行な面での切断面に相当するスライス画像に含まれる時間軸に平行な線分を少なくとも1つ抽出する抽出手段と、
    抽出された線分間の距離が閾値以下である場合にはこれら線分をテロップ領域として統合する統合手段として機能させるためのテロップ抽出プログラム。
JP2006095057A 2006-03-30 2006-03-30 映像分割装置 Expired - Fee Related JP4377887B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006095057A JP4377887B2 (ja) 2006-03-30 2006-03-30 映像分割装置
US11/533,972 US20070230781A1 (en) 2006-03-30 2006-09-21 Moving image division apparatus, caption extraction apparatus, method and program
EP07250673.6A EP1845477A3 (en) 2006-03-30 2007-02-19 Moving image division apparatus, caption extraction apparatus, method and program
CNB2007100862287A CN100499751C (zh) 2006-03-30 2007-03-09 运动图像分割设备、字幕提取设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095057A JP4377887B2 (ja) 2006-03-30 2006-03-30 映像分割装置

Publications (2)

Publication Number Publication Date
JP2007274154A true JP2007274154A (ja) 2007-10-18
JP4377887B2 JP4377887B2 (ja) 2009-12-02

Family

ID=38460968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095057A Expired - Fee Related JP4377887B2 (ja) 2006-03-30 2006-03-30 映像分割装置

Country Status (4)

Country Link
US (1) US20070230781A1 (ja)
EP (1) EP1845477A3 (ja)
JP (1) JP4377887B2 (ja)
CN (1) CN100499751C (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118205A (ja) * 2007-11-07 2009-05-28 Hitachi Ltd 動画処理装置及び動画処理方法
JP2010062649A (ja) * 2008-09-01 2010-03-18 Toshiba Corp 映像処理装置及びその方法
JP2010109852A (ja) * 2008-10-31 2010-05-13 Hitachi Ltd 映像インデクシング方法、映像録画再生装置、及び映像再生装置
JP2010130700A (ja) * 2009-12-08 2010-06-10 Toshiba Corp 映像解析装置およびプログラム
JP2012044615A (ja) * 2010-08-23 2012-03-01 Nec Personal Computers Ltd 情報処理装置、動画ファイル編集方法及びプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4398994B2 (ja) * 2007-04-27 2010-01-13 株式会社東芝 映像処理装置及び方法
US8079054B1 (en) * 2008-04-14 2011-12-13 Adobe Systems Incorporated Location for secondary content based on data differential
US8121424B2 (en) * 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
CN101764950B (zh) * 2008-11-10 2013-08-14 新奥特(北京)视频技术有限公司 一种基于区域划分的节目下字幕的冲突检测方法
JP5326555B2 (ja) * 2008-12-25 2013-10-30 ソニー株式会社 情報処理装置、動画像切り出し方法および動画像切り出しプログラム
JP4459292B1 (ja) * 2009-05-29 2010-04-28 株式会社東芝 テレビショッピング番組の検出方法およびこの方法を用いる映像装置
CN101719144B (zh) * 2009-11-04 2013-04-24 中国科学院声学研究所 一种联合字幕和视频图像信息进行场景分割和索引的方法
US10462414B2 (en) * 2009-12-31 2019-10-29 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
CN101901620A (zh) * 2010-07-28 2010-12-01 复旦大学 视频内容索引文件的自动产生、编辑方法与应用
CN103186780B (zh) * 2011-12-30 2018-01-26 乐金电子(中国)研究开发中心有限公司 视频字幕识别方法及装置
JP6140416B2 (ja) * 2012-10-10 2017-05-31 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、情報処理方法およびプログラム
CN105635789B (zh) * 2015-12-29 2018-09-25 深圳Tcl数字技术有限公司 降低视频图像中osd亮度的方法和装置
CN105744356B (zh) * 2016-01-29 2019-03-12 杭州观通科技有限公司 一种基于内容的视频分段方法
CN108345893B (zh) * 2018-03-15 2021-01-26 京东方科技集团股份有限公司 一种直线检测方法、装置、计算机存储介质及终端
JP7225810B2 (ja) * 2019-01-11 2023-02-21 富士通株式会社 ひび線抽出装置、ひび線抽出方法、及び、ひび線抽出プログラム
CN110147733B (zh) * 2019-04-16 2020-04-14 北京航空航天大学 一种跨域的大范围场景生成方法
CN110602527B (zh) 2019-09-12 2022-04-08 北京小米移动软件有限公司 视频处理方法、装置及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
US5767922A (en) * 1996-04-05 1998-06-16 Cornell Research Foundation, Inc. Apparatus and process for detecting scene breaks in a sequence of video frames
JPH1055656A (ja) * 1996-08-08 1998-02-24 Sony Corp 受信情報記録システム
JPH11185459A (ja) * 1997-12-24 1999-07-09 Sony Corp 記録システム、記録装置
US6493042B1 (en) * 1999-03-18 2002-12-10 Xerox Corporation Feature based hierarchical video segmentation
FR2807902B1 (fr) * 2000-04-17 2002-10-25 Thomson Multimedia Sa Procede de detection de changement de plan dans une succession d'images video
US6580437B1 (en) * 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
US20050203927A1 (en) * 2000-07-24 2005-09-15 Vivcom, Inc. Fast metadata generation and delivery
US6724933B1 (en) * 2000-07-28 2004-04-20 Microsoft Corporation Media segmentation system and related methods
US7162097B1 (en) * 2001-05-29 2007-01-09 Cisco Technology, Inc. Methods and apparatus for transform coefficient filtering
US7296231B2 (en) * 2001-08-09 2007-11-13 Eastman Kodak Company Video structuring by probabilistic merging of video segments
EP2200315A1 (en) * 2002-04-12 2010-06-23 Mitsubishi Denki Kabushiki Kaisha Hint information describing method for manipulating metadata
US20060045346A1 (en) * 2004-08-26 2006-03-02 Hui Zhou Method and apparatus for locating and extracting captions in a digital image
KR100679027B1 (ko) * 2005-01-19 2007-02-05 삼성전자주식회사 Dc 성분의 손실 없이 영상을 코딩하는 방법 및 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118205A (ja) * 2007-11-07 2009-05-28 Hitachi Ltd 動画処理装置及び動画処理方法
JP2010062649A (ja) * 2008-09-01 2010-03-18 Toshiba Corp 映像処理装置及びその方法
US8630532B2 (en) 2008-09-01 2014-01-14 Kabushiki Kaisha Toshiba Video processing apparatus and video processing method
JP2010109852A (ja) * 2008-10-31 2010-05-13 Hitachi Ltd 映像インデクシング方法、映像録画再生装置、及び映像再生装置
JP2010130700A (ja) * 2009-12-08 2010-06-10 Toshiba Corp 映像解析装置およびプログラム
JP2012044615A (ja) * 2010-08-23 2012-03-01 Nec Personal Computers Ltd 情報処理装置、動画ファイル編集方法及びプログラム

Also Published As

Publication number Publication date
JP4377887B2 (ja) 2009-12-02
CN100499751C (zh) 2009-06-10
EP1845477A3 (en) 2013-06-26
EP1845477A2 (en) 2007-10-17
US20070230781A1 (en) 2007-10-04
CN101047795A (zh) 2007-10-03

Similar Documents

Publication Publication Date Title
JP4377887B2 (ja) 映像分割装置
JP4613867B2 (ja) コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム
Pritch et al. Nonchronological video synopsis and indexing
US9576202B1 (en) Systems and methods for identifying a scene-change/non-scene-change transition between frames
Pritch et al. Webcam synopsis: Peeking around the world
US7941031B2 (en) Video processing apparatus, IC circuit for video processing apparatus, video processing method, and video processing program
US7853897B2 (en) Information processing apparatus and method, and program
US7027509B2 (en) Hierarchical hybrid shot change detection method for MPEG-compressed video
KR101420885B1 (ko) 비디오 시놉시스 생성 방법 및 시스템
KR20030026529A (ko) 키프레임 기반 비디오 요약 시스템
JP5091806B2 (ja) 映像処理装置及びその方法
US20120121235A1 (en) Moving image processing apparatus, computer-readable medium storing thumbnail image generation program, and thumbnail image generation method
JP4985201B2 (ja) 電子機器、動きベクトル検出方法及びプログラム
JP4215681B2 (ja) 動画像処理装置及びその方法
KR100313713B1 (ko) 화소샘플링을이용한시각율동생성방법
US20080266319A1 (en) Video processing apparatus and method
US20130188880A1 (en) Computer-readable recording medium storing image accumulating program, method and apparatus
JP2008166895A (ja) 映像表示装置及びその制御方法、プログラム、記録媒体
KR20060102639A (ko) 동영상 재생 시스템 및 방법
KR100340030B1 (ko) 대표이미지를 이용한 요약비디오 생성 시스템 및 그 방법
JP4835540B2 (ja) 電子機器、映像特徴検出方法及びプログラム
JP2000069420A (ja) 映像処理装置
JP2009260762A (ja) ダイジェスト作成装置
JP2013229734A (ja) 映像分割装置、映像分割方法及び映像分割用プログラム
KR102118988B1 (ko) 영역 중심의 비디오 요약 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090911

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees