JP3513011B2 - 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 - Google Patents
映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体Info
- Publication number
- JP3513011B2 JP3513011B2 JP12783298A JP12783298A JP3513011B2 JP 3513011 B2 JP3513011 B2 JP 3513011B2 JP 12783298 A JP12783298 A JP 12783298A JP 12783298 A JP12783298 A JP 12783298A JP 3513011 B2 JP3513011 B2 JP 3513011B2
- Authority
- JP
- Japan
- Prior art keywords
- telop
- area
- candidate
- telop area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
映像からテロップ領城を自動抽出する方法および装置に
関する.
く検索や編集等の処理を行うために,映像に含まれる字
幕や写真、記号、模様、マーク、アイコン等のテロップ
情報は有用である。データの入力コストを軽減するため
に、映像からテロツプを自動抽出する方法が提案されて
いる。
ラストであることを利用し、輝度とエッジ密度に基づい
てテロップ領域を抽出する方法(A.G. Hauptmann 他216
6"Text, Speech, and Vision for Video Segmentation:
The Informedia Project", AAAI '95, 1995 等)や、
MPEG等フレム間の相関を用いて符号化された映像デ
ータを対象にして、特定の符号化モードで符号化された
画素を計数することによりテロップ領域を抽出する方法
として(佐藤他、「MPEG2映像からのカット点とテ
ロップの高能率検出法」信学技報PRMU96−99、
1996)がある。
ネクタイの柄等、輝度やコントラストの特徴がテロップ
と似ている被写体を誤って抽出してしまうことが多いた
め、抽出の後処理として、抽出された領域の幅や高さ、
面積などの形状の特徴量を用いて、真のテロップ領域を
ふるい分けることが必要である。従来は、ふるい分けの
ための閾値を経験的に決定していた。例えば上記前者の
文献では、領域の面積が70画素以上、領域の外接長方
形との面積比が0.45以上、外接長方形の縦横比が
0.75以上という値を、経験的に決めていた。
抽出されたテロップ領域候補の真偽を判別するための閾
値を経験的に決定していた。しかしながら、複数の閾値
を適切に決定するのは困難であり、不適切な閾値を与え
たために誤抽出や抽出漏れが多くなるという問題があっ
た。また、従来の技術では、テロップ領域候補の複数の
特徴量の間にある相関を考慮に入れず、各々独立に判別
していたため、判別能力が劣るという問題があった。
学習によりテロップ領域候補の真偽を最適に判別するこ
とができる映像テロップ領域判別方法および装置を提供
することを目的とする。
に、本発明の映像テロップ領域判別方法は、学習用映像
から第1のテロップ領域候補を抽出する第1の抽出段階
と、前記第1のテロップ領域候補を表示手段に表示する
表示段階と、表示されている前記第1のテロップ領域候
補の、人間が指定した真のテロップ領域と擬似のテロッ
プ領域のそれぞれの特徴量を学習する学習段階と、抽出
対象の映像から第1の抽出段階と同じ方法で第2のテロ
ップ領域候補を抽出する第2の抽出段階と、前記学習結
果に基づいて前記第2のテロップ領域候補の真偽を判別
する判別段階を有する。
または装置を用いてテロップを抽出する対象の映像の一
部を用いてもよいし、典型的なテロップとノイズが映っ
た映像を特別に作成して用いてもよい。例えば、あるニ
ュース番組の1か月分の映像からテロップを抽出する場
合には、そのニュース番組の1週間分の映像を学習用に
用いることができる。
映像のフレーム画像を表示手段に時間順に並べて表示す
る表示段階と、前記表示手段に表示されているフレーム
画像を見て人間が指定した時間的区間に存在するテロッ
プを第1のテロップ領域候補として抽出する第1の抽出
段階と、前記第1のテロップ領域候補を真のテロップ領
域として蓄積し、それ以外の区間に存在する前記テロッ
プ領域候補を疑似のテロップ領域として蓄積する蓄積段
階と、前記のテロップ領域と前記擬似のテロップ領域の
それぞれの特徴量を学習する学習段階と、抽出対象の映
像から第1の抽出段階と同じ方法で第2のテロップ領域
候補を抽出する第2の抽出段階と、前記学習結果に基づ
いて第2のテロップ領域候補の真偽を判別する判別段階
とを有する。
が、前記第2のテロップ領域候補の特徴量のベクトルと
前記真のテロップ領域の特徴量のベクトルとの距離(D
t)を計算する段階と、前記第2のテロップ領域候補の
特徴量のベクトルと前記疑似のテロップ領域の特徴量の
ベクトルの距離(Df)を計算する段階と、前記2つの
距離(Dt、Df)を比較し、D t の方が小さい場合、前
記第2のテロップ領域候補を真のテロップ領域であると
判定する比較段階とを有する。
は、第2のテロップ領域候補の特徴量のベクトルと前記
真のテロップ領域の特徴量のベクトルとの距離と、第2
のテロップ領域候補の特徴量のベクトルと前記疑似のテ
ロップ領域の特徴量のベクトルとの距離の差を求める判
別関数を作成する段階と、前記判別関数に前記第2のテ
ロップ領域候補の特徴量のベクトルを入力しその結果の
値が負の場合、前記第2のテロップ領域候補を真のテロ
ップ領域と判定する判定段階とを有する。
して、領域の高さと幅の比、領域の面積、領域の高さと
幅の積と面積の比のいずれかを用いる。
て図面を参照して説明する。図1は発明の映像テロップ
領域判別装置の実施形態の基本的構成の概念図で、学習
部101と、テロップ領域候補抽出部102と、判別部
103から構成される。
装置の基本的構成の動作のフローチャートである。
学習用映像を入力し(ステップ201)、テロップ領域
の真偽を判別するためのパラメータを学習する。
テロップ領域抽出の対象となる映像を入力し、映像から
テロップ領域候補を抽出する(ステップ202)。
ータを用いて、前記テロップ領域候補の真偽を判別し、
真のテロップ領域を出力する(ステップ203)。
えば。テロップの画像領域が背景部分に比べて高輝度で
ありエッジ抽出し易いという性質を用いた方法(例え
ば、茂木他、「ニュース映像中の文字認識に基づく記事
の索引付け」、電子情報通信学会技術研究報告IE95
_153、1996等や、MPEGなどのフレーム間の
相関を用いて符号化された映像データのうち、フレーム
間の相関を用い、かつ動き補償を用いないで符号化され
た画素が時間的空間的に集中している部分を抽出する方
法(佐藤他、「MPEG2映像からのカット点とテロッ
プの高能率検出法」、電子情報通信学会技術研究報告P
RMU96−99、pp.47ー54、1996)等に
示される既存のテロップ検出方法を用いることができ
る。
の学習手段の第1の実施の形態を説明する。図3は本発
明の映像テロップ領域判別装置の学習部の第1の実施の
形態のブロック図であり、テロップ領域候補抽出部30
1と、領域指定部302と、蓄積部3O3と、蓄積部3
04と、パラメータ計算部3O5と、パラメータ計算部
306から構成される。
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
のフローチャートである。まず、学習用映像をテロップ
領域候補抽出部301に入力し、テロップ領域候補を抽
出する(ステップ401)。
出されたテロップ領域候補の真偽を指定する(ステップ
402)。例えば、図5に示すように、ブラウン管や液
晶デイスプレイなどの表示手段に抽出されたテロップ領
域候補を表示し、マウスやタッチパネルなどのポインテ
ィングデバイスによつて、真のテロップ領域(図5では
「ABC」の領域)を指定する。この場合、何も指定さ
れなかったテロップ領域候補を疑似のテロップ領域とす
ればよい。
特徴量を蓄積部303に蓄積し、偽と指定されたテロッ
プ領域とその特徴量を蓄積部304に蓄積する(ステッ
プ403)。最後に、パラメータ計算部305におい
て、蓄積部303に蓄積された真のテロップ領域の特徴
量を用いて、判別パラメータを計算する。同様に、パラ
メータ計算部306では、疑似のテロップ領域の特徴量
を用いて判別パラメータFを計算する(ステップ40
4)。
領域候補の真偽を指定するので、精度の高い学習を実現
することができる。
の学習部の第2の実施の形態を説明する。図6は本発明
の映像テロップ領域判別装置の学習部の第2の実施の形
態のブロック図である。この学習部の第2の実施の形態
は区間指定部601と、テロップ領域候補抽出部602
と、蓄積部603と、蓄積部604と、パラメータ計算
部T605と、パラメータ計算部F606から構成され
る。
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
する。図7は、図6に示す学習部の第2の実施の形態の
フローチャートである。まず、学習用映像を区間指定部
601に入力し、テロップの存在する時間的な区間を指
定する(ステップ701)。
液晶ディスプレイ等の表示手段に学習用映像のフレーム
画像802を時間順に並ベて表示し、その横のボタン8
03を、マウスやタッチパネルなどのポインティングデ
バイスによって押すことによって、テロップが存在する
時間的区間を指定する。スクロールバー801は表示手
段に表示しきれない場合に、表示をスクロールするのに
使用される。
テロップ領域候補抽出部602に入力し、テロップ領域
候補を抽出する(ステップ702)。
が存在すると指定された区間で、抽出されたテロップ領
域候補を、真のテロップ領域とし、蓄積部603に蓄積
する。それ以外のテロップ領域候補は、疑似のテロップ
領城と看做し、蓄積部604に蓄積する(ステップ70
3)。
て、蓄積部603に蓄積された真のテロップ領域の特徴
量を用いて、判別パラメータTを計算する。同様に、パ
ラメータ計算部606では、判別パラメータFを計算す
る(ステップ704)。
学習部の実施の形態と比ベて、個々のテロツプ領域候補
の真偽を指定しないので、学習の精度が落ちるが、真偽
を指定するための入力コストが少なくて済むという利点
がある。
の判別部の第1の実施の形態について説明する。図9は
本発明の映像テロップ領域判別装置の判別部の第1の実
施の形態のブロック図である。この実施の形態は、距離
計算部901と、距離計算部902と、比較部903か
ら構成される。
候補抽出部102によって抽出されたテロップ領域候補
を、距離計算部901と、距離計算部902にそれぞれ
入力する。
1から出力された真の判別パラメータTも入力する。距
離計算部901は、判別パラメータTと、テロップ領域
候補の特徴量のベクトルとを比較して、テロップ領域候
補と真のテロップ領域群の特徴量ベクトルとの距離Dt
を求める。
判別パラメータFを入力し、距離Dfを求める。比較部
903では、距離Dt とDfを比較し、Dtの方が小さい
場合に、テロップ領域候補が真のテロップ領域であると
判別する。
徴量の、真のテロップ領域の特徴量からの距離と、疑似
のテロップ領域の特徴量からの距離とを比較するので、
経験的な閾値に依らず、最適な判別を行うことができ
る。
部の第1の実施の形態を適用した映像テロップ領域頑別
装置のブロック図である。また、図14は学習部の第2
の実施の形態と判別部の第1の実施の形態とを適用した
映像テロップ領域判別装置のブロック図である。
の判別部の第2の実施の形態について説明する。図10
は本発明の映像テロップ領域判別装置の判別部の第2の
実施の形態のブロック図である。この判別部の実施の形
態は判別関数作成部1001と、判定部1002から構
成される。
タを、判別関数作成部1001に入力し、真のテロップ
領域の特徴量の位置からの距離から、疑似のテロップ領
域の特徴量からの距離を引いた差を求める判別関数を作
成する。
本装置が対象とする映像からテロップ領域候補抽出部1
02によって抽出されたテロップ領域候補とが入力さ
れ、判別関数の出力が負である場合に、テロップ領域候
補が真のテロップ領域であると判定する。
1の実施の形態と比ベると、判別関数の計算コストが、
距離計算部901と距離計算部902の計算コストを合
わせたものより小さいので、一つのテロップ領域候補に
対する計算コストが小さくなるという利点がある。
部の第2の実施の形態が適用された映像テロップ領域判
別装置装置のブロック図である。
の第2の実施の形態が適用された映像テロップ領域判別
装置装置のブロック図である。
とができるテロップ領域の特徴量について説明する。こ
こでは、図の斜線で示されたテロップ領域に対して、幅
w、高さhとすると、w=6、h=3である。面積a、
外接長方形との面積比p、縦横比qを求めると、それぞ
れ、a=14、p=0.78、q=2となる。これら
を、特徴量ベクトルx=(a,p,q)=(14,0.
78,2)とまとめて表す。この特徴量は、真のテロッ
プ領域が充分な面積をもち、細長い長方形をしていると
いう予想に基づいて選んだものである。
ータと、前記の距離についてマハラノビス汎距離に基づ
いた実施例を説明する。
つき、蓄積部に蓄積されたテロップ領域の特徴量につい
て、分散共分散行列と、平均ベクトルを作る。すなわ
ち、蓄積部に蓄積された真のテロップ領域の特徴量xt
=(at、pt、qt)の集合について、分散共分散行列
Stは、
≦i≦N},B={bi|0≦i≦N}の共分散を表
し、
る。平均ベクトル”xt”は、
ル”xt”を用いて、テロップ領域候補の特徴量ベクト
ルxと、真のテロップ領域の特徴量の集合との距離を次
のように定義する。
ついての2次式になる。
ベクトル集合についても、分散共分散行列Sfと、平均
ベクトル”xf”を求め、距離Dfを、
Dfを求めて、Dt<Dfとなれば、そのテロップ領域候
補は、真のテロップ領域の集合に特徴量ベクトルが近い
ことを表すので、真のテロップ領域であると判別する。
を z(x)=Dt(x)―Df(x) と定義すると、zもa,pについての2次式になる。し
たがって、zを計算する方が、Dt、Dfを別々に計算し
て比較するより、計算コストが低くなる。
定するものではなく、その他に、テロップの持続時間
や、画面上での配置、輝度や色の分布などを特徴量とし
て用いることができる。
段階や判別段階は、コンピュータで適宜実行することが
可能であり、その手順をコンピュータに実行させるプロ
グラムを、そのコンピュータが読み取り可能な記録媒
体、例えばフロッピーデイスクやCD・ROMなどに記
録して配布することができる。
像から真のテロップ領域の特徴量と疑似のテロツプ領域
の特徴量を学習し、その学習結果に基づいて、テロップ
領域候補の真偽を判別するので、経験的な閾値に依ら
ず、複数の特徴量の間にある相関を考慮に入れて、テロ
ップ領域候補の真偽を最適に判別することカぎできる。
の存在する時間的区間を指定し、個々のテロップ領域候
補の真偽を指定しないので、精度は多少は落ちるもの
の、学習のための入力コストを小さくすることができる
効果がある。
城候補の特徴量の、真のテロップ領域の特徴量の位置か
らの距離と、疑似のテロップ領域の特徴量の位置からの
距離とを比較するので、経験的な閾値に依らず、最適な
判別を行うことができる効果がある。
ップ領城の特徴量の位置からの距離と、疑似のテロップ
領域の特徴量の位置からの距離との差を求める判別関数
を作成し、テロップ領域候補の特徴量をそれに入力した
ときの出カ値の正負を判定するので、一つのテロップ領
域候補に対する計算コストを小さくすることができる効
果がある。
領域の特徴量として、領域の高さと幅の比、領域の面
積、領域の高さと幅の積と面積の比を用いるので、テロ
ップ領域の面積と長方形らしさ、細長い様子を評価する
ことができる効果がある。
の基本構成を説明するブロック図である。
図1に示す基本的な説明用モデル装置の動作を説明する
フローチャートである。
第1の実施の形態のブロック図である。
るフローチャートである。
ある。
第2の実施の形態の詳細プロック図である。
説明するフローチャートである。
る。
第1の実施の形態のブロック図である。
の第2の実施の形態のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
Claims (13)
- 【請求項1】 ディスプレイ上の動画映像からテロップ
領域を抽出し判別する方法において、学習用映像から第1のテロップ領域候補を抽出する第1
の抽出段階と、 前記第1のテロップ領域候補を表示手段に表示する表示
段階と、 表示されている前記第1のテロップ領域候補の、人間が
指定した 真のテロップ領域と擬似のテロップ領域のそれ
ぞれの特徴量を学習する学習段階と、 抽出対象の映像から第1の抽出段階と同じ方法で第2の
テロップ領域候補を抽出する第2の抽出段階と、 前記学習結果に基づいて前記第2のテロップ領域候補の
真偽を判別する判別段階とを有することを特徴とする映
像テロップ領域判別方法。 - 【請求項2】 ディスプレイ上の動画映像からテロップ
領域を抽出し判別する方法において、 学習用映像のフレーム画像を表示手段に時間順に並べて
表示する表示段階と、 前記表示手段に表示されているフレーム画像を見て人間
が指定した時間的区間に存在するテロップを第1のテロ
ップ領域候補として抽出する第1の抽出段階と、 前記第1のテロップ領域候補を真のテロップ領域として
蓄積し、それ以外の区間に存在する前記テロップ領域候
補を疑似のテロップ領域として蓄積する蓄積段階と、 前記真のテロップ領域の特徴量と前記擬似のテロップ領
域の特徴量を学習する学習段階と、 抽出対象の映像から第1の抽出段階と同じ方法で第2の
テロップ領域候補を抽出する第2の抽出段階 と、前記学習結果に基づいて第2のテロップ領域候補の真偽
を判別する判別段階とを 有することを特徴とする映像テ
ロップ領域判別方法。 - 【請求項3】 前記判別段階が、前記第2の テロップ領域候補の特徴量のベクトルと前記
真のテロップ領域の特徴量のベクトルとの距離(Dt)
を計算する第1の段階と、 前記第2のテロップ領域候補の特徴量のベクトルと前記
疑似のテロップ領域の特徴量のベクトルの距離(Df)
を計算する第2の段階と、 前記2つの距離(Dt、Df)を比較し、D t の方が小さ
い場合、前記第2のテロップ領域候補を真のテロップ領
域であると判別する比較段階とを有する、請求項1また
は2に記載の映像テロップ領域判別方法。 - 【請求項4】 前記判別段階が、前記第2の テロップ領域候補の特徴量のベクトルと前記
真のテロップ領域の特徴量のベクトルとの距離と、前記
第2のテロップ領域候補の特徴量のベクトルと前記疑似
のテロップ領域の特徴量のベクトルとの距離の差を求め
る判別関数を作成する段階と、 前記判別関数に前記第2のテロップ領域候補の特徴量の
ベクトルを入力し、その結果の値が負の場合、前記第2
のテロップ領域候補を真のテロップ領域と判別する判定
段階とを有する、請求項1または2記載の映像テロップ
領域判別方法。 - 【請求項5】 テロップ領域の特徴量として、領域の高
さと幅の比、領域の面積、領域の高さと幅の積と面積の
比のいずれかを用いる、請求項1から4のいずれか1項
に記載の映像テロップ領域判別方法。 - 【請求項6】 前記特徴量ベクトルの間の距離として、
マハラノビス汎距離を用いる、請求項3または4に記載
の映像テロップ領域判別方法。 - 【請求項7】 ディスプレイ上の動画映像からテロップ
領域を抽出し判別する装置において、学習用映像から第1のテロップ領域候補を抽出する第1
の抽出手段と、 前記第1のテロップ領域候補を表示する表示手段と、 人間が、前記表示手段に表示されている前記第1のテロ
ップ領域候補の真のテロップ領域と擬似のテロップ領域
を指定するための領域指定手段と、 前記第1のテロップ領域候補の、指定された から真のテ
ロップ領域と疑似のテロップ領域のそれぞれの特徴量を
学習する学習手段と、 抽出対象映像から第1の抽出手段と同じ方法で第2のテ
ロップ領域候補を抽出する第2の抽出手段と, 前記学習結果に基づいて前記第2のテロップ領域候補の
真偽を判別する判別手段を有することを特徴とする映像
テロップ領域判別装置。 - 【請求項8】 ディスプレイ上の動画映像からテロップ
領域を抽出し判別する装置において、 前記学習用映像のフレーム画像を時間順に並べて表示す
る表示手段と、 前記表示手段に表示されているフレーム画像を見て人間
が、テロップが存在する時間的区間を指定するための領
城指定手段と、 指定された時間的区間に存在するテロップを第1のテロ
ップ領域候補として抽出する第1の抽出手段と、 前記第1のテロップ領域候補を真のテロップ領域として
蓄積し、それ以外の区間に存在する前記テロップ領域候
補を疑似のテロップ領域として蓄積する蓄積手段と、 前記真のテロップ領域の特徴量と前記疑似のテロップ領
域の特徴量を学習する学習手段と、 抽出対象の映像から第1の抽出手段と同じ方法で第2の
テロップ領域候補を抽出する抽出手段と、 前記学習結果に基づいて前記第2のテロップ領域候補の
真偽を判別する判別手段を有することを特徴とする映像
テロップ領域判別装置。 - 【請求項9】 前記判別手段が、 前記第2のテロップ領域候補の特徴量のベクトルと前記
真のテロップ領域の特徴量のベクトルとの距離(Dt)
を計算する第1の距離計算手段と、 前記第2のテロップ領域候補の特徴量のベクトルと前記
疑似のテロップ領域の特徴量のベクトルとの距離
(Dt)を計算する第2の距離計算手段と、 前記の2つの距離(Dt、Df)を比較し、D t の方が小
さい場合、前記第2のテロップ領域候補を真のテロップ
領域であると判別する比較手段を有する、請求項7また
は8に記載の映像テロップ領域判別装置。 - 【請求項10】 前記判別手段が、前記第2の テロップ領域候補の特徴量のベクトルと前記
真のテロップ領域の特徴量のベクトルとの距離と、前記
第2のテロップ領域候補の特徴量のベクトルと前記疑似
のテロップ領域の特徴量のベクトルとの距離との差を求
める判別関数を作成する判別関数作成手段と、 前記判別関数に前記第2のテロップ領域候補の特徴量の
ベクトルを入力し、その結果の値が負の場合、前記第2
のテロップ領域候補を真のテロップ領域と判別する判定
手段を有する、請求項7または8に記載の映像テロップ
領域判別装置。 - 【請求項11】 テロップ領域の特徴量として、領域の
高さと幅の比、領域の面積、領域の高さと幅の積と面積
の比のいずれかを用いる、請求項7から10のいずれか
1項に記載の映像テロップ領域判別装置。 - 【請求項12】 前記特徴量ベクトルの間の距離とし
て、マハラノビス汎距離を用いる、請求9または10に
記載の映像テロップ領域判別装置。 - 【請求項13】 請求項1から6のいずれか1項に記載
の映像テロップ領域判別方法をコンピュータに実行させ
るためのプログラムが記録された、コンピュータ読み取
り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12783298A JP3513011B2 (ja) | 1998-05-11 | 1998-05-11 | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12783298A JP3513011B2 (ja) | 1998-05-11 | 1998-05-11 | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11328423A JPH11328423A (ja) | 1999-11-30 |
JP3513011B2 true JP3513011B2 (ja) | 2004-03-31 |
Family
ID=14969775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12783298A Expired - Fee Related JP3513011B2 (ja) | 1998-05-11 | 1998-05-11 | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3513011B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008050718A1 (fr) * | 2006-10-26 | 2008-05-02 | Nec Corporation | Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme |
JP4659793B2 (ja) * | 2007-08-07 | 2011-03-30 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
-
1998
- 1998-05-11 JP JP12783298A patent/JP3513011B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11328423A (ja) | 1999-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11861903B2 (en) | Methods and apparatus to measure brand exposure in media streams | |
US6243419B1 (en) | Scheme for detecting captions in coded video data without decoding coded video data | |
US6366699B1 (en) | Scheme for extractions and recognitions of telop characters from video data | |
US6470094B1 (en) | Generalized text localization in images | |
US7020351B1 (en) | Method and apparatus for enhancing and indexing video and audio signals | |
US7519264B2 (en) | Broadcast program contents menu creation apparatus and method | |
US20040090453A1 (en) | Method of and system for detecting uniform color segments | |
US20070127775A1 (en) | Method and apparatus for color-based object tracking in video sequences | |
US20060008152A1 (en) | Method and apparatus for enhancing and indexing video and audio signals | |
Wernicke et al. | On the segmentation of text in videos | |
US8311269B2 (en) | Blocker image identification apparatus and method | |
US8331667B2 (en) | Image forming system, apparatus and method of discriminative color features extraction thereof | |
Kim et al. | Visual rhythm and shot verification | |
JP3655110B2 (ja) | 映像処理方法及び装置並びに映像処理手順を記録した記録媒体 | |
JP3513011B2 (ja) | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 | |
US20030086021A1 (en) | Image processing apparatus and method, and computer-readable memory | |
JP3469122B2 (ja) | 編集用映像区間分類方法及び装置、並びにこの方法を記録した記録媒体 | |
Aner-Wolf et al. | Video summaries and cross-referencing through mosaic-based representation | |
JP2004080156A (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体並びに画像処理システム | |
JP3379453B2 (ja) | 字幕領域検出方法及びその装置、並びに動画像検索方法及びその装置 | |
Kim et al. | An efficient graphical shot verifier incorporating visual rhythm | |
Lee et al. | Automatic person information extraction using overlay text in television news interview videos | |
JP3498875B2 (ja) | 動画像処理システム | |
CA2643532A1 (en) | Methods and apparatus to measure brand exposure in media streams and to specify regions of interest in associated video frames |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080116 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110116 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |