JPH11328423A - 映像テロップ領域判別方法と装置と方法を記録した記録媒体 - Google Patents
映像テロップ領域判別方法と装置と方法を記録した記録媒体Info
- Publication number
- JPH11328423A JPH11328423A JP10127832A JP12783298A JPH11328423A JP H11328423 A JPH11328423 A JP H11328423A JP 10127832 A JP10127832 A JP 10127832A JP 12783298 A JP12783298 A JP 12783298A JP H11328423 A JPH11328423 A JP H11328423A
- Authority
- JP
- Japan
- Prior art keywords
- telop
- area
- video
- region
- telop area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Circuits (AREA)
- Image Analysis (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
置の提供。 【解決手段】 学習用映像の中の真のテロップ領域と、
その特徴量を蓄積する蓄積部T903と該蓄積部T30
3から真のテロップの判別パラメータを出力するパラメ
ータ計算部T304と、疑似テロップ領域とその特徴量
を蓄積する蓄積部F305と該蓄積部F305から判別
パラメータを出力するパラメータ計算部F306と、、
抽出対象映像のテロップ候補領域の特徴量のベクトルと
真のテロップ領域の特徴量のベクトルとの距離Dtを求
める距離計算部T901と、同様に候補領域特徴量のベ
クトルと疑似テロップの領域の特徴量のベクトルとの距
離D fとを算出する距離計算部Fと、距離DtとDfとを
比較してDtの小さい場合の候補領域が真のテロップ領
域と判定する比較部903とを有する。
Description
映像からテロツプ領城を自動抽出する方法および装置に
関する.
く検索や編集等の処理を行うために,映像に含まれる字
幕や写真、記号、模様、マーク、アイコン等のテロップ
情報は有用である。データの入力コストを軽減するため
に、映像からテロツプを自動抽出する方法が提案されて
いる。
ラストであることを利用し、輝度とエッジ密度に基づい
てテロツプ領域を抽出する方法(A.G. Hauptmann 他216
6“Text, Speech, and Vision for Video Segmentatio
n: The Informedia Project", AAAI '95, 1995 等)
や、MPEG等フレム間の相関を用いて符号化された映
像データを対象にして、特定の符号化モードで符号化さ
れた画素を計数することによりテロップ領域を抽出する
方法として(佐藤他、「MPEG2映像からのカット点
とテロップの高能率検出法」信学技報PRMU96−9
9、1996)がある。
ネクタイの柄等、輝度やコントラストの特徴がテロツプ
と似ている被写体を誤って抽出してしまうことが多いた
め、抽出の後処理として、抽出された領域の幅や高さ、
面積などの形状の特徴量を用いて、真のテロツプ領域を
ふるい分けることが必要である。従来は、ふるい分けの
ための閾値を経験的に決定していた。例えば上記前者の
文献では、領域の面積が70画素以上、領域の外接長方
形との面積比が0.45以上、外接長方形の縦横比が
0.75以上という値を、経験的に決めていた。
抽出されたテロツプ領域候補の真偽を判別するための閾
値を経験的に決定していた。しかしながら、複数の閾値
を適切に決定するのは困難であり、不適切な閾値を与え
たために誤抽出や抽出漏れが多くなるという問題があっ
た。また、従来の技術では、テロップ領域候補の複数の
特徴量の間にある相関を考慮に入れず、各々独立に判別
していたため、判別能力が劣るという問題があった。
学習によりテロツプ領域候補の真偽を最適に判別するこ
とができる映像テロツプ領域判別方法および装置を提供
することを目的とする。
に、本発明は、学習用映像から真のテロップ領域の特徴
量と疑似のテロツプ領域の特徴量を学習する学習段階
と、抽出対象の映像からテロップ領域候補を抽出する抽
出段階と、前記学習結果に基づいて前記テロツプ領域候
補の真偽を判別する判別段階を有する。
または装置を用いてテロップを抽出する対象の映像の一
部を用いてもよいし、典型的なテロツプとノイズが映っ
た映像を特別に作成して用いてもよい。例えば、あるニ
ュース番組の1か月分の映像からテロツプを抽出する場
合には、そのニュース番組の1週間分の映像を学習用に
用いることができる。
習用映像からテロップ領域候補を抽出する抽出段階と、
前記テロップ領域候補の真偽を指定する領域指定段階を
有するもをのも含む。
に真のテロツプ領域の存在する時間的区間を指定する時
間的区間指定段階と、前記学習用映像からテロップ領域
候補を抽出する抽出段階と、前記時間的区間に存在する
前記テロップ領域候補を真のテロップ領域として蓄積
し、それ以外の区間に存在する前記テロップ領域候補を
疑似のテロツプ領域として蓄積する蓄積段階を有するも
のも含まれる。
候補の特徴量の位置と前記真のテロツプ領域の特徴量の
位置との間の距離(Dt)を計算する段階と、前記テロ
ップ領域候補の特徴量の位置と前記疑似のテロップ領域
の特徴量の位置との間の距離(Df)を計算する段階
と、前記の2つの距離(Dt、Df)を比較する比較段階
を有するものも本発明に含まれる。
ロップ領域候補の特徴量の位置の真のテロップ領域の特
徴量からの距離と前記疑似のテロツプ領域の特徴量から
の距離との差を求める判別関数を作成する段階と、前記
判別関数に前記テロップ領域候補の特徴量の位置を入力
した結果の出力値の正負を判定する判定段階を有するも
のも本発明に含まれる。
の比、領域の面積、領域の高さと幅の積と面積の比を用
いるのが好ましい実施態様である。
を参照して説明する。図1は発明の映像テロップ領域判
別装置の実施形態の基本的構成の概念図で、学習部10
1と、テロップ領域候補抽出部102と、判別部103
から構成される。
装置の基本的構成の動作のフローチャートである。
学習用映像を入力し(ステツプ201)、テロツプ領域
の真偽を判別するためのパラメータを学習する。
テロップ領域抽出の対象となる映像を入力し、映像から
テロツプ領域候補を抽出する(ステツプ202)。
ータを用いて、前記テロップ領域候補の真偽を判別し、
真のテロップ領域を出力する(ステツプ203)。
えば。テロップの画像領域が拝啓部分に比べて高輝度で
ありエッジ抽出し易いという性質を用いた方法(例え
ば、茂木他、「ニュース映像中の文字認識に基づく記事
の索引付け」、電子情報通信学会技術研究報告IE95
_153、1996等や、MPEGなどのフレーム間の
相関を用いて符号化された映像データのうち、フレーム
間の相関を用い、かつ動き補償を用いないで符号化され
た画素が時間的空間的に集中している部分を抽出する方
法(佐藤他、「MPEG2映像からのカット点とテロッ
プの高能率検出法」、電子情報通信学会技術研究報告P
RMU96−99、pp.47ー54、1996)等に
示される既存のテロップ検出方法を用いることができ
る。
の学習手段の第1の実施の形態を説明する。図3は本発
明の映像テロップ領域判別装置の学習部の第1の実施の
形態のブロック図であり、テロップ領域候補抽出部30
1と、領域指定部302と、蓄積部T3O3と、蓄積部
F304と、パラメータ計算部T3O5と、パラメータ
計算部F306から構成される。
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
のフローチャートである。まず、学習用映像をテロップ
領域候補抽出部301に入力し、テロップ領域候補を抽
出する(ステツプ401)。
出されたテロップ領域候補の真偽を指定する(ステツプ
402)。例えば、図5に示すように、ブラウン管や液
晶デイスプレイなどの表示手段に抽出されたテロツプ領
域候補を表示し、マウスやタツチパネルなどのポインテ
イングデバイスによつて、真のテロップ領域(図5では
「ABC」の領域)を指定する。この場合、何も指定さ
れなかったテロツプ領域候補を疑似のテロツプ領域とす
ればよい。
特徴量を蓄積部T303に蓄積し、偽と指定されたテロ
ップ領域とその特徴量を蓄積部F304に蓄積する(ス
テツプ403)。最後に、パラメータ計算部T305に
おいて、蓄積部Tに蓄積された真のテロップ領域の特徴
量を用いて、判別パラメータTを計算する。同様に、パ
ラメータ計算部F306では、疑似のテロップ領域の特
徴量を用いて判別パラメータFを計算する(ステツプ4
04)。
領域候補の真偽を指定するので、精度の高い学習を実現
することができる。
の学習部の第2の実施の形態を説明する。図6は本発明
の映像テロップ領域判別装置の学習部の第2の実施の形
態のブロック図である。この学習部の第2の実施の形態
は区間指定部601と、テロップ領域候補抽出部602
と、蓄積部T603と、蓄積部F604と、パラメータ
計算部T605と、パラメータ計算部F606から構成
される。
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
する。図7は、図6に示す学習部の第2の実施の形態の
フローチャートである。まず、学習用映像を区間指定部
601に入力し、テロップの存在する時間的な区間を指
定する(ステツプ701)。
液晶デイスプレイ等の表示手段に学習用映像のフレーム
画像802を時間順に並ベて表示し、その横のボタン8
03を、マウスやタツチパネルなどのポインティングデ
バイスによって押すことによって、テロツプが存在する
時間的区間を指定する。スクロールバー801は表示手
段に表示しきれない場合に、表示をスクロールするのに
使用される。
テロップ領域候補抽出部602に入力し、テロツプ領域
候補を抽出する(ステツプ702)。
が存在すると指定された区間で、抽出されたテロツプ領
域候補を、真のテロップ領域とし、蓄積部T603に蓄
積する。それ以外のテロップ領域候補は、疑似のテロッ
プ領城と看做し、蓄積部F604に蓄積する(ステツプ
703)。
て、蓄積部Tに蓄積された真のテロップ領域の特徴量を
用いて、判別パラメータTを計算する。同様に、パラメ
ータ計算部F606では、判別パラメータFを計算する
(ステツプ704)。
学習部の実施の形態と比ベて、個々のテロツプ領域候補
の真偽を指定しないので、学習の精度が落ちるが、真偽
を指定するための入力コストが少なくて済むという利点
がある。
の判別部の第1の実施の形態について説明する。図9は
本発明の映像テロップ領域判別装置の判別部の第1の実
施の形態のブロック図である。この実施の形態は、距離
計算部T901と、距離計算部F902と、比較部90
3から構成される。
候補抽出部102によって抽出されたテロップ領域候補
を、距離計算部T901と、距離計算部F902にそれ
ぞれ入力する。
01から出力された真の判別パラメータTも入力する。
距離計算部T901は、判別パラメータTと、テロップ
領域候補の特徴量のベクトルとを比較して、テロツプ領
域候補と真のテロップ領域群の特徴量ベクトルとの距離
Dtを求める。
の判別パラメータFを入力し、距離Dfを求める。比較
部903では、距離Dt、Dfを比較し、Dtの方が小さ
い場合に、テロップ領域候補が真のテロップ領域である
と判別する。
徴量の、真のテロップ領域の特徴量からの距離と、疑似
のテロツプ領域の特徴量からの距離とを比較するので、
経験的な閾値に依らず、最適な判別を行うことができ
る。
部の第1の実施の形態を適用した映像テロップ領域頑別
装置のブロック図である。また、図14は学習部の第2
の実施の形態と判別部の第1の実施の形態とを適用した
映像テロップ領域判別装置のブロック図である。
の判別部の第2の実施の形態について説明する。図10
は本発明の映像テロップ領域判別装置の判別部の第2の
実施の形態のブロック図である。この判別部の実施の形
態は判別関数作成部1001と、判定部1002から構
成される。
タを、判別関数作成部1001に入力し、真のテロップ
領域の特徴量の位置からの距離から、疑似のテロップ領
域の特徴量からの距離を引いた差を求める判別関数を作
成する。
本装置が対象とする映像からテロップ領域候補抽出部1
02によって抽出されたテロップ領域候補とが入力さ
れ、判別関数の出力が負である場合に、テロップ領域候
補が真のテロップ領域であると判定する。
1の実施の形態と比ベると、判別関数の計算コストが、
距離計算部Tと距離計算部Fの計算コストを合わせたも
のより小さいので、一つのテロップ領域候補に対する計
算コストが小さくなるという利点がある。
部の第2の実施の形態が適用された映像テロップ領域判
別装置装置のブロック図である。
の第2の実施の形態が適用された映像テロップ領域判別
装置装置のブロック図である。
とができるテロップ領域の特徴量について説明する。こ
こでは、図の斜線で示されたテロップ領域に対して、幅
w、高さhとすると、w=6、h=3である。面積a、
外接長方形との面積比p、縦横比qを求めると、それぞ
れ、a=14、p=0.78、q=2となる。これら
を、特徴量ベクトルx=(a,p,q)=(14,0.
78,2)とまとめて表す。この特徴量は、真のテロツ
プ領域が充分な面積をもち、細長い長方形をしていると
いう予想に基づいて選んだものである。
ータと、前記の距離についてマハラノビス汎距離に基づ
いた実施例を説明する。
つき、蓄積部に蓄積されたテロツプ領域の特徴量につい
て、分散共分散行列と、平均ベクトルを作る。すなわ
ち、蓄積部Tに蓄積された真のテロップ領域の特徴量x
t=(at、pt、qt)の集合について、分散共分散行列
Stは、
≦i≦N},B={bi|0≦i≦N}の共分散を表
し、
る。平均ベクトル”xt”は、
ル”xt”を用いて、テロップ領域候補の特徴量ベクト
ルxと、真のテロップ領域の特徴量の集合との距離を次
のように定義する。
ついての2次式になる。
ベクトル集合についても、分散共分散行列Sfと、平均
ベクトル”xf”を求め、距離Dfを、
Dfを求めて、Dt<Dfとなれば、そのテロツプ領域候
補は、真のテロツプ領域の集合に特徴量ベクトルが近い
ことを表すので、真のテロツプ領域であると判別する。
を z(x)=Dt(x)―Df(x) と定義すると、zもa,pについての2次式になる。し
たがって、zを計算する方が、Dt、Dfを別々に計算し
て比較するより、計算コストが低くなる。
定するものではなく、その他に、テロツプの持続時間
や、画面上での配置、輝度や色の分布などを特徴量とし
て用いることができる。
段階や判別段階は、コンピュータで適宜実行することが
可能であり、その手順をコンピュータに実行させるプロ
グラムを、そのコンピュータが読み取り可能な記録媒
体、例えばフロッピーデイスクやCD・ROMなどに記
録して配布することができる。
像から真のテロップ領域の特徴量と疑似のテロツプ領域
の特徴量を学習し、その学習結果に基づいて、テロップ
領域候補の真偽を判別するので、経験的な閾値に依ら
ず、複数の特徴量の間にある相関を考慮に入れて、テロ
ップ領域候補の真偽を最適に判別することカぎできる。
から抽出されたテロツプ領域候補の個々について真偽を
指定するので、精度よく学習することができる効果があ
る。また、請求項3、9の発明は、真のテロップ領域の
存在する時間的区間を指定し、個々のテロツプ領域候補
の真偽を指定しないので、精度は多少は落ちるものの、
学習のための入力コストを小さくすることができる効果
がある。
領城候補の特徴量の、真のテロツプ領域の特徴量の位置
からの距離と、疑似のテロップ領域の特徴量の位置から
の距離とを比較するので、経験的な閾値に依らず、最適
な判別を行うことができる効果がある。
ップ領城の特徴量の位置からの距離と、疑似のテロップ
領域の特徴量の位置からの距離との差を求める判別関数
を作成し、テロツプ領域候補の特徴量をそれに入力した
ときの出カ値の正負を判定するので、一つのテロップ領
域候補に対する計算コストを小さくすることカぎできる
効果がある。
領域の特徴量として、領域の高さと幅の比、領域の面
積、領域の高さと幅の積と面積の比を用いるので、テロ
ップ領域の面積と長方形らしさ、細長い様子を評価する
ことができる効果がある。
の基本構成を説明するブロック図である。
図1に示す基本的な説明用モデル装置の動作を説明する
フローチャートである。
第1の実施の形態のブロック図である。
るフローチャートである。
ある。
第2の実施の形態の詳細プロック図である。
説明するフローチャートである。
る。
第1の実施の形態のブロック図である。
の第2の実施の形態のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
Claims (15)
- 【請求項1】 ディスプレイ上の動画映像からテロップ
領域を抽出し判別する方法において、 学習用映像から真のテロップ領域の特徴量と疑似のテロ
ップ領域の特徴量を学習する学習段階と、 抽出対象の映像からテロップ領域候補を抽出する抽出段
階と、 前記学習結果に基づいて前記テロップ領城候補の真偽を
判別する判別段階を有することを特徴とする映像テロツ
プ領域判別方法。 - 【請求項2】 前記学習段階が、前記学習用映像からテ
ロツプ領域候補を抽出する抽出段階と、 前記テロップ領域候補の真のテロップの領域と、疑似の
テロップの領域とを区別して指定する領城指定段階とを
有する請求項1記載の映像テロツプ領域判別方法。 - 【請求項3】 前記学習段階が、前記学習用映像に真の
テロップ領域の存在する時間的区間を指定する区間指定
段階と、 前記学習用映像からテロップ領域候補を抽出する抽出段
階と、 前記区間に存在する前記テロツプ領域候補を真のテロツ
プ領域として蓄積し、 それ以外の区間に存在する前記テロツプ領域候補を疑似
のテロツプ領域として蓄積する蓄積段階を有する請求項
1記載の映像テロツプ領域判別方法。 - 【請求項4】 前記判別段階が、入力されたテロップ領
域候補の特徴量のベクトルと前記真のテロップ領域の特
徴量のベクトルとの距離(Dt)を計算する段階と、 前記テロップ領域候補の特徴量のベクトルと前記疑似の
テロップ領域の特徴量のベクトルの距離(Df)を計算
する段階と、 前記2つの距離(Dt、Df)を比較する比較段階とを有
する請求項1乃至3のいずれか1項に記載の映像テロツ
プ領域判別方法。 - 【請求項5】 前記判別段階が、入力されたテロップ領
域候補の特徴量のベクトルと前記真のテロップ領域の特
徴量のベクトルとの距離と、入力されたテロップ領域候
補の特徴量のベクトルと前記疑似のテロップ領域の特徴
量のベクトルとの距離の差を求める判別関数を作成する
段階と、 前記判別関数に前記テロップ領域候補の特徴量の位置を
入力した結果の値の正負を判定する判定段階を有する請
求項1乃至3のいずれか1項に記載の映像テロップ領域
判別方法。 - 【請求項6】 テロツプ領域の特徴量として、領域の高
さと幅の比、領域の面積、領域の高さと幅の積と面積の
比を用いる請求項1乃至5のいずれか1項に記載の映像
テロップ領域判別方法。 - 【請求項7】 ディスプレイ上の動画映像からテロツプ
領域を抽出し判別する装置において、 学習用映像から真のテロツプ領域の特徴量と疑似のテロ
ツプ領域の特徴量を学習する学習手段と、 抽出対象映像からテロップ領域候補を抽出する抽出手段
と,前記学習結果に基づいて前記テロップ領域候補の真
偽を判別する判別手段を有することを特徴とする映像テ
ロップ領域判別装置。 - 【請求項8】前記学習手段が、前記学習用映像からテロ
ップ領域候補を抽出する抽出手段と,前記テロツプ領城
候補の真のテロップ領域と疑似のテロップ領域とを指定
する領城指定手段と、 真のテロツプ領域を蓄積する蓄積手段Tと、 疑似のテロツプ領域を蓄積する蓄積手段Fと、 前記蓄積手段Tに蓄えられた真のテロツプ領域の特徴量
から判別パラメータTを計算するパラメータ計算手段T
と、 前記蓄積手段Fに蓄えられた疑似テロップ領域の特徴量
から判別パラメータFを計算するパラメータ計算手段F
とを有する請求項7記載の映像テロップ領域判別装置。 - 【請求項9】 前記学習手段が,前記学習用映像に真の
テロップ領域の存在する時間的区間を指定する区間指定
手段と、 前記学習用映像からテロップ領域候補を抽出する抽出手
段と、 前記時間的区間に存在する前記テロップ領域候補を真の
テロップ領域として蓄積する蓄積手段Tと、 それ以外の時間的区間に存在する前記テロップ領域候補
を疑似のテロップ領域として蓄積する蓄積手段Fと、 前記蓄積手段Tに蓄えられた真のテロップ領域の特徴量
から判別パラメータTを計算するパラメータ計算手段T
と、 前記蓄積手段Fに蓄えられた疑似のテロップ領域の特徴
量から判別パラメータFを計算するパラメータ計算手段
Fとを有する請求項7記載の映像テロツプ領域判別装
置。 - 【請求項10】 前記判別手段が、前記テロツプ領域候
補の特徴量のベクトルと前記真のテロツプ領域の特徴量
のベクトルとの距離(Dt)を計算する距離計算手段T
と、 前記テロップ領域候補の特徴量のベクトルと前記疑似の
テロップ領域の特徴量のベクトルとの距離(Dt)を計
算する距離計算手段Fと、 前記の2つの距離(Dt、Df)を比較する比較手段を有
する前記請求項7乃至9のいずれか1項に記載の映像テ
ロップ領域判別装置。 - 【請求項11】 前記判別手段が、抽出されたテロップ
領域候補の特徴量のベクトルと前記真のテロップ領域の
特徴量のベクトルとの距離と、抽出されたテロップ領域
候補の特徴量のベクトルと前記疑似のテロツプ領域の特
徴量のベクトルとの距離との差を求める判別関数を作成
する判別関数作成手段と、 前記判別関数に前記テロップ領域候補の特徴量を入力し
た結果の値の正負を判定する判定手段を有する請求項7
乃至9のいずれか1項に記載の映像テロップ領域判別装
置。 - 【請求項12】 テロツプ領域の特徴量として、領域の
高さと幅の比、領域の面積、領域の高さと幅の積と面積
の比のいずれかを用いる請求項7乃至11のいずれか1
項に記載の映像テロップ領域判別装置。 - 【請求項13】 請求項1乃至6のいずれか1項に記載
の映像テロップ領域判別方法をコンピュータの駆動プロ
グラムとして記録された映像テロップ領域判別手段の記
録媒体。 - 【請求項14】 前記特徴量ベクトルの間の距離とし
て、マハラノビス汎距離を用いる請求項1乃至6のいず
れか1項に記載の映像テロップ領域判別方法。 - 【請求項15】 前記特徴量ベクトルの間の距離とし
て、マハラノビス汎距離を用いる請求項7乃至11のい
ずれか1項に記載の映像テロップ領域判別装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12783298A JP3513011B2 (ja) | 1998-05-11 | 1998-05-11 | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12783298A JP3513011B2 (ja) | 1998-05-11 | 1998-05-11 | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11328423A true JPH11328423A (ja) | 1999-11-30 |
JP3513011B2 JP3513011B2 (ja) | 2004-03-31 |
Family
ID=14969775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12783298A Expired - Fee Related JP3513011B2 (ja) | 1998-05-11 | 1998-05-11 | 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3513011B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008050718A1 (fr) * | 2006-10-26 | 2008-05-02 | Nec Corporation | Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme |
JP2009042897A (ja) * | 2007-08-07 | 2009-02-26 | Canon Inc | 画像処理装置及び画像処理方法 |
-
1998
- 1998-05-11 JP JP12783298A patent/JP3513011B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008050718A1 (fr) * | 2006-10-26 | 2008-05-02 | Nec Corporation | Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme |
JP5218766B2 (ja) * | 2006-10-26 | 2013-06-26 | 日本電気株式会社 | 権利情報抽出装置、権利情報抽出方法及びプログラム |
JP2009042897A (ja) * | 2007-08-07 | 2009-02-26 | Canon Inc | 画像処理装置及び画像処理方法 |
JP4659793B2 (ja) * | 2007-08-07 | 2011-03-30 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3513011B2 (ja) | 2004-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6470094B1 (en) | Generalized text localization in images | |
US6473522B1 (en) | Estimating text color and segmentation of images | |
Lienhart et al. | Localizing and segmenting text in images and videos | |
US6243419B1 (en) | Scheme for detecting captions in coded video data without decoding coded video data | |
US8316301B2 (en) | Apparatus, medium, and method segmenting video sequences based on topic | |
Koprinska et al. | Temporal video segmentation: A survey | |
US7339992B2 (en) | System and method for extracting text captions from video and generating video summaries | |
US6366699B1 (en) | Scheme for extractions and recognitions of telop characters from video data | |
Odobez et al. | Direct incremental model-based image motion segmentation for video analysis | |
US7187783B2 (en) | Method and apparatus for color-based object tracking in video sequences | |
US7623711B2 (en) | White space graphs and trees for content-adaptive scaling of document images | |
EP1204034B1 (en) | Method for automatic extraction of sematically significant events from video | |
Wernicke et al. | On the segmentation of text in videos | |
US20040170392A1 (en) | Automatic detection and segmentation of music videos in an audio/video stream | |
US20100220930A1 (en) | Video text processing apparatus | |
US20040090453A1 (en) | Method of and system for detecting uniform color segments | |
JP5500024B2 (ja) | 画像認識方法及び装置並びにプログラム | |
JPWO2010079559A1 (ja) | クレジット情報区間検出方法、クレジット情報区間検出装置及びクレジット情報区間検出プログラム | |
Kim et al. | Visual rhythm and shot verification | |
Ling et al. | A method for fast shot boundary detection based on SVM | |
Li et al. | Spatial–temporal joint probability images for video segmentation | |
JPH11328423A (ja) | 映像テロップ領域判別方法と装置と方法を記録した記録媒体 | |
JP2002042131A (ja) | 標識検出装置、標識検出方法および記録媒体 | |
JP2000182028A (ja) | 字幕領域検出方法及びその装置、並びに動画像検索方法及びその装置 | |
JP3024574B2 (ja) | 動画像検索装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080116 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110116 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |