JP3513011B2 - 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 - Google Patents

映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Info

Publication number
JP3513011B2
JP3513011B2 JP12783298A JP12783298A JP3513011B2 JP 3513011 B2 JP3513011 B2 JP 3513011B2 JP 12783298 A JP12783298 A JP 12783298A JP 12783298 A JP12783298 A JP 12783298A JP 3513011 B2 JP3513011 B2 JP 3513011B2
Authority
JP
Japan
Prior art keywords
telop
area
candidate
telop area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12783298A
Other languages
English (en)
Other versions
JPH11328423A (ja
Inventor
隆 佐藤
明人 阿久津
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP12783298A priority Critical patent/JP3513011B2/ja
Publication of JPH11328423A publication Critical patent/JPH11328423A/ja
Application granted granted Critical
Publication of JP3513011B2 publication Critical patent/JP3513011B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は,ディスプレイ上の動画
映像からテロプ領城を自動抽出する方法および装置に
関する.
【0002】
【従来の技術】ディスプレイ上の動画映像の内容に基づ
く検索や編集等の処理を行うために,映像に含まれる字
幕や写真、記号、模様、マーク、アイコン等のテロップ
情報は有用である。データの入力コストを軽減するため
に、映像からテロツプを自動抽出する方法が提案されて
いる。
【0003】例えば、テロップ領域が高輝度、高コント
ラストであることを利用し、輝度とエッジ密度に基づい
てテロプ領域を抽出する方法(A.G. Hauptmann 他216
6"Text, Speech, and Vision for Video Segmentation:
The Informedia Project", AAAI '95, 1995 等)や、
MPEG等フレム間の相関を用いて符号化された映像デ
ータを対象にして、特定の符号化モードで符号化された
画素を計数することによりテロップ領域を抽出する方法
として(佐藤他、「MPEG2映像からのカット点とテ
ロップの高能率検出法」信学技報PRMU96−99、
1996)がある。
【0004】これらの従来技術は、樹木や建物、衣服や
ネクタイの柄等、輝度やコントラストの特徴がテロ
と似ている被写体を誤って抽出してしまうことが多いた
め、抽出の後処理として、抽出された領域の幅や高さ、
面積などの形状の特徴量を用いて、真のテロプ領域を
ふるい分けることが必要である。従来は、ふるい分けの
ための閾値を経験的に決定していた。例えば上記前者の
文献では、領域の面積が70画素以上、領域の外接長方
形との面積比が0.45以上、外接長方形の縦横比が
0.75以上という値を、経験的に決めていた。
【0005】
【発明が解決しようとする課題】従来の技術では、自動
抽出されたテロプ領域候補の真偽を判別するための閾
値を経験的に決定していた。しかしながら、複数の閾値
を適切に決定するのは困難であり、不適切な閾値を与え
たために誤抽出や抽出漏れが多くなるという問題があっ
た。また、従来の技術では、テロップ領域候補の複数の
特徴量の間にある相関を考慮に入れず、各々独立に判別
していたため、判別能力が劣るという問題があった。
【0006】そこで、本発明は、学習用の映像を用いた
学習によりテロプ領域候補の真偽を最適に判別するこ
とができる映像テロプ領域判別方法および装置を提供
することを目的とする。
【0007】
【課題を解決するための手段】上記目的を達成するため
に、本発明の映像テロップ領域判別方法は、学習用映像
から第1のテロップ領域候補を抽出する第1の抽出段階
と、前記第1のテロップ領域候補を表示手段に表示する
表示段階と、表示されている前記第1のテロップ領域候
補の、人間が指定した真のテロップ領域と擬似のテロッ
プ領域のそれぞれの特徴量を学習する学習段階と、抽出
対象の映像から第1の抽出段階と同じ方法で第2のテロ
ップ領域候補を抽出する第2の抽出段階と、前記学習結
果に基づいて前記第2のテロップ領域候補の真偽を判別
する判別段階を有する。
【0008】学習用の映像として、実際に本発明の方法
または装置を用いてテロップを抽出する対象の映像の一
部を用いてもよいし、典型的なテロプとノイズが映っ
た映像を特別に作成して用いてもよい。例えば、あるニ
ュース番組の1か月分の映像からテロップを抽出する場
合には、そのニュース番組の1週間分の映像を学習用に
用いることができる。
【0009】
【0010】本発明の他の映像領域判別方法は、学習用
映像のフレーム画像を表示手段に時間順に並べて表示す
る表示段階と、前記表示手段に表示されているフレーム
画像を見て人間が指定した時間的区間に存在するテロッ
プを第1のテロップ領域候補として抽出する第1の抽出
段階と、前記第1のテロップ領域候補を真のテロップ領
域として蓄積し、それ以外の区間に存在する前記テロッ
プ領域候補を疑似のテロップ領域として蓄積する蓄積段
階と、前記のテロップ領域と前記擬似のテロップ領域の
それぞれの特徴量を学習する学習段階と、抽出対象の映
像から第1の抽出段階と同じ方法で第2のテロップ領域
候補を抽出する第2の抽出段階と、前記学習結果に基づ
いて第2のテロップ領域候補の真偽を判別する判別段階
とを有する。
【0011】本発明の実施態様によれば、前記判別段階
が、前記第2のテロップ領域候補の特徴量のベクトルと
前記真のテロップ領域の特徴量のベクトルとの距離(D
t)を計算する段階と、前記第2のテロップ領域候補の
特徴量のベクトルと前記疑似のテロップ領域の特徴量の
ベクトルの距離(Df)を計算する段階と、前記2つの
距離(Dt、Df)を比較し、 t の方が小さい場合、前
記第2のテロップ領域候補を真のテロップ領域であると
判定する比較段階とを有する。
【0012】本発明の他の実施態様によれば判別段階
は、第2のテロップ領域候補の特徴量のベクトルと前記
真のテロップ領域の特徴量のベクトルとの距離と、第2
テロップ領域候補の特徴量のベクトルと前記疑似のテ
ロップ領域の特徴量のベクトルとの距離の差を求める判
別関数を作成する段階と、前記判別関数に前記第2のテ
ロップ領域候補の特徴量のベクトルを入力しその結果の
の場合、前記第2のテロップ領域候補を真のテロ
ップ領域と判定する判定段階とを有する。
【0013】本発明の他の実施態様によれば、特徴量と
して、領域の高さと幅の比、領域の面積、領域の高さと
幅の積と面積の比のいずれかを用いる。
【0014】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。図1は発明の映像テロップ
領域判別装置の実施形態の基本的構成の概念図で、学習
部101と、テロップ領域候補抽出部102と、判別部
103から構成される。
【0015】図2は、図1に示す映像テロップ領域抽出
装置の基本的構成の動作のフローチャートである。
【0016】図2を参照すると、まず、学習部101に
学習用映像を入力し(ステプ201)、テロップ領域
の真偽を判別するためのパラメータを学習する。
【0017】次に、テロプ領域候補抽出部102に、
テロップ領域抽出の対象となる映像を入力し、映像から
テロップ領域候補を抽出する(ステプ202)。
【0018】次に、判別部103において、前記パラメ
ータを用いて、前記テロップ領域候補の真偽を判別し、
真のテロップ領域を出力する(ステプ203)。
【0019】テロップ領域の自動的な抽出方法には、例
えば。テロップの画像領域が背景部分に比べて高輝度で
ありエッジ抽出し易いという性質を用いた方法(例え
ば、茂木他、「ニュース映像中の文字認識に基づく記事
の索引付け」、電子情報通信学会技術研究報告IE95
_153、1996等や、MPEGなどのフレーム間の
相関を用いて符号化された映像データのうち、フレーム
間の相関を用い、かつ動き補償を用いないで符号化され
た画素が時間的空間的に集中している部分を抽出する方
法(佐藤他、「MPEG2映像からのカット点とテロッ
プの高能率検出法」、電子情報通信学会技術研究報告P
RMU96−99、pp.47ー54、1996)等に
示される既存のテロップ検出方法を用いることができ
る。
【0020】次に、本発明の映像テロップ領域判別装置
の学習手段の第1の実施の形態を説明する。図3は本発
明の映像テロップ領域判別装置の学習部の第1の実施の
形態のブロック図であり、テロップ領域候補抽出部30
1と、領域指定部302と、蓄積部3O3と、蓄積部3
04と、パラメータ計算部3O5と、パラメータ計算部
306から構成される。
【0021】このテロップ領域候補抽出部301は、前
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
【0022】図4は図3に示す第1の実施の形態の動作
のフローチャートである。まず、学習用映像をテロップ
領域候補抽出部301に入力し、テロップ領域候補を抽
出する(ステプ401)。
【0023】次に、領域指定部302において、前記抽
出されたテロップ領域候補の真偽を指定する(ステ
402)。例えば、図5に示すように、ブラウン管や液
晶デイスプレイなどの表示手段に抽出されたテロップ領
域候補を表示し、マウスやタチパネルなどのポインテ
ングデバイスによつて、真のテロップ領域(図5では
「ABC」の領域)を指定する。この場合、何も指定さ
れなかったテロップ領域候補を疑似のテロップ領域とす
ればよい。
【0024】次に、真と指定されたテロプ領域とその
特徴量を蓄積部303に蓄積し、偽と指定されたテロッ
プ領域とその特徴量を蓄積部304に蓄積する(ステ
プ403)。最後に、パラメータ計算部305におい
て、蓄積部303に蓄積された真のテロップ領域の特徴
量を用いて、判別パラメータを計算する。同様に、パラ
メータ計算部306では、疑似のテロップ領域の特徴量
を用いて判別パラメータFを計算する(ステプ40
4)。
【0025】この第1の実施の形態は、個々のテロ
領域候補の真偽を指定するので、精度の高い学習を実現
することができる。
【0026】次に、本発明の映像テロップ領域判別装置
の学習部の第2の実施の形態を説明する。図6は本発明
の映像テロップ領域判別装置の学習部の第2の実施の形
態のブロック図である。この学習部の第2の実施の形態
は区間指定部601と、テロップ領域候補抽出部602
と、蓄積部603と、蓄積部604と、パラメータ計算
部T605と、パラメータ計算部F606から構成され
る。
【0027】このテロップ領域候補抽出部602は、前
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
【0028】続いて、本実施の形態の動作について説明
する。図7は、図6に示す学習部の第2の実施の形態の
フローチャートである。まず、学習用映像を区間指定部
601に入力し、テロップの存在する時間的な区間を指
定する(ステプ701)。
【0029】例えば、図8に示すように、ブラウン管や
液晶デスプレイ等の表示手段に学習用映像のフレーム
画像802を時間順に並ベて表示し、その横のボタン8
03を、マウスやタチパネルなどのポインティングデ
バイスによって押すことによって、テロプが存在する
時間的区間を指定する。スクロールバー801は表示手
段に表示しきれない場合に、表示をスクロールするのに
使用される。
【0030】次に、同じ学習用映像のフレーム画像を、
テロップ領域候補抽出部602に入力し、テロップ領域
候補を抽出する(ステプ702)。
【0031】次に、区間指定部601においてテロ
が存在すると指定された区間で、抽出されたテロプ領
域候補を、真のテロップ領域とし、蓄積部603に蓄積
する。それ以外のテロップ領域候補は、疑似のテロップ
領城と看做し、蓄積部604に蓄積する(ステプ70
3)。
【0032】最後に、パラメータ計算部605におい
て、蓄積部603に蓄積された真のテロップ領域の特徴
量を用いて、判別パラメータTを計算する。同様に、パ
ラメータ計算部606では、判別パラメータFを計算す
る(ステプ704)。
【0033】この学習部の第2の実施の形態は、第1の
学習部の実施の形態と比ベて、個々のテロツプ領域候補
の真偽を指定しないので、学習の精度が落ちるが、真偽
を指定するための入力コストが少なくて済むという利点
がある。
【0034】次に、本発明の映像テロップ領域判別装置
の判別部の第1の実施の形態について説明する。図9は
本発明の映像テロップ領域判別装置の判別部の第1の実
施の形態のブロック図である。この実施の形態は、距離
計算部901と、距離計算部902と、比較部903か
ら構成される。
【0035】本装置が対象とする映像からテロップ領域
候補抽出部102によって抽出されたテロップ領域候補
を、距離計算部901と、距離計算部902にそれぞれ
入力する。
【0036】また、距離計算部901には、学習部10
1から出力された真の判別パラメータTも入力する。距
離計算部901は、判別パラメータTと、テロップ領域
候補の特徴量のベクトルとを比較して、テロップ領域候
補と真のテロプ領域群の特徴量ベクトルとの距離Dt
を求める。
【0037】同様にして、距離計算部902は、疑似の
判別パラメータFを入力し、距離Dfを求める。比較部
903では、距離Dt fを比較し、Dtの方が小さい
場合に、テロップ領域候補が真のテロップ領域であると
判別する。
【0038】この実施の形態は、テロップ領域候補の特
徴量の、真のテロップ領域の特徴量からの距離と、疑似
のテロプ領域の特徴量からの距離とを比較するので、
経験的な閾値に依らず、最適な判別を行うことができ
る。
【0039】図12は学習部の第1の実施の形態と判別
部の第1の実施の形態を適用した映像テロップ領域頑別
装置のブロック図である。また、図14は学習部の第2
の実施の形態と判別部の第1の実施の形態とを適用した
映像テロップ領域判別装置のブロック図である。
【0040】次に、本発明の映像テロップ領域判別装置
の判別部の第2の実施の形態について説明する。図10
は本発明の映像テロップ領域判別装置の判別部の第2の
実施の形態のブロック図である。この判別部の実施の形
態は判別関数作成部1001と、判定部1002から構
成される。
【0041】学習101から出力され判別パラメー
タを、判別関数作成部1001に入力し、真のテロップ
領域の特徴量の位置からの距離から、疑似のテロップ領
域の特徴量からの距離を引いた差を求める判別関数を作
成する。
【0042】判定部1002は、今求めた判別関数と、
本装置が対象とする映像からテロップ領域候補抽出部1
02によって抽出されたテロップ領域候補とが入力さ
れ、判別関数の出力が負である場合に、テロップ領域候
補が真のテロップ領域であると判定する。
【0043】この判別部第2の実施の形態を判別部の第
1の実施の形態と比ベると、判別関数の計算コストが、
距離計算部901と距離計算部902の計算コストを合
わせたものより小さいので、一つのテロップ領域候補に
対する計算コストが小さくなるという利点がある。
【0044】図13は学習部の第1の実施の形態と判別
部の第2の実施の形態が適用された映像テロップ領域判
別装置装置のブロック図である。
【0045】また、学習部の第2の実施の形態と判別部
の第2の実施の形態が適用された映像テロップ領域判別
装置装置のブロック図である。
【0046】次に、図11を用いて、本発明で用いるこ
とができるテロップ領域の特徴量について説明する。こ
こでは、図の斜線で示されたテロップ領域に対して、幅
w、高さhとすると、w=6、h=3である。面積a、
外接長方形との面積比p、縦横比qを求めると、それぞ
れ、a=14、p=0.78、q=2となる。これら
を、特徴量ベクトルx=(a,p,q)=(14,0.
78,2)とまとめて表す。この特徴量は、真のテロ
プ領域が充分な面積をもち、細長い長方形をしていると
いう予想に基づいて選んだものである。
【0047】次に、学習によって求められる判別パラメ
ータと、前記の距離についてマハラノビス汎距離に基づ
いた実施例を説明する。
【0048】判別パラメータとして、真と偽それぞれに
つき、蓄積部に蓄積されたテロプ領域の特徴量につい
て、分散共分散行列と、平均ベクトルを作る。すなわ
ち、蓄積部に蓄積された真のテロップ領域の特徴量xt
=(at、pt、qt)の集合について、分散共分散行列
tは、
【0049】
【数1】 となる。ただし、v(A、B)は、集合A={ai|0
≦i≦N},B={bi|0≦i≦N}の共分散を表
し、
【0050】
【数2】 と定義される。なお、v(A、A)は、Aの分散にな
る。平均ベクトル”xt”は、
【0051】
【数3】 と定義される。
【0052】次に、分散共分算行列Stと平均ベクト
ル”xt”を用いて、テロップ領域候補の特徴量ベクト
ルxと、真のテロップ領域の特徴量の集合との距離を次
のように定義する。
【0053】
【数4】 ただし、XTはXの転置行列を表す。Dtはa、p、qに
ついての2次式になる。
【0054】同様にして、疑似のテロップ領域の特徴量
ベクトル集合についても、分散共分散行列Sfと、平均
ベクトル”xf”を求め、距離Dfを、
【0055】
【数5】 と定義する。
【0056】テロップ領域候補それぞれについてDt
fを求めて、Dt<Dfとなれば、そのテロプ領域候
補は、真のテロップ領域の集合に特徴量ベクトルが近い
ことを表すので、真のテロプ領域であると判別する。
【0057】ここで、DtとDfの差を求める判別関数z
を z(x)=Dt(x)―Df(x) と定義すると、zもa,pについての2次式になる。し
たがって、zを計算する方が、Dt、Dfを別々に計算し
て比較するより、計算コストが低くなる。
【0058】なお、本発明は、ここで示した特徴量に限
定するものではなく、その他に、テロプの持続時間
や、画面上での配置、輝度や色の分布などを特徴量とし
て用いることができる。
【0059】なお、以上の実施形態で示した各種の学習
段階や判別段階は、コンピュータで適宜実行することが
可能であり、その手順をコンピュータに実行させるプロ
グラムを、そのコンピュータが読み取り可能な記録媒
体、例えばフロッピーデイスクやCD・ROMなどに記
録して配布することができる。
【0060】
【発明の効果】請求項1、7、13の発明は、学習用映
像から真のテロップ領域の特徴量と疑似のテロツプ領域
の特徴量を学習し、その学習結果に基づいて、テロップ
領域候補の真偽を判別するので、経験的な閾値に依ら
ず、複数の特徴量の間にある相関を考慮に入れて、テロ
ップ領域候補の真偽を最適に判別することカぎできる。
【0061】請求項の発明は、真のテロップ領域
の存在する時間的区間を指定し、個々のテロップ領域候
補の真偽を指定しないので、精度は多少は落ちるもの
の、学習のための入力コストを小さくすることができる
効果がある。
【0062】また、請求項の発明は、テロップ領
城候補の特徴量の、真のテロップ領域の特徴量の位置か
らの距離と、疑似のテロップ領域の特徴量の位置からの
距離とを比較するので、経験的な閾値に依らず、最適な
判別を行うことができる効果がある。
【0063】また、請求項10の発明は、真のテロ
ップ領城の特徴量の位置からの距離と、疑似のテロップ
領域の特徴量の位置からの距離との差を求める判別関数
を作成し、テロップ領域候補の特徴量をそれに入力した
ときの出カ値の正負を判定するので、一つのテロップ領
域候補に対する計算コストを小さくすることできる効
果がある。
【0064】また、請求項11の発明は、テロップ
領域の特徴量として、領域の高さと幅の比、領域の面
積、領域の高さと幅の積と面積の比を用いるので、テロ
ップ領域の面積と長方形らしさ、細長い様子を評価する
ことができる効果がある。
【図面の簡単な説明】
【図1】本発明の映像テロプ領域判別装置の実施形態
の基本構成を説明するブロック図である。
【図2】本発明の映像テロップ領域判別方法を適用した
図1に示す基本的な説明用モデル装置の動作を説明する
フローチャートである。
【図3】本発明のテロップ映像領域判別装置の学習部の
第1の実施の形態のブロック図である。
【図4】図3に示す学習部101の実施の形態を説明す
るフローチャートである。
【図5】領域指定部の真のテロップ領域を説明する図で
ある。
【図6】本発明の映像テロップ領域判別装置の学習部の
第2の実施の形態の詳細プロック図である。
【図7】図6に示す学習部の第2の実施の形態の動作を
説明するフローチャートである。
【図8】図6に示す区間指定部601を説明する図であ
る。
【図9】本発明の映像テロップ領域判別措置の判別部の
第1の実施の形態のブロック図である。
【図10】本発明の映像テロップ領域判別装置の判別部
の第2の実施の形態のブロック図である。
【図11】テロップ領域の特徴量を説明する図である。
【図12】学習部の第1の実施の形態と判別部の第1の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【図13】学習部の第1の実施の形態と判別部の第2の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【図14】学習部の第2の実施の形態と判別部の第1の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【図15】学習部の第2の実施の形態と判別部の第2の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【符号の説明】
101 学習部 102 テロップ領域候補抽出部 103 判別部201〜203 ステップ 301 テロップ領域候補抽出部 302 領域指定部 303 蓄積部 304 蓄積部 305 パラメータ計算部 306 パラメータ計算部401〜404 ステップ 601 区間指定部 602 テロップ領域候補抽出部 603 蓄積部 604 蓄積部 605 パラメータ計算部 606 パラメータ計算部701〜704 ステップ 801 スクロールバー 802 フレーム画像 803 ボタン 901 領域指定部 902 テロップ領域抽出部 903 比較部 1001 判別関数作成部 1002 判定
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平10−40391(JP,A) 特開 平2−245882(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 1/40 - 1/419 H04N 7/24 - 7/68

Claims (13)

    (57)【特許請求の範囲】
  1. 【請求項1】 ディスプレイ上の動画映像からテロップ
    領域を抽出し判別する方法において、学習用映像から第1のテロップ領域候補を抽出する第1
    の抽出段階と、 前記第1のテロップ領域候補を表示手段に表示する表示
    段階と、 表示されている前記第1のテロップ領域候補の、人間が
    指定した 真のテロップ領域と擬似のテロップ領域のそれ
    ぞれの特徴量を学習する学習段階と、 抽出対象の映像から第1の抽出段階と同じ方法で第2の
    テロップ領域候補を抽出する第2の抽出段階と、 前記学習結果に基づいて前記第2のテロップ領域候補の
    真偽を判別する判別段階とを有することを特徴とする映
    像テロップ領域判別方法。
  2. 【請求項2】 ディスプレイ上の動画映像からテロップ
    領域を抽出し判別する方法において、 学習用映像のフレーム画像を表示手段に時間順に並べて
    表示する表示段階と、 前記表示手段に表示されているフレーム画像を見て人間
    が指定した時間的区間に存在するテロップを第1のテロ
    ップ領域候補として抽出する第1の抽出段階と、 前記第1のテロップ領域候補を真のテロップ領域として
    蓄積し、それ以外の区間に存在する前記テロップ領域候
    補を疑似のテロップ領域として蓄積する蓄積段階と、 前記真のテロップ領域の特徴量と前記擬似のテロップ領
    域の特徴量を学習する学習段階と、 抽出対象の映像から第1の抽出段階と同じ方法で第2の
    テロップ領域候補を抽出する第2の抽出段階 と、前記学習結果に基づいて第2のテロップ領域候補の真偽
    を判別する判別段階とを 有することを特徴とする映像テ
    ロップ領域判別方法。
  3. 【請求項3】 前記判別段階が、前記第2の テロップ領域候補の特徴量のベクトルと前記
    真のテロップ領域の特徴量のベクトルとの距離(Dt
    を計算する第1の段階と、 前記第2のテロップ領域候補の特徴量のベクトルと前記
    疑似のテロップ領域の特徴量のベクトルの距離(Df
    を計算する第2の段階と、 前記2つの距離(Dt、Df)を比較し、D t の方が小さ
    い場合、前記第2のテロップ領域候補を真のテロップ領
    域であると判別する比較段階とを有する、請求項1また
    2に記載の映像テロップ領域判別方法。
  4. 【請求項4】 前記判別段階が、前記第2の テロップ領域候補の特徴量のベクトルと前記
    真のテロップ領域の特徴量のベクトルとの距離と、前記
    第2のテロップ領域候補の特徴量のベクトルと前記疑似
    のテロップ領域の特徴量のベクトルとの距離の差を求め
    る判別関数を作成する段階と、 前記判別関数に前記第2のテロップ領域候補の特徴量の
    ベクトルを入力し、その結果の値の場合、前記第2
    のテロップ領域候補を真のテロップ領域と判別する判定
    段階とを有する、請求項1または2記載の映像テロップ
    領域判別方法。
  5. 【請求項5】 テロップ領域の特徴量として、領域の高
    さと幅の比、領域の面積、領域の高さと幅の積と面積の
    比のいずれかを用いる、請求項1から4のいずれか1項
    に記載の映像テロップ領域判別方法。
  6. 【請求項6】 前記特徴量ベクトルの間の距離として、
    マハラノビス汎距離を用いる、請求項3または4に記載
    の映像テロップ領域判別方法。
  7. 【請求項7】 ディスプレイ上の動画映像からテロップ
    領域を抽出し判別する装置において、学習用映像から第1のテロップ領域候補を抽出する第1
    の抽出手段と、 前記第1のテロップ領域候補を表示する表示手段と、 人間が、前記表示手段に表示されている前記第1のテロ
    ップ領域候補の真のテロップ領域と擬似のテロップ領域
    を指定するための領域指定手段と、 前記第1のテロップ領域候補の、指定された から真のテ
    ロップ領域と疑似のテロップ領域のそれぞれの特徴量を
    学習する学習手段と、 抽出対象映像から第1の抽出手段と同じ方法で第2の
    ロップ領域候補を抽出する第2の抽出手段と, 前記学習結果に基づいて前記第2のテロップ領域候補の
    真偽を判別する判別手段を有することを特徴とする映像
    テロップ領域判別装置。
  8. 【請求項8】 ディスプレイ上の動画映像からテロップ
    領域を抽出し判別する装置において、 前記学習用映像のフレーム画像を時間順に並べて表示す
    る表示手段と、 前記表示手段に表示されているフレーム画像を見て人間
    が、テロップが存在する時間的区間を指定するための領
    城指定手段と、 指定された時間的区間に存在するテロップを第1のテロ
    ップ領域候補として抽出する第1の抽出手段と、 前記第1のテロップ領域候補を真のテロップ領域として
    蓄積し、それ以外の区間に存在する前記テロップ領域候
    補を疑似のテロップ領域として蓄積する蓄積手段と、 前記真のテロップ領域の特徴量と前記疑似のテロップ領
    域の特徴量を学習する学習手段と、 抽出対象の映像から第1の抽出手段と同じ方法で第2の
    テロップ領域候補を抽出する抽出手段と、 前記学習結果に基づいて前記第2のテロップ領域候補の
    真偽を判別する判別手段を有することを特徴とする映像
    テロップ領域判別装置。
  9. 【請求項9】 前記判別手段が、 前記第2のテロップ領域候補の特徴量のベクトルと前記
    真のテロップ領域の特徴量のベクトルとの距離(Dt
    を計算する第1の距離計算手段と、 前記第2のテロップ領域候補の特徴量のベクトルと前記
    疑似のテロップ領域の特徴量のベクトルとの距離
    (Dt)を計算する第2の距離計算手段と、 前記の2つの距離(Dt、Df)を比較し、D t の方が小
    さい場合、前記第2のテロップ領域候補を真のテロップ
    領域であると判別する比較手段を有する、請求項7また
    8に記載の映像テロップ領域判別装置。
  10. 【請求項10】 前記判別手段が、前記第2の テロップ領域候補の特徴量のベクトルと前記
    真のテロップ領域の特徴量のベクトルとの距離と、前記
    第2のテロップ領域候補の特徴量のベクトルと前記疑似
    のテロップ領域の特徴量のベクトルとの距離との差を求
    める判別関数を作成する判別関数作成手段と、 前記判別関数に前記第2のテロップ領域候補の特徴量
    ベクトルを入力し、その結果の値の場合、前記第2
    のテロップ領域候補を真のテロップ領域と判別する判定
    手段を有する、請求項7または8に記載の映像テロップ
    領域判別装置。
  11. 【請求項11】 テロップ領域の特徴量として、領域の
    高さと幅の比、領域の面積、領域の高さと幅の積と面積
    の比のいずれかを用いる、請求項7から10のいずれか
    1項に記載の映像テロップ領域判別装置。
  12. 【請求項12】 前記特徴量ベクトルの間の距離とし
    て、マハラノビス汎距離を用いる、請求9または10
    記載の映像テロップ領域判別装置。
  13. 【請求項13】 請求項1から6のいずれか1項に記載
    の映像テロップ領域判別方法をコンピュータに実行させ
    るためのプログラムが記録された、コンピュータ読み取
    り可能な記録媒体。
JP12783298A 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 Expired - Fee Related JP3513011B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12783298A JP3513011B2 (ja) 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12783298A JP3513011B2 (ja) 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JPH11328423A JPH11328423A (ja) 1999-11-30
JP3513011B2 true JP3513011B2 (ja) 2004-03-31

Family

ID=14969775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12783298A Expired - Fee Related JP3513011B2 (ja) 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3513011B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008050718A1 (fr) * 2006-10-26 2008-05-02 Nec Corporation Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme
JP4659793B2 (ja) * 2007-08-07 2011-03-30 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JPH11328423A (ja) 1999-11-30

Similar Documents

Publication Publication Date Title
US11861903B2 (en) Methods and apparatus to measure brand exposure in media streams
US6243419B1 (en) Scheme for detecting captions in coded video data without decoding coded video data
US6366699B1 (en) Scheme for extractions and recognitions of telop characters from video data
US6470094B1 (en) Generalized text localization in images
US7020351B1 (en) Method and apparatus for enhancing and indexing video and audio signals
US7519264B2 (en) Broadcast program contents menu creation apparatus and method
US20040090453A1 (en) Method of and system for detecting uniform color segments
US20070127775A1 (en) Method and apparatus for color-based object tracking in video sequences
US20060008152A1 (en) Method and apparatus for enhancing and indexing video and audio signals
Wernicke et al. On the segmentation of text in videos
US8311269B2 (en) Blocker image identification apparatus and method
US8331667B2 (en) Image forming system, apparatus and method of discriminative color features extraction thereof
Kim et al. Visual rhythm and shot verification
JP3655110B2 (ja) 映像処理方法及び装置並びに映像処理手順を記録した記録媒体
JP3513011B2 (ja) 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体
US20030086021A1 (en) Image processing apparatus and method, and computer-readable memory
JP3469122B2 (ja) 編集用映像区間分類方法及び装置、並びにこの方法を記録した記録媒体
Aner-Wolf et al. Video summaries and cross-referencing through mosaic-based representation
JP2004080156A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体並びに画像処理システム
JP3379453B2 (ja) 字幕領域検出方法及びその装置、並びに動画像検索方法及びその装置
Kim et al. An efficient graphical shot verifier incorporating visual rhythm
Lee et al. Automatic person information extraction using overlay text in television news interview videos
JP3498875B2 (ja) 動画像処理システム
CA2643532A1 (en) Methods and apparatus to measure brand exposure in media streams and to specify regions of interest in associated video frames

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees