JPH11328423A - 映像テロップ領域判別方法と装置と方法を記録した記録媒体 - Google Patents

映像テロップ領域判別方法と装置と方法を記録した記録媒体

Info

Publication number
JPH11328423A
JPH11328423A JP10127832A JP12783298A JPH11328423A JP H11328423 A JPH11328423 A JP H11328423A JP 10127832 A JP10127832 A JP 10127832A JP 12783298 A JP12783298 A JP 12783298A JP H11328423 A JPH11328423 A JP H11328423A
Authority
JP
Japan
Prior art keywords
telop
area
video
region
telop area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10127832A
Other languages
English (en)
Other versions
JP3513011B2 (ja
Inventor
Takashi Sato
隆 佐藤
Akito Akutsu
明人 阿久津
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP12783298A priority Critical patent/JP3513011B2/ja
Publication of JPH11328423A publication Critical patent/JPH11328423A/ja
Application granted granted Critical
Publication of JP3513011B2 publication Critical patent/JP3513011B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

(57)【要約】 【課題】 判定誤差の少ないテロップ領域抽出方法と装
置の提供。 【解決手段】 学習用映像の中の真のテロップ領域と、
その特徴量を蓄積する蓄積部T903と該蓄積部T30
3から真のテロップの判別パラメータを出力するパラメ
ータ計算部T304と、疑似テロップ領域とその特徴量
を蓄積する蓄積部F305と該蓄積部F305から判別
パラメータを出力するパラメータ計算部F306と、、
抽出対象映像のテロップ候補領域の特徴量のベクトルと
真のテロップ領域の特徴量のベクトルとの距離Dtを求
める距離計算部T901と、同様に候補領域特徴量のベ
クトルと疑似テロップの領域の特徴量のベクトルとの距
離D fとを算出する距離計算部Fと、距離DtとDfとを
比較してDtの小さい場合の候補領域が真のテロップ領
域と判定する比較部903とを有する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は,ディスプレイ上の動画
映像からテロツプ領城を自動抽出する方法および装置に
関する.
【0002】
【従来の技術】ディスプレイ上の動画映像の内容に基づ
く検索や編集等の処理を行うために,映像に含まれる字
幕や写真、記号、模様、マーク、アイコン等のテロップ
情報は有用である。データの入力コストを軽減するため
に、映像からテロツプを自動抽出する方法が提案されて
いる。
【0003】例えば、テロップ領域が高輝度、高コント
ラストであることを利用し、輝度とエッジ密度に基づい
てテロツプ領域を抽出する方法(A.G. Hauptmann 他216
6“Text, Speech, and Vision for Video Segmentatio
n: The Informedia Project", AAAI '95, 1995 等)
や、MPEG等フレム間の相関を用いて符号化された映
像データを対象にして、特定の符号化モードで符号化さ
れた画素を計数することによりテロップ領域を抽出する
方法として(佐藤他、「MPEG2映像からのカット点
とテロップの高能率検出法」信学技報PRMU96−9
9、1996)がある。
【0004】これらの従来技術は、樹木や建物、衣服や
ネクタイの柄等、輝度やコントラストの特徴がテロツプ
と似ている被写体を誤って抽出してしまうことが多いた
め、抽出の後処理として、抽出された領域の幅や高さ、
面積などの形状の特徴量を用いて、真のテロツプ領域を
ふるい分けることが必要である。従来は、ふるい分けの
ための閾値を経験的に決定していた。例えば上記前者の
文献では、領域の面積が70画素以上、領域の外接長方
形との面積比が0.45以上、外接長方形の縦横比が
0.75以上という値を、経験的に決めていた。
【0005】
【発明が解決しようとする課題】従来の技術では、自動
抽出されたテロツプ領域候補の真偽を判別するための閾
値を経験的に決定していた。しかしながら、複数の閾値
を適切に決定するのは困難であり、不適切な閾値を与え
たために誤抽出や抽出漏れが多くなるという問題があっ
た。また、従来の技術では、テロップ領域候補の複数の
特徴量の間にある相関を考慮に入れず、各々独立に判別
していたため、判別能力が劣るという問題があった。
【0006】そこで、本発明は、学習用の映像を用いた
学習によりテロツプ領域候補の真偽を最適に判別するこ
とができる映像テロツプ領域判別方法および装置を提供
することを目的とする。
【0007】
【課題を解決するための手段】前記課題を解決するため
に、本発明は、学習用映像から真のテロップ領域の特徴
量と疑似のテロツプ領域の特徴量を学習する学習段階
と、抽出対象の映像からテロップ領域候補を抽出する抽
出段階と、前記学習結果に基づいて前記テロツプ領域候
補の真偽を判別する判別段階を有する。
【0008】学習用の映像として、実際に本発明の方法
または装置を用いてテロップを抽出する対象の映像の一
部を用いてもよいし、典型的なテロツプとノイズが映っ
た映像を特別に作成して用いてもよい。例えば、あるニ
ュース番組の1か月分の映像からテロツプを抽出する場
合には、そのニュース番組の1週間分の映像を学習用に
用いることができる。
【0009】また、本発明は、前記学習段階が、前記学
習用映像からテロップ領域候補を抽出する抽出段階と、
前記テロップ領域候補の真偽を指定する領域指定段階を
有するもをのも含む。
【0010】また、前記学習段階には、前記学習用映像
に真のテロツプ領域の存在する時間的区間を指定する時
間的区間指定段階と、前記学習用映像からテロップ領域
候補を抽出する抽出段階と、前記時間的区間に存在する
前記テロップ領域候補を真のテロップ領域として蓄積
し、それ以外の区間に存在する前記テロップ領域候補を
疑似のテロツプ領域として蓄積する蓄積段階を有するも
のも含まれる。
【0011】また、前記判別段階が、前記テロップ領域
候補の特徴量の位置と前記真のテロツプ領域の特徴量の
位置との間の距離(Dt)を計算する段階と、前記テロ
ップ領域候補の特徴量の位置と前記疑似のテロップ領域
の特徴量の位置との間の距離(Df)を計算する段階
と、前記の2つの距離(Dt、Df)を比較する比較段階
を有するものも本発明に含まれる。
【0012】また、前記判別段階が、前記抽出されたテ
ロップ領域候補の特徴量の位置の真のテロップ領域の特
徴量からの距離と前記疑似のテロツプ領域の特徴量から
の距離との差を求める判別関数を作成する段階と、前記
判別関数に前記テロップ領域候補の特徴量の位置を入力
した結果の出力値の正負を判定する判定段階を有するも
のも本発明に含まれる。
【0013】また、前記特徴量として、領域の高さと幅
の比、領域の面積、領域の高さと幅の積と面積の比を用
いるのが好ましい実施態様である。
【0014】
【実施の形態】次に、本発明の実施の形態について図面
を参照して説明する。図1は発明の映像テロップ領域判
別装置の実施形態の基本的構成の概念図で、学習部10
1と、テロップ領域候補抽出部102と、判別部103
から構成される。
【0015】図2は、図1に示す映像テロップ領域抽出
装置の基本的構成の動作のフローチャートである。
【0016】図2を参照すると、まず、学習部101に
学習用映像を入力し(ステツプ201)、テロツプ領域
の真偽を判別するためのパラメータを学習する。
【0017】次に、テロツプ領域候補抽出部102に、
テロップ領域抽出の対象となる映像を入力し、映像から
テロツプ領域候補を抽出する(ステツプ202)。
【0018】次に、判別部103において、前記パラメ
ータを用いて、前記テロップ領域候補の真偽を判別し、
真のテロップ領域を出力する(ステツプ203)。
【0019】テロップ領域の自動的な抽出方法には、例
えば。テロップの画像領域が拝啓部分に比べて高輝度で
ありエッジ抽出し易いという性質を用いた方法(例え
ば、茂木他、「ニュース映像中の文字認識に基づく記事
の索引付け」、電子情報通信学会技術研究報告IE95
_153、1996等や、MPEGなどのフレーム間の
相関を用いて符号化された映像データのうち、フレーム
間の相関を用い、かつ動き補償を用いないで符号化され
た画素が時間的空間的に集中している部分を抽出する方
法(佐藤他、「MPEG2映像からのカット点とテロッ
プの高能率検出法」、電子情報通信学会技術研究報告P
RMU96−99、pp.47ー54、1996)等に
示される既存のテロップ検出方法を用いることができ
る。
【0020】次に、本発明の映像テロップ領域判別装置
の学習手段の第1の実施の形態を説明する。図3は本発
明の映像テロップ領域判別装置の学習部の第1の実施の
形態のブロック図であり、テロップ領域候補抽出部30
1と、領域指定部302と、蓄積部T3O3と、蓄積部
F304と、パラメータ計算部T3O5と、パラメータ
計算部F306から構成される。
【0021】このテロップ領域候補抽出部301は、前
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
【0022】図4は図3に示す第1の実施の形態の動作
のフローチャートである。まず、学習用映像をテロップ
領域候補抽出部301に入力し、テロップ領域候補を抽
出する(ステツプ401)。
【0023】次に、領域指定部302において、前記抽
出されたテロップ領域候補の真偽を指定する(ステツプ
402)。例えば、図5に示すように、ブラウン管や液
晶デイスプレイなどの表示手段に抽出されたテロツプ領
域候補を表示し、マウスやタツチパネルなどのポインテ
イングデバイスによつて、真のテロップ領域(図5では
「ABC」の領域)を指定する。この場合、何も指定さ
れなかったテロツプ領域候補を疑似のテロツプ領域とす
ればよい。
【0024】次に、真と指定されたテロツプ領域とその
特徴量を蓄積部T303に蓄積し、偽と指定されたテロ
ップ領域とその特徴量を蓄積部F304に蓄積する(ス
テツプ403)。最後に、パラメータ計算部T305に
おいて、蓄積部Tに蓄積された真のテロップ領域の特徴
量を用いて、判別パラメータTを計算する。同様に、パ
ラメータ計算部F306では、疑似のテロップ領域の特
徴量を用いて判別パラメータFを計算する(ステツプ4
04)。
【0025】この第1の実施の形態は、個々のテロツプ
領域候補の真偽を指定するので、精度の高い学習を実現
することができる。
【0026】次に、本発明の映像テロップ領域判別装置
の学習部の第2の実施の形態を説明する。図6は本発明
の映像テロップ領域判別装置の学習部の第2の実施の形
態のブロック図である。この学習部の第2の実施の形態
は区間指定部601と、テロップ領域候補抽出部602
と、蓄積部T603と、蓄積部F604と、パラメータ
計算部T605と、パラメータ計算部F606から構成
される。
【0027】このテロップ領域候補抽出部602は、前
記テロップ領域候補抽出部102と同じ機能のものを用
いるか、同一の装置を時分割で用いることもできる。
【0028】続いて、本実施の形態の動作について説明
する。図7は、図6に示す学習部の第2の実施の形態の
フローチャートである。まず、学習用映像を区間指定部
601に入力し、テロップの存在する時間的な区間を指
定する(ステツプ701)。
【0029】例えば、図8に示すように、ブラウン管や
液晶デイスプレイ等の表示手段に学習用映像のフレーム
画像802を時間順に並ベて表示し、その横のボタン8
03を、マウスやタツチパネルなどのポインティングデ
バイスによって押すことによって、テロツプが存在する
時間的区間を指定する。スクロールバー801は表示手
段に表示しきれない場合に、表示をスクロールするのに
使用される。
【0030】次に、同じ学習用映像のフレーム画像を、
テロップ領域候補抽出部602に入力し、テロツプ領域
候補を抽出する(ステツプ702)。
【0031】次に、区間指定部601においてテロツプ
が存在すると指定された区間で、抽出されたテロツプ領
域候補を、真のテロップ領域とし、蓄積部T603に蓄
積する。それ以外のテロップ領域候補は、疑似のテロッ
プ領城と看做し、蓄積部F604に蓄積する(ステツプ
703)。
【0032】最後に、パラメータ計算部T605におい
て、蓄積部Tに蓄積された真のテロップ領域の特徴量を
用いて、判別パラメータTを計算する。同様に、パラメ
ータ計算部F606では、判別パラメータFを計算する
(ステツプ704)。
【0033】この学習部の第2の実施の形態は、第1の
学習部の実施の形態と比ベて、個々のテロツプ領域候補
の真偽を指定しないので、学習の精度が落ちるが、真偽
を指定するための入力コストが少なくて済むという利点
がある。
【0034】次に、本発明の映像テロップ領域判別装置
の判別部の第1の実施の形態について説明する。図9は
本発明の映像テロップ領域判別装置の判別部の第1の実
施の形態のブロック図である。この実施の形態は、距離
計算部T901と、距離計算部F902と、比較部90
3から構成される。
【0035】本装置が対象とする映像からテロップ領域
候補抽出部102によって抽出されたテロップ領域候補
を、距離計算部T901と、距離計算部F902にそれ
ぞれ入力する。
【0036】また、距離計算部T901には、学習部1
01から出力された真の判別パラメータTも入力する。
距離計算部T901は、判別パラメータTと、テロップ
領域候補の特徴量のベクトルとを比較して、テロツプ領
域候補と真のテロップ領域群の特徴量ベクトルとの距離
tを求める。
【0037】同様にして、距離計算部F902は、疑似
の判別パラメータFを入力し、距離Dfを求める。比較
部903では、距離Dt、Dfを比較し、Dtの方が小さ
い場合に、テロップ領域候補が真のテロップ領域である
と判別する。
【0038】この実施の形態は、テロップ領域候補の特
徴量の、真のテロップ領域の特徴量からの距離と、疑似
のテロツプ領域の特徴量からの距離とを比較するので、
経験的な閾値に依らず、最適な判別を行うことができ
る。
【0039】図12は学習部の第1の実施の形態と判別
部の第1の実施の形態を適用した映像テロップ領域頑別
装置のブロック図である。また、図14は学習部の第2
の実施の形態と判別部の第1の実施の形態とを適用した
映像テロップ領域判別装置のブロック図である。
【0040】次に、本発明の映像テロップ領域判別装置
の判別部の第2の実施の形態について説明する。図10
は本発明の映像テロップ領域判別装置の判別部の第2の
実施の形態のブロック図である。この判別部の実施の形
態は判別関数作成部1001と、判定部1002から構
成される。
【0041】学習分101から出力され他判別パラメー
タを、判別関数作成部1001に入力し、真のテロップ
領域の特徴量の位置からの距離から、疑似のテロップ領
域の特徴量からの距離を引いた差を求める判別関数を作
成する。
【0042】判定部1002は、今求めた判別関数と、
本装置が対象とする映像からテロップ領域候補抽出部1
02によって抽出されたテロップ領域候補とが入力さ
れ、判別関数の出力が負である場合に、テロップ領域候
補が真のテロップ領域であると判定する。
【0043】この判別部第2の実施の形態を判別部の第
1の実施の形態と比ベると、判別関数の計算コストが、
距離計算部Tと距離計算部Fの計算コストを合わせたも
のより小さいので、一つのテロップ領域候補に対する計
算コストが小さくなるという利点がある。
【0044】図13は学習部の第1の実施の形態と判別
部の第2の実施の形態が適用された映像テロップ領域判
別装置装置のブロック図である。
【0045】また、学習部の第2の実施の形態と判別部
の第2の実施の形態が適用された映像テロップ領域判別
装置装置のブロック図である。
【0046】次に、図11を用いて、本発明で用いるこ
とができるテロップ領域の特徴量について説明する。こ
こでは、図の斜線で示されたテロップ領域に対して、幅
w、高さhとすると、w=6、h=3である。面積a、
外接長方形との面積比p、縦横比qを求めると、それぞ
れ、a=14、p=0.78、q=2となる。これら
を、特徴量ベクトルx=(a,p,q)=(14,0.
78,2)とまとめて表す。この特徴量は、真のテロツ
プ領域が充分な面積をもち、細長い長方形をしていると
いう予想に基づいて選んだものである。
【0047】次に、学習によって求められる判別パラメ
ータと、前記の距離についてマハラノビス汎距離に基づ
いた実施例を説明する。
【0048】判別パラメータとして、真と偽それぞれに
つき、蓄積部に蓄積されたテロツプ領域の特徴量につい
て、分散共分散行列と、平均ベクトルを作る。すなわ
ち、蓄積部Tに蓄積された真のテロップ領域の特徴量x
t=(at、pt、qt)の集合について、分散共分散行列
tは、
【0049】
【数1】 となる。ただし、v(A、B)は、集合A={ai|0
≦i≦N},B={bi|0≦i≦N}の共分散を表
し、
【0050】
【数2】 と定義される。なお、v(A、A)は、Aの分散にな
る。平均ベクトル”xt”は、
【0051】
【数3】 と定義される。
【0052】次に、分散共分算行列Stと平均ベクト
ル”xt”を用いて、テロップ領域候補の特徴量ベクト
ルxと、真のテロップ領域の特徴量の集合との距離を次
のように定義する。
【0053】
【数4】 ただし、XTはXの転置行列を表す。Dtはa、p、qに
ついての2次式になる。
【0054】同様にして、疑似のテロップ領域の特徴量
ベクトル集合についても、分散共分散行列Sfと、平均
ベクトル”xf”を求め、距離Dfを、
【0055】
【数5】 と定義する。
【0056】テロップ領域候補それぞれについてDt
fを求めて、Dt<Dfとなれば、そのテロツプ領域候
補は、真のテロツプ領域の集合に特徴量ベクトルが近い
ことを表すので、真のテロツプ領域であると判別する。
【0057】ここで、DtとDfの差を求める判別関数z
を z(x)=Dt(x)―Df(x) と定義すると、zもa,pについての2次式になる。し
たがって、zを計算する方が、Dt、Dfを別々に計算し
て比較するより、計算コストが低くなる。
【0058】なお、本発明は、ここで示した特徴量に限
定するものではなく、その他に、テロツプの持続時間
や、画面上での配置、輝度や色の分布などを特徴量とし
て用いることができる。
【0059】なお、以上の実施形態で示した各種の学習
段階や判別段階は、コンピュータで適宜実行することが
可能であり、その手順をコンピュータに実行させるプロ
グラムを、そのコンピュータが読み取り可能な記録媒
体、例えばフロッピーデイスクやCD・ROMなどに記
録して配布することができる。
【0060】
【発明の効果】請求項1、7、13の発明は、学習用映
像から真のテロップ領域の特徴量と疑似のテロツプ領域
の特徴量を学習し、その学習結果に基づいて、テロップ
領域候補の真偽を判別するので、経験的な閾値に依ら
ず、複数の特徴量の間にある相関を考慮に入れて、テロ
ップ領域候補の真偽を最適に判別することカぎできる。
【0061】また、請求項2、8の発明は、学習用映像
から抽出されたテロツプ領域候補の個々について真偽を
指定するので、精度よく学習することができる効果があ
る。また、請求項3、9の発明は、真のテロップ領域の
存在する時間的区間を指定し、個々のテロツプ領域候補
の真偽を指定しないので、精度は多少は落ちるものの、
学習のための入力コストを小さくすることができる効果
がある。
【0062】また、請求項4、10の発明は、テロツプ
領城候補の特徴量の、真のテロツプ領域の特徴量の位置
からの距離と、疑似のテロップ領域の特徴量の位置から
の距離とを比較するので、経験的な閾値に依らず、最適
な判別を行うことができる効果がある。
【0063】また、請求項5、11の発明は、真のテロ
ップ領城の特徴量の位置からの距離と、疑似のテロップ
領域の特徴量の位置からの距離との差を求める判別関数
を作成し、テロツプ領域候補の特徴量をそれに入力した
ときの出カ値の正負を判定するので、一つのテロップ領
域候補に対する計算コストを小さくすることカぎできる
効果がある。
【0064】また、請求項6、l2の発明は、テロツプ
領域の特徴量として、領域の高さと幅の比、領域の面
積、領域の高さと幅の積と面積の比を用いるので、テロ
ップ領域の面積と長方形らしさ、細長い様子を評価する
ことができる効果がある。
【図面の簡単な説明】
【図1】本発明の映像テロツプ領域判別装置の実施形態
の基本構成を説明するブロック図である。
【図2】本発明の映像テロップ領域判別方法を適用した
図1に示す基本的な説明用モデル装置の動作を説明する
フローチャートである。
【図3】本発明のテロップ映像領域判別装置の学習部の
第1の実施の形態のブロック図である。
【図4】図3に示す学習部101の実施の形態を説明す
るフローチャートである。
【図5】領域指定部の真のテロップ領域を説明する図で
ある。
【図6】本発明の映像テロップ領域判別装置の学習部の
第2の実施の形態の詳細プロック図である。
【図7】図6に示す学習部の第2の実施の形態の動作を
説明するフローチャートである。
【図8】図6に示す区間指定部601を説明する図であ
る。
【図9】本発明の映像テロップ領域判別措置の判別部の
第1の実施の形態のブロック図である。
【図10】本発明の映像テロップ領域判別装置の判別部
の第2の実施の形態のブロック図である。
【図11】テロップ領域の特徴量を説明する図である。
【図12】学習部の第1の実施の形態と判別部の第1の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【図13】学習部の第1の実施の形態と判別部の第2の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【図14】学習部の第2の実施の形態と判別部の第1の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【図15】学習部の第2の実施の形態と判別部の第2の
実施の形態が適用された映像テロップ領域判別装置装置
のブロック図である。
【符号の説明】
101 学習部 102 テロップ領域候補抽出部 103 判別部 301 テロップ領域抽出部 302 領域指定部 303 蓄積部T 304 蓄積部F 305 パラメータ計算部T 306 パラメータ計算部F 601 区間指定部 602 テロップ領域抽出部 603 蓄積部T 604 蓄積部F 605 パラメータ計算部T 606 パラメータ計算部F 801 スクロールバー 802 学習用画像のフレーム 803 ボタン 901 領域指定部 902 テロップ領域抽出部 903 蓄積部T 904 蓄積部F 905 パラメータ計算部T 906 パラメータ計算部F 907 距離計算部T 908 きょり計算部F 909 比較部 1001 領域指定部 1002 テロップ領域抽出部 1003 蓄積部T 1004 蓄積部F 1005 パラメータ計算部T 1006 パラメータ計算部F 1007 判別関数作成部 1008 判定部

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 ディスプレイ上の動画映像からテロップ
    領域を抽出し判別する方法において、 学習用映像から真のテロップ領域の特徴量と疑似のテロ
    ップ領域の特徴量を学習する学習段階と、 抽出対象の映像からテロップ領域候補を抽出する抽出段
    階と、 前記学習結果に基づいて前記テロップ領城候補の真偽を
    判別する判別段階を有することを特徴とする映像テロツ
    プ領域判別方法。
  2. 【請求項2】 前記学習段階が、前記学習用映像からテ
    ロツプ領域候補を抽出する抽出段階と、 前記テロップ領域候補の真のテロップの領域と、疑似の
    テロップの領域とを区別して指定する領城指定段階とを
    有する請求項1記載の映像テロツプ領域判別方法。
  3. 【請求項3】 前記学習段階が、前記学習用映像に真の
    テロップ領域の存在する時間的区間を指定する区間指定
    段階と、 前記学習用映像からテロップ領域候補を抽出する抽出段
    階と、 前記区間に存在する前記テロツプ領域候補を真のテロツ
    プ領域として蓄積し、 それ以外の区間に存在する前記テロツプ領域候補を疑似
    のテロツプ領域として蓄積する蓄積段階を有する請求項
    1記載の映像テロツプ領域判別方法。
  4. 【請求項4】 前記判別段階が、入力されたテロップ領
    域候補の特徴量のベクトルと前記真のテロップ領域の特
    徴量のベクトルとの距離(Dt)を計算する段階と、 前記テロップ領域候補の特徴量のベクトルと前記疑似の
    テロップ領域の特徴量のベクトルの距離(Df)を計算
    する段階と、 前記2つの距離(Dt、Df)を比較する比較段階とを有
    する請求項1乃至3のいずれか1項に記載の映像テロツ
    プ領域判別方法。
  5. 【請求項5】 前記判別段階が、入力されたテロップ領
    域候補の特徴量のベクトルと前記真のテロップ領域の特
    徴量のベクトルとの距離と、入力されたテロップ領域候
    補の特徴量のベクトルと前記疑似のテロップ領域の特徴
    量のベクトルとの距離の差を求める判別関数を作成する
    段階と、 前記判別関数に前記テロップ領域候補の特徴量の位置を
    入力した結果の値の正負を判定する判定段階を有する請
    求項1乃至3のいずれか1項に記載の映像テロップ領域
    判別方法。
  6. 【請求項6】 テロツプ領域の特徴量として、領域の高
    さと幅の比、領域の面積、領域の高さと幅の積と面積の
    比を用いる請求項1乃至5のいずれか1項に記載の映像
    テロップ領域判別方法。
  7. 【請求項7】 ディスプレイ上の動画映像からテロツプ
    領域を抽出し判別する装置において、 学習用映像から真のテロツプ領域の特徴量と疑似のテロ
    ツプ領域の特徴量を学習する学習手段と、 抽出対象映像からテロップ領域候補を抽出する抽出手段
    と,前記学習結果に基づいて前記テロップ領域候補の真
    偽を判別する判別手段を有することを特徴とする映像テ
    ロップ領域判別装置。
  8. 【請求項8】前記学習手段が、前記学習用映像からテロ
    ップ領域候補を抽出する抽出手段と,前記テロツプ領城
    候補の真のテロップ領域と疑似のテロップ領域とを指定
    する領城指定手段と、 真のテロツプ領域を蓄積する蓄積手段Tと、 疑似のテロツプ領域を蓄積する蓄積手段Fと、 前記蓄積手段Tに蓄えられた真のテロツプ領域の特徴量
    から判別パラメータTを計算するパラメータ計算手段T
    と、 前記蓄積手段Fに蓄えられた疑似テロップ領域の特徴量
    から判別パラメータFを計算するパラメータ計算手段F
    とを有する請求項7記載の映像テロップ領域判別装置。
  9. 【請求項9】 前記学習手段が,前記学習用映像に真の
    テロップ領域の存在する時間的区間を指定する区間指定
    手段と、 前記学習用映像からテロップ領域候補を抽出する抽出手
    段と、 前記時間的区間に存在する前記テロップ領域候補を真の
    テロップ領域として蓄積する蓄積手段Tと、 それ以外の時間的区間に存在する前記テロップ領域候補
    を疑似のテロップ領域として蓄積する蓄積手段Fと、 前記蓄積手段Tに蓄えられた真のテロップ領域の特徴量
    から判別パラメータTを計算するパラメータ計算手段T
    と、 前記蓄積手段Fに蓄えられた疑似のテロップ領域の特徴
    量から判別パラメータFを計算するパラメータ計算手段
    Fとを有する請求項7記載の映像テロツプ領域判別装
    置。
  10. 【請求項10】 前記判別手段が、前記テロツプ領域候
    補の特徴量のベクトルと前記真のテロツプ領域の特徴量
    のベクトルとの距離(Dt)を計算する距離計算手段T
    と、 前記テロップ領域候補の特徴量のベクトルと前記疑似の
    テロップ領域の特徴量のベクトルとの距離(Dt)を計
    算する距離計算手段Fと、 前記の2つの距離(Dt、Df)を比較する比較手段を有
    する前記請求項7乃至9のいずれか1項に記載の映像テ
    ロップ領域判別装置。
  11. 【請求項11】 前記判別手段が、抽出されたテロップ
    領域候補の特徴量のベクトルと前記真のテロップ領域の
    特徴量のベクトルとの距離と、抽出されたテロップ領域
    候補の特徴量のベクトルと前記疑似のテロツプ領域の特
    徴量のベクトルとの距離との差を求める判別関数を作成
    する判別関数作成手段と、 前記判別関数に前記テロップ領域候補の特徴量を入力し
    た結果の値の正負を判定する判定手段を有する請求項7
    乃至9のいずれか1項に記載の映像テロップ領域判別装
    置。
  12. 【請求項12】 テロツプ領域の特徴量として、領域の
    高さと幅の比、領域の面積、領域の高さと幅の積と面積
    の比のいずれかを用いる請求項7乃至11のいずれか1
    項に記載の映像テロップ領域判別装置。
  13. 【請求項13】 請求項1乃至6のいずれか1項に記載
    の映像テロップ領域判別方法をコンピュータの駆動プロ
    グラムとして記録された映像テロップ領域判別手段の記
    録媒体。
  14. 【請求項14】 前記特徴量ベクトルの間の距離とし
    て、マハラノビス汎距離を用いる請求項1乃至6のいず
    れか1項に記載の映像テロップ領域判別方法。
  15. 【請求項15】 前記特徴量ベクトルの間の距離とし
    て、マハラノビス汎距離を用いる請求項7乃至11のい
    ずれか1項に記載の映像テロップ領域判別装置。
JP12783298A 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体 Expired - Fee Related JP3513011B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12783298A JP3513011B2 (ja) 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12783298A JP3513011B2 (ja) 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JPH11328423A true JPH11328423A (ja) 1999-11-30
JP3513011B2 JP3513011B2 (ja) 2004-03-31

Family

ID=14969775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12783298A Expired - Fee Related JP3513011B2 (ja) 1998-05-11 1998-05-11 映像テロップ領域判別方法、装置、および映像テロップ領域判別プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3513011B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008050718A1 (fr) * 2006-10-26 2008-05-02 Nec Corporation Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme
JP2009042897A (ja) * 2007-08-07 2009-02-26 Canon Inc 画像処理装置及び画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008050718A1 (fr) * 2006-10-26 2008-05-02 Nec Corporation Dispositif d'extraction d'informations de droit, procédé d'extraction d'informations de droit et programme
JP5218766B2 (ja) * 2006-10-26 2013-06-26 日本電気株式会社 権利情報抽出装置、権利情報抽出方法及びプログラム
JP2009042897A (ja) * 2007-08-07 2009-02-26 Canon Inc 画像処理装置及び画像処理方法
JP4659793B2 (ja) * 2007-08-07 2011-03-30 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP3513011B2 (ja) 2004-03-31

Similar Documents

Publication Publication Date Title
US6470094B1 (en) Generalized text localization in images
US6473522B1 (en) Estimating text color and segmentation of images
Lienhart et al. Localizing and segmenting text in images and videos
US6243419B1 (en) Scheme for detecting captions in coded video data without decoding coded video data
US8316301B2 (en) Apparatus, medium, and method segmenting video sequences based on topic
Koprinska et al. Temporal video segmentation: A survey
US7339992B2 (en) System and method for extracting text captions from video and generating video summaries
US6366699B1 (en) Scheme for extractions and recognitions of telop characters from video data
Odobez et al. Direct incremental model-based image motion segmentation for video analysis
US7187783B2 (en) Method and apparatus for color-based object tracking in video sequences
US7623711B2 (en) White space graphs and trees for content-adaptive scaling of document images
EP1204034B1 (en) Method for automatic extraction of sematically significant events from video
Wernicke et al. On the segmentation of text in videos
US20040170392A1 (en) Automatic detection and segmentation of music videos in an audio/video stream
US20100220930A1 (en) Video text processing apparatus
US20040090453A1 (en) Method of and system for detecting uniform color segments
JP5500024B2 (ja) 画像認識方法及び装置並びにプログラム
JPWO2010079559A1 (ja) クレジット情報区間検出方法、クレジット情報区間検出装置及びクレジット情報区間検出プログラム
Kim et al. Visual rhythm and shot verification
Ling et al. A method for fast shot boundary detection based on SVM
Li et al. Spatial–temporal joint probability images for video segmentation
JPH11328423A (ja) 映像テロップ領域判別方法と装置と方法を記録した記録媒体
JP2002042131A (ja) 標識検出装置、標識検出方法および記録媒体
JP2000182028A (ja) 字幕領域検出方法及びその装置、並びに動画像検索方法及びその装置
JP3024574B2 (ja) 動画像検索装置

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees