JP3503797B2 - Video telop detection method and apparatus - Google Patents

Video telop detection method and apparatus

Info

Publication number
JP3503797B2
JP3503797B2 JP11271997A JP11271997A JP3503797B2 JP 3503797 B2 JP3503797 B2 JP 3503797B2 JP 11271997 A JP11271997 A JP 11271997A JP 11271997 A JP11271997 A JP 11271997A JP 3503797 B2 JP3503797 B2 JP 3503797B2
Authority
JP
Japan
Prior art keywords
telop
pixels
video
pixel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11271997A
Other languages
Japanese (ja)
Other versions
JPH10304247A (en
Inventor
隆 佐藤
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP11271997A priority Critical patent/JP3503797B2/en
Publication of JPH10304247A publication Critical patent/JPH10304247A/en
Application granted granted Critical
Publication of JP3503797B2 publication Critical patent/JP3503797B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、映像からテロップ
を検出する方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for detecting telops in video.

【0002】[0002]

【従来の技術】映像からテロップを検出する従来の装置
は、1枚から数枚のフレーム画像による局所的な特徴を
用いてテロップを検出していた。
2. Description of the Related Art A conventional device for detecting a telop from an image detects a telop using a local feature of one to several frame images.

【0003】例えば、テロップの周辺には大きな輝度差
があることを利用し、まず、フレーム間で輝度や色相の
分布の変化を調べ、テロップが出現するフレームを見つ
け、次にテロップ出現前後のフレーム間で差分をとり、
テロップを抽出するという方法がある(例えば、根本
他、「テロップの認識による資料映像の検索につい
て」、1994年電子情報通信学会春季大会D−42
7、1994など)。
For example, by utilizing the fact that there is a large brightness difference around the telop, first, the change in the distribution of brightness and hue between frames is examined to find the frame in which the telop appears, and then the frames before and after the telop appears. Take the difference between
There is a method of extracting a telop (for example, Nemoto et al., “Searching for Material Video by Recognition of Telop”, 1994 IEICE Spring Conference D-42).
7, 1994).

【0004】また、1枚のフレーム画像を対象にし、テ
ロップが背景に比べて高輝度でありエッジを抽出しやす
いという性質を用い、画像に対して1次微分によるエッ
ジ抽出を行い、エッジ画像を縦横方向に投影してテロッ
プを検出するという方法もある(例えば、茂木他、「ニ
ュース映像中の文字認識に基づく記事の索引付け」、電
子情報通信学会技術研究報告IE95−153、199
6など)。
Further, targeting one frame image, the telop has a higher brightness than the background and the edge is easily extracted, and the edge extraction is performed on the image by the primary differential to extract the edge image. There is also a method of detecting telops by projecting in the vertical and horizontal directions (for example, Mogi et al., "Indexing Articles Based on Character Recognition in News Video", IEICE Technical Research Report IE95-153, 199).
6 etc.).

【0005】また、テロップが静止していて、かつ、高
輝度であるという性質を用い、2枚のフレーム間で動き
のない部分を求め、さらに、輝度が所定値以上の領域を
字幕部分として検出する装置もある(例えば、特開平8
−331456「字幕移動装置」)。
Further, by using the property that the telop is stationary and having high luminance, a portion having no movement between two frames is obtained, and further, an area having a luminance equal to or higher than a predetermined value is detected as a subtitle portion. There is also a device (for example, Japanese Unexamined Patent Application Publication No. Hei 8
-331456 "Subtitle moving device").

【0006】また、MPEGなどフレーム間の相関を用
いて符号化された映像では、フレーム間の相関を用い、
かつ、動き補償を用いないで符号化された画素がテロッ
プの部分に時間的空間的に集中するという性質がある。
この性質を利用し、フレーム間の相関を用い、かつ、動
き補償を用いないで符号化された画素の出現頻度をある
時間区間で計数することによってテロップを検出する装
置もある(佐藤他、「MPEG映像からのテロップ領域
抽出法」1996年 電子情報通信学会情報・システム
ソサイエティ大会 D−273)。
Further, in a video image coded using correlation between frames such as MPEG, correlation between frames is used,
Moreover, there is a property that pixels coded without using motion compensation are temporally and spatially concentrated in the telop portion.
Using this property, there is also a device that detects a telop by counting the frequency of appearance of coded pixels using correlation between frames and without using motion compensation (Sato et al., " Method of extracting telop area from MPEG image "1996 Information and Systems Society Conference of the Institute of Electronics, Information and Communication Engineers D-273).

【0007】[0007]

【発明が解決しようとする課題】上述した従来技術で
は、1枚または2枚のフレーム画像という、時間的に局
所的な情報を用いてテロップを検出していたため、静止
している、輝度が高い、高周波成分が大きいなどのテロ
ップと類似した特徴を持ったテロップ以外の被写体が存
在すると、それをテロップとして誤検出してしまうとい
う問題があった。
In the above-mentioned prior art, since the telop is detected using the temporally local information of one or two frame images, the telop is stationary and the brightness is high. However, if there is a subject other than the telop having similar characteristics to the telop, such as a large high-frequency component, there is a problem in that it is erroneously detected as the telop.

【0008】逆に、長時間画面に現れているテロップ
が、画質劣化やノイズ等の影響によって一時的に動いた
り、輪郭がぼけたりすると、その部分は検出漏れになっ
てしまう。このため、本来ひとつの連続したテロップ
を、複数の時間区間にわたる別々のテロップとして重複
検出してしまうことになる。
On the other hand, if the telop appearing on the screen for a long time temporarily moves or the contour is blurred due to the influence of image quality deterioration, noise, etc., that portion will be missed. For this reason, originally one continuous telop is redundantly detected as separate telops over a plurality of time intervals.

【0009】つまり、従来技術は、ある短い区間を対象
にして、テロップが存在するかを判定しているため、テ
ロップ以外の被写体の過剰検出や、ノイズによるテロッ
プの検出漏れを免れることが難しい。したがって、映像
からテロップの一覧を得るという用途に従来技術を用い
ると、テロップ以外の被写体を誤って表示したり、一つ
のテロップを重複して表示してしまうことがしばしばあ
った。
That is, in the prior art, since it is determined whether a telop exists for a certain short section, it is difficult to avoid excessive detection of a subject other than the telop and omission of detection of the telop due to noise. Therefore, when the conventional technique is used for obtaining a list of telops from an image, a subject other than the telops may be erroneously displayed or one telop may be displayed in duplicate.

【0010】本発明の目的は、映像からテロップを過不
足なく検出する映像テロップ検出方法および装置を提供
することである。
An object of the present invention is to provide a video telop detection method and apparatus for detecting telops from video without excess or deficiency.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に、映像テロップ検出方法は、画素または画素の集合の
単位でテロップ候補画素を抽出し、縦横の空間軸と時間
軸とから成る3次元のバッファに格納する抽出段階と、
前記バッファ上のテロップ候補画素を併合する併合段階
を有する。
In order to achieve the above object, a video telop detection method extracts a telop candidate pixel in the unit of a pixel or a set of pixels, and has a three-dimensional structure including vertical and horizontal spatial axes and a temporal axis. Extraction stage to store in the buffer of
There is a merging step of merging telop candidate pixels on the buffer.

【0012】また、本発明の映像テロップ検出装置は、
縦横の空間軸と時間軸とから成る3次元のバッファと、
画素または画素の集合の単位でテロップ候補画素を抽出
し、バッファに格納する抽出手段と、バッファ上のテロ
ップ候補画素を併合する併合手段を有する。
Further, the video telop detection device of the present invention is
A three-dimensional buffer consisting of vertical and horizontal space axes and time axis,
It has extraction means for extracting telop candidate pixels in units of pixels or a set of pixels and storing them in a buffer, and merging means for merging telop candidate pixels on the buffer.

【0013】映像から画素または画素の集合の単位でテ
ロップ候補画素を抽出し、縦横の空間軸と時間軸とから
成る3次元のバッファに格納することにより、従来技術
よりも長時間に渡る映像を処理することが可能となる。
さらに、バッファ上のテロップ候補画素を併合すること
により、短時間の微小な変化を無視してノイズによる影
響を除去することができる。
By extracting telop candidate pixels from a video in units of pixels or a set of pixels and storing the telop candidate pixels in a three-dimensional buffer consisting of vertical and horizontal spatial axes and a temporal axis, a video for a longer time than the prior art can be displayed. It becomes possible to process.
Further, by merging the telop candidate pixels on the buffer, it is possible to ignore the minute change for a short time and remove the influence of noise.

【0014】本発明の実施態様によれば、抽出手段は、
映像のエッジを求めるエッジ生成手段と、エッジの値を
縦方向と横方向に投影する投影手段と、投影された値と
閾値との比較結果に基づいてテロップ候補画素を判定す
る比較手段を有する。
According to an embodiment of the present invention, the extraction means is
It has an edge generating means for obtaining an edge of the image, a projecting means for projecting the edge value in the vertical and horizontal directions, and a comparing means for judging the telop candidate pixel based on the comparison result of the projected value and the threshold value.

【0015】抽出手段において、エッジ生成手段が映像
のエッジを求めることにより、テロップの高周波成分が
大きいという特徴に基づき、テロップ周辺にエッジが集
中した画像を得ることができる。次に、エッジの値を縦
横方向に投影する投影手段によって、エッジの集中の度
合を1次元で評価することが可能となる。比較手段で
は、投影された値と閾値とを比較することによって、エ
ッジが集中している部分を検出することができる。これ
によって、テロップ候補画素を求めることができる。
In the extraction means, the edge generation means obtains the edges of the image, so that an image in which the edges are concentrated around the telop can be obtained based on the feature that the high frequency component of the telop is large. Next, the degree of concentration of edges can be evaluated one-dimensionally by the projection means that projects the edge values in the vertical and horizontal directions. The comparison means can detect a portion where the edges are concentrated by comparing the projected value with the threshold value. Thereby, the telop candidate pixel can be obtained.

【0016】本発明の実施態様によれば、抽出手段は、
フレーム間の相関を利用して符号化された映像データか
ら、フレーム間の相関を用い、かつ、動き補償を用いな
いで符号化された画素の数を、それぞれの画素の位置ご
とに、計数区間内で計数する計数手段を有する。
According to an embodiment of the present invention, the extraction means is
From the video data coded using the correlation between frames, the number of pixels coded using the correlation between frames and without motion compensation is calculated for each pixel position. It has a counting means for counting inside.

【0017】計数手段は、フレーム間の相関を利用して
符号化された映像データから、フレーム間の相関を用
い、かつ、動き補償を用いないで符号化された画素の数
を、それぞれの画素の位置ごとに、ある計数区間で計数
する。テロップには、フレーム間の相関を用い、かつ、
動き補償を用いないで符号化された画素が集中するとい
う傾向があるため、テロップの画素についてのみ大きい
計数値が得られる。これによって、テロップの尤度が高
いほど値が大きいテロップ候補画素を求めることができ
る。
The counting means determines the number of pixels encoded from the video data encoded by utilizing the correlation between the frames, using the correlation between the frames and without using motion compensation. Each position of is counted in a certain counting section. For the telop, use correlation between frames, and
Since there is a tendency that the coded pixels are concentrated without using motion compensation, a large count value is obtained only for the pixels of the telop. As a result, a telop candidate pixel having a larger value can be obtained as the likelihood of the telop is higher.

【0018】本発明の実施態様によれば、併合手段は、
3次元の平滑化フィルタによってテロップ候補画素を平
滑化する平滑化手段を有する。
According to an embodiment of the invention, the merging means comprises
It has smoothing means for smoothing the telop candidate pixels by a three-dimensional smoothing filter.

【0019】併合手段において、平滑化手段が3次元の
平滑化フィルタによってテロップ候補画素を平滑化する
ことによって、近接するテロップ候補画素どうしが併合
されるとともに、孤立する小さいテロップ候補画素が消
滅する。
In the merging means, the smoothing means smoothes the telop candidate pixels by the three-dimensional smoothing filter, so that the adjacent telop candidate pixels are merged and the small isolated telop candidate pixels disappear.

【0020】本発明の実施態様によれば、併合手段は、
テロップ候補画素を近傍画素の最大値に置き換える膨張
手段と、テロップ候補画素を近傍画素の最小値に置き換
える収縮手段を有する。
According to an embodiment of the invention, the merging means comprises
It has expansion means for replacing the telop candidate pixel with the maximum value of the neighboring pixels and contraction means for replacing the telop candidate pixel with the minimum value of the neighboring pixels.

【0021】併合手段において、膨張手段がテロップ候
補画素を近傍画素の最大値に置き換えることによって、
近接するテロップ候補画素どうしが併合される。収縮手
段において、テロップ候補を近傍画素の最小値に置き換
えることによって、孤立する小さい画素が消滅する。こ
の2つの手段の組合せによって、近接するテロップ候補
画素どうしが併合されるとともに、孤立する小さいテロ
ップ候補画素が消滅する。
In the merging means, the expanding means replaces the telop candidate pixel with the maximum value of the neighboring pixels,
The adjacent telop candidate pixels are merged. The contracting means replaces the telop candidate with the minimum value of the neighboring pixels, so that the small isolated pixel disappears. By the combination of these two means, adjacent telop candidate pixels are merged and small isolated telop candidate pixels disappear.

【0022】本発明の実施態様によれば、映像テロップ
検出装置は、テロップ候補画素の存在しない時間帯の前
または後のフレームを、テロップを含む代表フレームと
する判定手段をさらに有する。
According to the embodiment of the present invention, the video telop detection device further includes a determination unit that sets a frame before or after a time zone in which no telop candidate pixel exists as a representative frame including a telop.

【0023】判定手段が、テロップ候補画素の存在しな
い時間区間の前または後のフレームをテロップを表す代
表フレームとすることによって、テロップを表す代表フ
レームを得ることができる。
The determining means can obtain the representative frame representing the telop by setting the frame before or after the time section in which the telop candidate pixel does not exist as the representative frame representing the telop.

【0024】本発明の実施態様によれば、映像テロップ
検出装置は、併合されたテロップ候補画素の連結成分に
ラベルを付与するラベリング手段と、ラベルのつけられ
たテロップ候補画素を含むフレームをテロップを含むフ
レームとする判定手段をさらに有する。
According to an embodiment of the present invention, the video telop detection apparatus labels the connected component of the merged telop candidate pixels with a labeling means, and displays a frame containing the labeled telop candidate pixels with a telop. It further has a determination means for determining the frame to be included.

【0025】ラベリング手段が、併合されたテロップ候
補画素の連結成分にラベルを付与するので、個々のテロ
ップを識別することが可能となる。判定手段が、ラベル
のつけられたテロップ候補画素を含むフレームをテロッ
プを表す代表フレームとするので、個々のテロップにつ
いて、過不足なく代表フレームを得ることができる。
Since the labeling means gives a label to the connected component of the merged telop candidate pixels, it is possible to identify each telop. Since the determination unit sets the frame including the labeled telop candidate pixels as the representative frame representing the telop, it is possible to obtain the representative frame for each telop without excess or deficiency.

【0026】[0026]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings.

【0027】図1は本発明の第1の実施形態の映像テロ
ップ検出装置を表すブロック図である。
FIG. 1 is a block diagram showing a video telop detection apparatus according to the first embodiment of the present invention.

【0028】本実施形態の映像テロップ検出装置は、バ
ッファ103と、入力端子101から入力された映像か
らテロップ領域の候補となる画素または画素の集合を検
出し、バッファ103に蓄積するテロップ候補画素抽出
部102と、バッファ103に蓄積されたテロップ候補
を併合し、出力端子105に出力する併合部104で構
成されている。
The video telop detection apparatus of this embodiment detects a pixel or a set of pixels that are candidates for a telop area from a buffer 103 and a video input from the input terminal 101, and extracts telop candidate pixels to be accumulated in the buffer 103. The unit 102 and a merging unit 104 that merges the telop candidates accumulated in the buffer 103 and outputs the merged telop candidates to the output terminal 105.

【0029】画素の集合として8×8ないし16×16
のブロックを用いることができる。バッファ103は3
次元であり、図2のように画面と平行な2軸x,yと垂
直な軸tによって表される。例えば、720×480画
素の画面で16×16のブロックを用いる場合、バッフ
ァ103の幅Wは45、高さHは30となる。バッファ
103の奥行きTは、対象にする映像の時間を時間解像
度によって割った値になる。例えば、10分の映像を
0.5秒間隔で処理する場合には、Tは1200にな
る。
8 × 8 to 16 × 16 as a set of pixels
Blocks can be used. Buffer 103 is 3
It is a dimension and is represented by an axis t perpendicular to two axes x and y parallel to the screen as shown in FIG. For example, when a 16 × 16 block is used on a screen of 720 × 480 pixels, the width W of the buffer 103 is 45 and the height H is 30. The depth T of the buffer 103 is a value obtained by dividing the time of the target video by the time resolution. For example, when a 10-minute video is processed at 0.5 second intervals, T becomes 1200.

【0030】図3はテロップ候補画素抽出部102を表
すブロック図である。入力端子201に入力された映像
からエッジ生成部202においてエッジ画像を求め、バ
ッファ303に格納する。エッジを求める方法として、
ラプラシアンや、Robertなどの画像処理オペレータを用
いることができる。次に、縦投影部204によって、画
像を縦方向に投影し頻度をとる。すると、図4のvのよ
うに、エッジの集中している部分の頻度が高くなるの
で、これを比較部205によって入力端子206に入力
された閾値と比較し、閾値以上の範囲(x0〜x1)を
求める。(x0〜x1)の範囲に限定して、さらに、横
投影部207において、エッジ画像を横方向に投影頻度
を求める。これを比較部208において、エッジ画像を
横方向に投影頻度を求める。これを比較部208におい
て入力端子209に与えられた閾値と比較し、閾値以上
の範囲(y0〜y1)を求める。合成部210では、以
上により求められた範囲(x1〜x1,y0〜y1)の
部分の画素値を1、それ以外を0としたテロップ候補画
素として出力端子211に出力する。
FIG. 3 is a block diagram showing the telop candidate pixel extraction unit 102. The edge generator 202 obtains an edge image from the video input to the input terminal 201 and stores it in the buffer 303. As a method to find the edge,
An image processing operator such as Laplacian or Robert can be used. Next, the vertical projection unit 204 projects the image in the vertical direction to determine the frequency. Then, as shown by v in FIG. 4, the frequency of the portion where the edges are concentrated increases, so this is compared with the threshold value input to the input terminal 206 by the comparison unit 205, and the range (x0 to x1) equal to or more than the threshold value ). Limiting the range to (x0 to x1), the horizontal projection unit 207 further calculates the projection frequency of the edge image in the horizontal direction. The comparison unit 208 obtains the frequency of lateral projection of the edge image. The comparison unit 208 compares this with a threshold value given to the input terminal 209 to obtain a range (y0 to y1) equal to or more than the threshold value. The synthesizing unit 210 outputs to the output terminal 211 as a telop candidate pixel in which the pixel value of the portion of the range (x1 to x1, y0 to y1) obtained as described above is 1, and the other values are 0.

【0031】なお、縦投影において閾値以上の範囲が複
数存在する場合には、それぞれの範囲について横投影を
行う。また、縦投影部204と横投影部207の順序は
入れ替わってもよい。
When there are a plurality of ranges equal to or greater than the threshold value in the vertical projection, the horizontal projection is performed for each range. Further, the order of the vertical projection unit 204 and the horizontal projection unit 207 may be exchanged.

【0032】図5はテロップ候補画素抽出部102の他
の例を表すブロック図である。この例は、MPEG等、
フレーム間の相関を利用して符号化された映像データを
対象にしている。入力端子301に入力された符号化映
像データは、位置復号部302によって画素の位置が復
号され、カウンタ304のアドレス(A)に出力され
る。同様に、種類復号部303によって画素の符号化の
種類が復号される。種類復号部303では、画素の種類
が、フレーム間の相関を用い、かつ、動き補償を用いな
いで符号化されたものである場合に限り、“1”が出力
され、それ以外は“0”が出力される。この信号はカウ
ンタ304の増減を制御する。カウンタ304の値は計
数時間内で増減され、そのままテロップ候補画素として
出力端子305に出力される。出力後は、カウンタ30
4の値はすべて0にリセットされる。
FIG. 5 is a block diagram showing another example of the telop candidate pixel extraction unit 102. An example of this is MPEG, etc.
The target is video data encoded by utilizing the correlation between frames. The position of the pixel of the encoded video data input to the input terminal 301 is decoded by the position decoding unit 302, and the decoded video data is output to the address (A) of the counter 304. Similarly, the type decoding unit 303 decodes the type of pixel coding. The type decoding unit 303 outputs "1" only when the type of pixel is coded using inter-frame correlation and without using motion compensation, and otherwise outputs "0". Is output. This signal controls the increase / decrease of the counter 304. The value of the counter 304 is increased / decreased within the counting time and directly output to the output terminal 305 as a telop candidate pixel. After output, counter 30
All four values are reset to zero.

【0033】次に、併合部104について説明する。Next, the merging unit 104 will be described.

【0034】まず、3次元平滑化フィルタを用いる併合
部104について説明する。3次元の平滑化フィルタと
して、次のような3次元ガウシアンフィルタを考える。
First, the merging unit 104 using the three-dimensional smoothing filter will be described. As a three-dimensional smoothing filter, consider the following three-dimensional Gaussian filter.

【0035】[0035]

【数1】 これを、バッファ103(B(x,y,t))に対して
畳み込み積分を行う。
[Equation 1] The buffer 103 (B (x, y, t)) is subjected to convolutional integration.

【0036】[0036]

【数2】 あるいは、1次元のガウシアンフィルタ[Equation 2] Alternatively, a one-dimensional Gaussian filter

【0037】[0037]

【数3】 をx,y,tの3軸方向について、順番に畳み込んでも
よい。すなわち、
[Equation 3] May be convolved in order with respect to the three axial directions of x, y, and t. That is,

【0038】[0038]

【数4】 とする。[Equation 4] And

【0039】次に、膨張処理と収縮処理を用いる併合部
104について説明する。膨張処理は、ある画素B
(x,y,t)の近傍R(x,y,t)に含まれる点の
最大値をその画素の値とする。すなわち、画素B(x,
y,z)は次の式により画素Be(x,y,z)の値と
なる。
Next, the merging unit 104 using the expansion processing and the contraction processing will be described. Expansion processing is performed on a certain pixel B
The maximum value of the points included in the neighborhood R (x, y, t) of (x, y, t) is set as the value of the pixel. That is, the pixel B (x,
y, z) is the value of the pixel Be (x, y, z) according to the following equation.

【0040】[0040]

【数5】 膨張処理は、幅、高さ、奥行きのいずれかがRより小さ
い穴や隙間を埋める働きをする。例えば、図6(1)に
ついて4近傍(注目画素の上下左右に接する4画素)の
膨張処理を行うと図6(2)のようになる。2つの黒領
域の間の隙間がなくなり、黒領域内の白い穴も埋められ
る。収縮処理は、ある画素B(x,y,t)の近傍R
(x,y,t)に含まれる点の最小値をその画素の値と
する。すなわち、画素B(x,y,z)は次の式により
画素Be(x,y,z)の値となる。
[Equation 5] The expansion process serves to fill holes or gaps whose width, height, or depth is smaller than R. For example, when expansion processing is performed on four neighborhoods (four pixels in contact with the target pixel in the vertical and horizontal directions) in FIG. 6A, the result is as shown in FIG. 6B. The gap between the two black areas disappears and the white holes in the black areas are also filled. The contraction processing is performed in the vicinity R of a certain pixel B (x, y, t)
The minimum value of the points included in (x, y, t) is the value of the pixel. That is, the pixel B (x, y, z) becomes the value of the pixel Be (x, y, z) according to the following formula.

【0041】[0041]

【数6】 収縮処理は、幅、高さ、奥行きのいずれかがRより小さ
い領域を消去する働きをする。例えば、図6(1)につ
いて4近傍の収縮処理を行うと図6(3)のようにな
る。高さが2の黒領域が消滅していることがわかる。ま
た、先程膨張処理を行った図6(2)について収縮処理
を行うと、図6(4)のようになる。図6(1)と図6
(4)を比べると、大きさを維持しながら、穴や隙間が
無くなっていることがわかる。すなわち、膨張収縮処理
は、穴や隙間などの画素の欠落を補う働きがある。ま
た、収縮処理の結果である図6(3)に対して膨張処理
を行うと、図6(5)のようになる。図6(1)と図6
(5)を比べると、大きさを維持しながら小さい領域が
消滅していることがわかる。すなわち、収縮膨張処理
は、ノイズを除去する働きがある。
[Equation 6] The contraction process works to erase an area whose width, height, or depth is smaller than R. For example, when the contraction process of 4 neighborhoods is performed with respect to FIG. 6A, the result is as shown in FIG. 6C. It can be seen that the black area of height 2 disappears. When contraction processing is performed on FIG. 6 (2), which has been subjected to expansion processing, the result is as shown in FIG. 6 (4). 6 (1) and FIG.
Comparing (4), it can be seen that holes and gaps are eliminated while maintaining the size. That is, the expansion / contraction process has a function of compensating for the lack of pixels such as holes and gaps. When the expansion process is performed on the result of the contraction process shown in FIG. 6C, the result is as shown in FIG. 6 (1) and FIG.
Comparing (5), it can be seen that the small region disappears while maintaining the size. That is, the contraction / expansion process has a function of removing noise.

【0042】併合部104の他の例では、膨張収縮処理
と膨張膨張の順番を変えられるように、図7のような構
成をとる。すなわち、入力端子401に入力されたテロ
ップ候補画素は、連動する4つのスイッチ406を介し
て膨張部402,405と収縮部403,404によっ
て処理され、出力端子407に出力される。スイッチ4
06の接片が上側にあるときは、先に膨張収縮処理を行
い、次に収縮膨張処理を行う。スイッチ406の接片が
下側にあるときは、逆の順番になる。
In another example of the merging unit 104, a configuration as shown in FIG. 7 is adopted so that the order of expansion / contraction processing and expansion / expansion can be changed. That is, the telop candidate pixel input to the input terminal 401 is processed by the expansion units 402 and 405 and the contraction units 403 and 404 via the four interlocking switches 406, and is output to the output terminal 407. Switch 4
When the contact piece of 06 is on the upper side, the expansion / contraction process is performed first, and then the contraction / expansion process is performed. When the contact piece of the switch 406 is on the lower side, the order is reversed.

【0043】先に、膨張収縮処理を行うと、欠損を補う
ことを優先し、先に収縮膨張処理を行うと、ノイズの除
去を優先するという構成になる。
If expansion / contraction processing is performed first, priority is given to supplementing the defect, and if contraction / expansion processing is performed first, noise removal is prioritized.

【0044】図8は図1の第1の実施形態に判定部を追
加した実施形態のブロック図である。入力端子101に
入力された映像から、テロップ候補画素抽出部102に
よってテロップ領域の候補となる画素あるいは画素の集
合を検出し、バッファ103に蓄積し、併合部104に
よってテロップ候補画素が併合される。併合されたテロ
ップ候補画素は、判定部106によってテロップを表す
代表フレームが判定され、出力端子105に出力され
る。
FIG. 8 is a block diagram of an embodiment in which a judging unit is added to the first embodiment of FIG. From the video input to the input terminal 101, the telop candidate pixel extraction unit 102 detects a pixel or a set of pixels that are candidates for the telop area, accumulates it in the buffer 103, and the merging unit 104 merges the telop candidate pixels. With respect to the merged telop candidate pixels, a representative frame representing the telop is determined by the determination unit 106 and output to the output terminal 105.

【0045】次に、判定部106について2つの例を説
明する。まず、テロップ候補画素の存在しない時間区間
の前または後のフレームをテロップを表す代表フレーム
として判定する例を説明する。
Next, two examples of the judging section 106 will be described. First, an example will be described in which a frame before or after a time section in which no telop candidate pixel exists is determined as a representative frame representing a telop.

【0046】例えば、図9のようにテロップA〜Gが時
間的に配置されているとする。この図で、横軸が時間軸
(t軸)であり、縦軸はxまたはy軸である。テロップ
候補画素の存在しない時間区間の後のフレームを示した
のが、b1〜b4である。また、f1〜f4はテロップ候補
画素の存在しない時間区間の前のフレームを示したもの
である。
For example, it is assumed that telops A to G are temporally arranged as shown in FIG. In this figure, the horizontal axis is the time axis (t axis) and the vertical axis is the x or y axis. The frames after the time section in which the telop candidate pixel does not exist are b 1 to b 4 . Further, f 1 to f 4 indicate the previous frame of the time section in which the telop candidate pixel does not exist.

【0047】b1〜b4をテロップを表す代表フレームと
すると、テロップA,B,D,F,Gは反映されるが、
テロップCとEのように、他のテロップが出現している
途中で出現するテロップは反映されない。一方、f1
4を用いると、テロップA,B,C,D,Fは反映さ
れるが、テロップE,Gのように、他のテロップが出現
している途中で消滅するテロップが反映されない。テロ
ップ候補画素が存在しない区間の検出は比較的簡単に実
現できるため、この方法には、簡便性という利点があ
る。
When b 1 to b 4 are representative frames representing telops, telops A, B, D, F and G are reflected,
The telops appearing while other telops are appearing, such as telops C and E, are not reflected. On the other hand, f 1 ~
When f 4 is used, telops A, B, C, D, and F are reflected, but telops such as telops E and G that disappear while other telops are appearing are not reflected. This method has an advantage of simplicity because the detection of the section in which the telop candidate pixel does not exist can be realized relatively easily.

【0048】次に、ラベリングを用いた判定部106の
例について説明する。
Next, an example of the determination unit 106 using labeling will be described.

【0049】図10は、ラベリングを用いた判定部10
6のブロック図である。入力端子501に入力されたテ
ロップ候補画素は、ラベリング部502により、近傍画
素との連結成分が求められ、ラベル情報としてバッファ
503に蓄えられる。ラベル情報は、図11(1)に示
すような表形式によって管理される。ここでは、図11
(2)に示すように、外接直方体の座標値によってラベ
ルの位置を表現している。判定部504は、t0≦t≦
1の範囲のtを選び、代表フレームとして出力端子5
05に出力する。
FIG. 10 shows a determination unit 10 using labeling.
6 is a block diagram of FIG. With respect to the telop candidate pixel input to the input terminal 501, the labeling unit 502 obtains a connected component with a neighboring pixel, and the connected component is stored in the buffer 503 as label information. Label information is managed in a table format as shown in FIG. Here, FIG.
As shown in (2), the position of the label is represented by the coordinate value of the circumscribing rectangular parallelepiped. The determination unit 504 determines that t 0 ≦ t ≦
Select t in the range of t 1 and output terminal 5 as the representative frame.
Output to 05.

【0050】例として、図12に図9と同様のテロップ
の時間配置を示す。本実施形態によれば、各テロップA
〜Gを識別し、その時間範囲を求めることができる。こ
こでは、テロップの出現するフレーム(t0)を代表フ
レームとし、t1〜t6の時間を出力している。
As an example, FIG. 12 shows a telop time arrangement similar to that in FIG. According to this embodiment, each telop A
~ G can be identified and its time range can be determined. Here, the frame (t 0 ) in which the telop appears is used as the representative frame, and the times t 1 to t 6 are output.

【0051】なお、代表フレームとして、テロップの消
滅する直前のフレーム(t1)を用いてもよいし、t0
1の中間のフレームを用いてもよい。
As the representative frame, a frame (t 1 ) immediately before the telop disappears may be used, or a frame between t 0 and t 1 may be used.

【0052】本発明は、発明の趣旨を変えない範囲で、
様々に変更して実施することもできる。例えば、テロッ
プの検出結果を用いて代表フレームを表示し、映像のテ
ロップ一覧を作成することもできる。
The present invention is within the scope of the invention.
Various modifications can be implemented. For example, a representative frame can be displayed using the telop detection result to create a telop list of images.

【0053】[0053]

【発明の効果】以上説明したように、本発明によれば、
テロップの類似した被写体が短時間出現することによる
誤検出を除去し、画質劣化やノイズ等の影響による一時
的なテロップ検出漏れを補うので、過不足のないテロッ
プ検出が可能となる。
As described above, according to the present invention,
Erroneous detection due to the appearance of a subject having a similar telop for a short time is removed, and temporary telop detection omission due to the influence of image quality deterioration, noise, etc. is compensated, so that it is possible to detect telops without excess or deficiency.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態の映像テロップ抽出装置の
ブロック図である。
FIG. 1 is a block diagram of a video telop extraction device according to an embodiment of the present invention.

【図2】3次元のバッファ103を示す説明図である。FIG. 2 is an explanatory diagram showing a three-dimensional buffer 103.

【図3】テロップ候補画素抽出部102の一例のブロッ
ク図である。
FIG. 3 is a block diagram of an example of a telop candidate pixel extraction unit 102.

【図4】テロップ検出の原理を示す説明図である。FIG. 4 is an explanatory diagram showing the principle of telop detection.

【図5】テロップ候補画素抽出部102の他の例のブロ
ック図である。
FIG. 5 is a block diagram of another example of the telop candidate pixel extraction unit 102.

【図6】テロップ候補画素の膨張処理、収縮処理を示す
例示図である。
FIG. 6 is an exemplary diagram showing expansion processing and contraction processing of telop candidate pixels.

【図7】テロップ候補画素併合部104の一例のブロッ
ク図である。
FIG. 7 is a block diagram of an example of a telop candidate pixel merging unit 104.

【図8】本発明の他の実施形態の映像テロップ抽出装置
のブロック図である。
FIG. 8 is a block diagram of a video telop extraction device according to another embodiment of the present invention.

【図9】テロップ候補画素の存在しない時間区間の前後
を判定する一実施形態による判定結果を示す例示部であ
る。
FIG. 9 is an exemplary unit showing a determination result according to an embodiment of determining before and after a time period in which a telop candidate pixel does not exist.

【図10】ラベリングを用いた判定部106の一例を示
すブロック図である。
FIG. 10 is a block diagram showing an example of a determination unit 106 using labeling.

【図11】ラベル情報を示す例示図である。FIG. 11 is an exemplary diagram showing label information.

【図12】ラベリングを用いた判定部106の一例によ
る判定結果を示す例示図である。
FIG. 12 is an exemplary diagram showing a determination result by an example of a determination unit 106 using labeling.

【符号の説明】[Explanation of symbols]

101 入力端子 102 テロップ画素候補抽出部 103 バッファ 104 併合部 105 出力端子 106 判定部 201 入力端子 202 エッジ生成部 203 バッファ 204 縦投影部 205 比較部 206 入力端子 207 横投影部 208 比較部 209 入力端子 210 合成部 211 出力端子 301 入力端子 302 位置復号部 303 種類復号部 304 カウンタ 305 出力端子 401 入力端子 402,405 膨張部 403,404 収縮部 406 スイッチ 407 出力端子 501 入力端子 502 ラベリング部 503 バッファ 504 判定部 505 出力端子 101 input terminal 102 telop pixel candidate extraction unit 103 buffer 104 Merger 105 output terminals 106 determination unit 201 input terminal 202 Edge generator 203 buffer 204 Vertical projection unit 205 comparison section 206 input terminal 207 Horizontal projection unit 208 Comparison section 209 input terminal 210 Synthesis Department 211 Output terminal 301 input terminal 302 position decoding unit 303 types decoding unit 304 counter 305 output terminal 401 input terminal 402,405 Inflating section 403,404 contraction section 406 switch 407 output terminal 501 input terminal 502 Labeling section 503 buffer 504 Judgment unit 505 output terminal

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平9−18798(JP,A) 特開 平8−317301(JP,A) 特開 平8−212231(JP,A) 特開 平7−192003(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/262 - 5/28 G06T 7/00 - 7/60 G06K 9/00 G06K 9/46 - 9/52 G06K 9/62 - 9/82 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-9-18798 (JP, A) JP-A-8-317301 (JP, A) JP-A-8-212231 (JP, A) JP-A-7- 192003 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 5/262-5/28 G06T 7/00-7/60 G06K 9/00 G06K 9/46-9/52 G06K 9/62-9/82

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 映像からテロップを検出する方法であっ
て、 画素または画素の集合の単位でテロップ候補画素を抽出
し、縦横の空間軸と時間軸とから成る3次元のバッファ
に格納する抽出段階と、 前記バッファ上のテロップ候補画素を併合する併合段階
を有する映像テロップ検出方法。
1. A method of detecting a telop from an image, comprising extracting telop candidate pixels in units of pixels or a set of pixels and storing the telop candidate pixels in a three-dimensional buffer having vertical and horizontal spatial axes and a temporal axis. And a merging step of merging telop candidate pixels on the buffer.
【請求項2】 映像からテロップを検出する装置であっ
て、 縦横の空間軸と時間軸とからなる3次元のバッファと、 画素または画素の集合の単位でテロップ候補画素を抽出
し、前記バッファに格納する抽出手段と、 前記バッファ上のテロップ候補画素を併合する併合手段
を有する映像テロップ検出装置。
2. A device for detecting a telop from an image, comprising: a three-dimensional buffer having vertical and horizontal spatial axes and a temporal axis; extracting telop candidate pixels in the unit of a pixel or a set of pixels; An image telop detection device comprising: an extracting unit that stores the telop candidate pixels on the buffer;
【請求項3】 前記抽出手段が、映像のエッジを求める
エッジ生成手段と、エッジの値を縦方向と横方向に投影
する投影手段と、投影された値と閾値との比較結果に基
づいてテロップ候補画素を判定する比較手段を有する請
求項2記載の映像テロップ検出装置。
3. The telop based on the comparison result between the projected value and the threshold, the extraction means obtaining the edge of the image, the projection means for projecting the edge value in the vertical and horizontal directions. The video telop detection device according to claim 2, further comprising a comparison unit that determines a candidate pixel.
【請求項4】 前記抽出手段が、フレーム間の相関を利
用して符号化された映像データから、フレーム間の相関
を用い、かつ、動き補償を用いないで符号化された画素
の数を、それぞれの画素の位置ごとに計数区間内で計数
する計数手段を有する請求項2記載の映像テロップ検出
装置。
4. The number of pixels encoded from the video data encoded by utilizing the correlation between frames using the correlation between frames and without using motion compensation, 3. The video telop detection device according to claim 2, further comprising a counting unit that counts each position of each pixel within a counting section.
【請求項5】 前記併合手段が、3次元の平滑化フィル
タによってテロップ候補画素を平滑化する平滑化手段を
有する請求項2から4のいずれか1項に記載の映像テロ
ップ検出装置。
5. The video telop detection device according to claim 2, wherein the merging unit has a smoothing unit that smoothes the telop candidate pixels with a three-dimensional smoothing filter.
【請求項6】 前記併合手段が、テロップ候補画素を近
傍画素の最大値に置き換える膨張手段と、テロップ候補
画素を近傍画素の最小値に置き換える収縮手段を有する
請求項2から4のいずれか1項に記載の映像テロップ検
出装置。
6. The merging means has expansion means for replacing the telop candidate pixel with the maximum value of the neighboring pixels and contraction means for replacing the telop candidate pixel with the minimum value of the neighboring pixels. The video telop detection device according to.
【請求項7】 テロップ候補画素の存在しない時間区間
の前または後のフレームを、テロップを表す代表フレー
ムとする判定手段をさらに有する請求項2から6のいず
れか1項に記載の映像テロップ検出装置。
7. The video telop detection device according to claim 2, further comprising a determination unit that determines a frame before or after a time section in which no telop candidate pixel is present as a representative frame representing a telop. .
【請求項8】 併合されたテロップ候補画素の連結成分
にラベルを付与するラベリング手段と、ラベルのつけら
れたテロップ候補画素を含むフレームをテロップを表す
代表フレームとする判定手段をさらに有する請求項2か
ら6のいずれか1項に記載の映像テロップ検出装置。
8. The method according to claim 2, further comprising labeling means for giving a label to the connected components of the merged telop candidate pixels, and determining means for making a frame including the labeled telop candidate pixels a representative frame representing the telop. 7. The video telop detection device according to any one of 1 to 6.
JP11271997A 1997-04-30 1997-04-30 Video telop detection method and apparatus Expired - Fee Related JP3503797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11271997A JP3503797B2 (en) 1997-04-30 1997-04-30 Video telop detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11271997A JP3503797B2 (en) 1997-04-30 1997-04-30 Video telop detection method and apparatus

Publications (2)

Publication Number Publication Date
JPH10304247A JPH10304247A (en) 1998-11-13
JP3503797B2 true JP3503797B2 (en) 2004-03-08

Family

ID=14593817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11271997A Expired - Fee Related JP3503797B2 (en) 1997-04-30 1997-04-30 Video telop detection method and apparatus

Country Status (1)

Country Link
JP (1) JP3503797B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090040377A1 (en) * 2005-07-27 2009-02-12 Pioneer Corporation Video processing apparatus and video processing method
JP4634894B2 (en) * 2005-09-05 2011-02-16 パイオニア株式会社 Telop detection apparatus and method, and recorder

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3361587B2 (en) * 1993-12-27 2003-01-07 株式会社日立製作所 Moving image search apparatus and method
JP3590896B2 (en) * 1995-02-02 2004-11-17 株式会社日立製作所 Caption detection method
JPH08317301A (en) * 1995-05-22 1996-11-29 Hitachi Ltd Video output device
JPH0918798A (en) * 1995-07-03 1997-01-17 Sanyo Electric Co Ltd Video display device with character processing function

Also Published As

Publication number Publication date
JPH10304247A (en) 1998-11-13

Similar Documents

Publication Publication Date Title
US6987866B2 (en) Multi-modal motion estimation for video sequences
KR0151410B1 (en) Motion vector detecting method of image signal
US6690729B2 (en) Motion vector search apparatus and method
KR100272090B1 (en) Method and apparatus for detecting caption in video data
US5767922A (en) Apparatus and process for detecting scene breaks in a sequence of video frames
US8509481B2 (en) Image processing apparatus, image processing method, imaging apparatus
US20070291169A1 (en) Region-based cadence detector
US8243194B2 (en) Method and apparatus for frame interpolation
JP2002523985A (en) Problem area localization in image signals
US8401318B2 (en) Motion vector detecting apparatus, motion vector detecting method, and program
US20060210164A1 (en) Image processing device
JP4213035B2 (en) Occlusion detector and method for detecting an occlusion region
JP4913801B2 (en) Shielding object image identification apparatus and method
KR100327649B1 (en) Method and apparatus for interlaced detection
JP2009533887A (en) Motion vector field correction apparatus and method
JP3503797B2 (en) Video telop detection method and apparatus
JPH089379A (en) Motion vector detection method
JPH07236153A (en) Detection of cut point of moving picture and device for detecting cut picture group
JPH08329110A (en) Method for processing picture
WO2011027422A9 (en) Image processing apparatus and video reproducing device
JP3609236B2 (en) Video telop detection method and apparatus
KR100628190B1 (en) Converting Method of Image Data's Color Format
JP2002199407A (en) Device for detecting roll telop in moving picture and recording medium
JP4269573B2 (en) Motion vector detection apparatus and method
JPH0715700A (en) Apparatus and method for movement corrected processing of video signal

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20031204

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20031204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees