JPH09322173A - Method and device for extracting time-varying image telop - Google Patents

Method and device for extracting time-varying image telop

Info

Publication number
JPH09322173A
JPH09322173A JP13189896A JP13189896A JPH09322173A JP H09322173 A JPH09322173 A JP H09322173A JP 13189896 A JP13189896 A JP 13189896A JP 13189896 A JP13189896 A JP 13189896A JP H09322173 A JPH09322173 A JP H09322173A
Authority
JP
Japan
Prior art keywords
telop
moving image
unit
correlation
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13189896A
Other languages
Japanese (ja)
Inventor
Takashi Sato
隆 佐藤
Yukinobu Taniguchi
行信 谷口
Yasumasa Niikura
康巨 新倉
Hiroshi Hamada
洋 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP13189896A priority Critical patent/JPH09322173A/en
Priority to MYPI97002288A priority patent/MY119560A/en
Priority to US08/863,840 priority patent/US6243419B1/en
Priority to KR1019970020966A priority patent/KR100272090B1/en
Publication of JPH09322173A publication Critical patent/JPH09322173A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide the method and device directly extracting time-varying image data where a telop part of a moving image is coded without decoding processing. SOLUTION: The method consists of a stage where coded time-varying image data are discriminated as to whether a data frame is coded by using inter-frame correlation or coded without using inter-frame correlation, a stage where whether a picture element of the frame coded by using the inter-frame correlation is coded without using motion compensation, a stage where a coded numeral is stored in a 2-dimensional count matrix depending on a location of each picture element, a stage where a value stored in each count matrix is compared with a threshold level, and a stage where a picture element whose value is higher than the threshold level through comparison is decided to be a telop part, and the operation stages as above are conducted to each picture element within a prescribed area and a telop part in the time-varying image is extracted through the overall discrimination as above.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、動画像からテロッ
プ部分を抽出する方法、および装置に関し、特に、符号
化された画素を用いてテロップ部分を抽出する方法と装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for extracting a telop portion from a moving image, and more particularly to a method and apparatus for extracting a telop portion using coded pixels.

【0002】[0002]

【従来の技術】動画像の内容に基づいた検索や編集など
の処理を行なうために動画像の内容を表す情報を抽出す
る方法として、動画像の中からテロップ部分を抽出する
方法がある。ここでいうテロップとは、スーパーインポ
ーズ等の方法によって動画像中に現れる字幕、写真、記
号、模様、マーク、アイコン等を含み、テロップ部分と
は、前記テロップを含む画素または画素の集合を表す。
2. Description of the Related Art There is a method of extracting a telop portion from a moving image as a method of extracting information representing the content of the moving image in order to perform processing such as searching and editing based on the content of the moving image. The telop here includes subtitles, photographs, symbols, patterns, marks, icons, etc. that appear in a moving image by a method such as superimposing, and the telop portion represents a pixel or a group of pixels including the telop. .

【0003】動画像から自動的にテロップ部分を抽出す
るための従来技術として、テロップの画像領域が背景部
分に比ベて高輝度でありエッジを抽出し易いという性質
を用いた方法(例えば、茂木他、「ニュース映像中の文
字認識に基づく記事の索引付け」、電子情報通信学会技
術研究報告IE95−153,1996など)や、テロ
ップ領城には周辺に大きな輝度差があることを利用する
方法(例えば、根本他、「テロップの認識による資料映
像の検索について」、1994年電子情報通信学会春季
大会D−427、1994など)がある。
As a conventional technique for automatically extracting a telop portion from a moving image, a method using the property that the image area of the telop has a higher brightness than the background portion and an edge is easily extracted (for example, Motegi) Others, "indexing articles based on character recognition in news video", IEICE Technical Research Report IE95-153, 1996, etc.), and a method of utilizing a large brightness difference in the surroundings of telop castles (For example, Nemoto et al., “Searching for Material Video by Recognition of Telop”, 1994 Spring Conference of the Institute of Electronics, Information and Communication Engineers D-427, 1994, etc.).

【0004】茂木等の従来方法では、画像に対して1次
微分によるエッジ抽出を行ない、エッジ画像を横方向と
縦方向に投影し、文字列の矩形領域を切り出している。
文字が横一列に並んでいる部分は、テロップ以外の部分
との差が大きく、ヒストグラムの山と谷から安定してテ
ロップ領域を抽出できる。
In the conventional method of Mogi et al., An edge is extracted from an image by first-order differentiation, the edge image is projected in the horizontal and vertical directions, and a rectangular area of a character string is cut out.
The part where the characters are lined up horizontally has a large difference from the part other than the telop, and the telop region can be stably extracted from the peaks and valleys of the histogram.

【0005】根本等の従来方法では、まず、フレーム間
で輝度や色相の分布の変化を見て、テロップが出現する
フレームを見つける。次に、テロップ出現直前と出現直
後のフレーム間の差分をとり、テロップ領城を抽出して
いる。
In the conventional method such as Root, first, a frame in which a telop appears is found by looking at changes in the distribution of luminance and hue between frames. Next, the telop territory is extracted by taking the difference between the frames immediately before and immediately after the telop appears.

【0006】根本等の従来方法の改良方法として、テロ
ップ抽出の精度を上げる方法(倉掛他、「認識技術を用
いた映像中キーターゲットインデキシングの検討」電子
情報通信学会技術研究報告IE95−150,199
6)が提案されている。これは、テロップの存在する複
数フレームを平均化することによって、テロップを強調
するとともに背景のばらつきによる影響を軽減し、テロ
ップ抽出の精度を高める方法である。
As a method of improving the conventional method such as the root method, a method of increasing the accuracy of telop extraction (Kurakake et al., "Study of Key Target Indexing in Video Using Recognition Technology" IEICE Technical Report IE95-150, 199)
6) has been proposed. This is a method of enhancing the accuracy of telop extraction by averaging a plurality of frames in which telops are present, thereby emphasizing the telops and reducing the influence of background variations.

【0007】また、符号化された動画像からのテロップ
抽出においては、一度、画像を完全に復号化して元の画
像に戻してから、上記の抽出作業を行うことになる。
In the telop extraction from the encoded moving image, the image is completely decoded and restored to the original image, and then the above-mentioned extraction work is performed.

【0008】[0008]

【発明が解決しようとする課題】フレーム間の相関を利
用して符号化された動画像に対して、従来の方法を用い
てテロップ部分を抽出するためには、符号化された動画
像をフレーム画像まで復号化しなければならない。この
ため、テロップ領域抽出の処理以外に画像復号化の処理
が必要となり、処理コストが高くなり高速なテロップ部
分の抽出が困難になる。
In order to extract a telop portion using a conventional method for a moving image coded by utilizing the correlation between frames, the coded moving image is framed. Images must be decoded. For this reason, image decoding processing is required in addition to the telop area extraction processing, which increases the processing cost and makes it difficult to quickly extract the telop portion.

【0009】また、符号化された動画像を対象に複数フ
レームを平均化する方法を用いる場合には、フレーム画
像を全て復号化した上で平均化しなければならず、処理
コストがさらに高くなるという問題がある。
Further, when a method of averaging a plurality of frames for a coded moving image is used, all frame images must be decoded and then averaged, resulting in higher processing cost. There's a problem.

【0010】本発明の日的は、フレーム間の相関を利用
して符号化された動画像データに対して、フレーム画像
を復号化することなく小さい処理コストで高速にテロッ
プを抽出する動画像テロップ抽出方式と装置を提供する
ことにある。
According to the present invention, a moving picture telop for extracting telops at high speed with a small processing cost without decoding frame images from moving picture data encoded by utilizing correlation between frames. It is to provide an extraction method and device.

【0011】[0011]

【発明を解決するための手段】本発明の動画像テロップ
抽出方法は、フレーム間の相関を利用して符号化された
動画像データのテロップ部分を抽出する方法であって、
フレーム間の相関を用い、かつ、動き補償を用いないで
符号化された画素が時間的空間的に集中している部分を
抽出する抽出段階を有する。
The moving picture telop extraction method of the present invention is a method for extracting a telop portion of encoded moving picture data by utilizing the correlation between frames.
The method includes an extraction step of extracting a portion in which pixels coded without correlation between frames using temporal correlation are concentrated temporally and spatially.

【0012】また、本発明の動画像テロップ抽出方法
は、前記抽出段階として、フレーム間の相関を用い、か
つ動き補償を用いないで符号化された画素の出現する頻
度を計数する計数段階と、頻度と閾値との比較結果に基
づいてテロップ部分を選択する選択段階を有する。
Further, in the moving picture telop extraction method of the present invention, as the extraction step, a counting step of counting the frequency of appearance of coded pixels using correlation between frames and not using motion compensation, It has a selection step of selecting a telop portion based on the result of comparison between the frequency and a threshold value.

【0013】さらに、本発明には、前記抽出段階とし
て、フレーム間の相関を用い、かつ動き補償を用いない
で符号化された画素の出現する頻度を計数する計数段階
と、頻度の投影ヒストグラムを作成する投影段階と、投
影ヒストグラムの頻度と閾値との比較結果によりテロッ
プ部分を選択する選択段階を有するものも含まれる。
Further, in the present invention, as the extraction step, a counting step of counting the frequency of appearance of pixels coded by using correlation between frames and not using motion compensation, and a projection histogram of frequency are provided. It also includes a projection stage to be created and a selection stage to select a telop portion based on the result of comparison between the frequency of the projection histogram and the threshold value.

【0014】また、本発明には、計数段階後、頻度の空
間的な特徴に基づいて頻度を併合する併合段階をさらに
有するものも含まれる。
The invention also includes what is further provided after the counting step, with a merging step for merging the frequencies based on spatial characteristics of the frequencies.

【0015】また、本発明には、前記動画像から抽出さ
れたテロップ部分を蓄積する蓄積段階をさらに有するも
のも含まれる。
Further, the present invention also includes one further having a storage step of storing the telop portion extracted from the moving image.

【0016】また、本発明には、前記動画像から抽出さ
れたテロップ部分だけを復号化できる復号段階を有する
ものも含まれる。
Further, the present invention also includes one having a decoding step capable of decoding only the telop portion extracted from the moving image.

【0017】また、本発明には、フレーム間の相関を利
用して符号化された動画像データのテロツプ部分を抽出
する装置において、フレーム間の相関を用い、かつ、動
き補償を用いないで符号化された画素が時間的空間的に
集中している部分を抽出する抽出部を有する。
Further, according to the present invention, in an apparatus for extracting a terror portion of moving image data coded by utilizing the correlation between frames, the coding is performed without using the correlation between frames and without using motion compensation. An extraction unit is provided for extracting a portion where the converted pixels are temporally and spatially concentrated.

【0018】[0018]

【発明の実施の形態】次に、本発明の実施形態について
図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0019】以下の実施例では、本発明の入力となるデ
ータは、フレームの相関を利用して符号化された動画像
データとして、MPEGに基づく方法によって符号化さ
れた動画像データを想定する。しかし、動画像データと
しては、これに限定されるのではなく、これ以外の、フ
レーム間の相関を利用し、画素単位で符号化方式を変更
できる符号化方法によって符号化された動画像データに
も適用し得る。
In the following embodiments, the input data of the present invention is assumed to be moving image data encoded by a method based on MPEG as moving image data encoded by utilizing frame correlation. However, the moving image data is not limited to this, and other than this, the moving image data encoded by the encoding method that can change the encoding method on a pixel-by-pixel basis using the correlation between frames is used. Can also be applied.

【0020】また、画素の表現方法としては、H.26
1やMPEGで採用されているマクロブロックによる表
現を想定する。しかし、画素の表現方法は、これに限定
されるのではなく、これ以外の画素表現にも適用し得
る。
Further, as a method of expressing pixels, H.264 is used. 26
1 and the representation by the macro block adopted by MPEG are assumed. However, the pixel representation method is not limited to this, and may be applied to other pixel representations.

【0021】MPEGでは、動画像のフレームには、
(1)フレーム間の相関を用いず専らフレーム内の相関
を用いた符号化が行われるフレームと、(2)フレーム
間の相関を用いた符号化が行われるフレームと、があ
る。
In MPEG, the frame of the moving image is
There are (1) a frame in which coding is performed exclusively using correlation within a frame without using correlation between frames, and (2) a frame in which coding is performed using correlation between frames.

【0022】また、MPEGでは、マクロブロック単位
で符号化の種類を変更することができる。符号化の種類
には、(a)フレーム間の相関を用いるか、(b)動き
補償を用いるか、の区別がある。なお、(a)(b)の
組み合わせは4種類考えられるが、フレーム間の相関を
用いず、かつ、動き補償を用いるという組み合わせは存
在しないため、実際には3種類となる。
In MPEG, the type of coding can be changed in units of macroblocks. There is a distinction in the type of coding between (a) use of correlation between frames and (b) use of motion compensation. There are four possible combinations of (a) and (b), but since there is no combination that does not use correlation between frames and that uses motion compensation, there are actually three types.

【0023】次に、本発明の作用の根拠である、フレー
ム間の相関を利用して符号化された動画像データにおい
て、フレーム間の相関を用い、かつ動き補償を用いない
で符号化された画素がテロップ部分に時間的空間的に集
中するという性質の根拠を述べる。
Next, the moving image data coded by utilizing the correlation between frames, which is the basis of the operation of the present invention, is coded by using the correlation between frames and without using motion compensation. The basis of the property that pixels are temporally and spatially concentrated in the telop part is described.

【0024】まず、画素の符号化を判定するために一般
的に用いられる方法と特徴量を述べる。H.261やM
PEGなど、フレーム間の相関を利用する符号化方法に
よれば、符号化効率の最適化を目的として、(1)フレ
ーム内における画素値の分散(以下varと略記す)
と、(2)動き補償を用いた場合のフレーム間における
画素値の差の分散(フレーム間動き補償誤差分散)(以
下vmcと略記す)と、(3)動き補償を用いない場合
のフレーム間における画素値の差の分散(フレーム間誤
差分散)(以下v0と略記す)の3つの分散を比較し、
できるだけ分散が小さくなる場合を選択することによっ
て、最も効率のよい画素の符号化の種類を判定してい
る。その方法を、図2を用いて説明する。
First, a method and a feature amount that are generally used for determining the pixel coding will be described. H. 261 and M
According to an encoding method that uses correlation between frames, such as PEG, for the purpose of optimizing encoding efficiency, (1) distribution of pixel values within a frame (hereinafter abbreviated as var)
And (2) variance of pixel value differences between frames when motion compensation is used (interframe motion compensation error variance) (hereinafter abbreviated as vmc), and (3) between frames when motion compensation is not used. The three variances of the pixel value difference (error variance between frames) (hereinafter abbreviated as v0) in
By selecting the case where the variance is as small as possible, the most efficient pixel encoding type is determined. The method will be described with reference to FIG.

【0025】以下フローチャートにおけるステップ番号
(段階番号)にはステップの代わりにSと記入する。ま
ず、varとvmcを計算し(S21)、varとvm
cを比較し(S22)、vraが小さければフレーム間
の相関を用いない符号化が行われる(S23)。そうで
なければフレーム間の相関を用いて符号化する。さらに
フレーム間の相関を用いる場合には、v0を計算し(S
24)、vmcとv0を比較して(S25)、v0が小
さければ動き補償を用いないで符号化し(S26)、そ
うでなければ動き補償を用いて符号化する(S27)。
また、図中S25のαは1より大きいバイアス値で、v
mcとv0がほぼ同等の場合には、動き補償を用いない
符号化が優先される。その理由は、分散がほぼ等しけれ
ば、画素値に関する符号量は変わらないので、動き補償
を表すための符号を省略した方が、合計の符号量が少な
くなって有利と考えられるからである。
The step number (stage number) in the following flow chart is written with S instead of the step. First, var and vmc are calculated (S21), and var and vm are calculated.
c is compared (S22), and if vra is small, coding is performed without using correlation between frames (S23). Otherwise, coding is performed using the correlation between frames. Further, when the correlation between frames is used, v0 is calculated (S
24), vmc is compared with v0 (S25), if v0 is small, it is encoded without using motion compensation (S26), and if not, it is encoded using motion compensation (S27).
Further, in the figure, α in S25 is a bias value larger than 1, and v
When mc and v0 are almost equal, encoding without motion compensation is prioritized. The reason is that if the variances are almost equal, the code amount relating to the pixel value does not change, and therefore it is considered advantageous to omit the code for expressing motion compensation because the total code amount decreases.

【0026】次に、動画像の画素の性質に基づいて、テ
ロップ部分とそれ以外の部分の画素が、それぞれどのよ
うに符号化される傾向があるかを述べる。
Next, how the pixels in the telop portion and the pixels in the other portions tend to be coded will be described based on the pixel characteristics of the moving image.

【0027】テロップ部分の画素は一定時間変化がなく
同じ位置に動かないで存在する性質があるので、vmc
は小さくなる傾向がある。また、テロップ部分はそれ以
外の部分の画素と比べて、コントラストが高いためva
rは大きくなる傾向がある。これにより、vmcよりv
arが大きくなり、テロップ部分の画素にはフレーム間
の相関を用いる符号化が採用される傾向がある。
Since the pixels in the telop part have the property that they do not change for a certain period of time and do not move to the same position, vmc
Tends to be smaller. In addition, since the contrast of the telop portion is higher than that of the pixels of other portions, va
r tends to be large. As a result, vmc is replaced by v
Since ar becomes large, encoding using the correlation between frames tends to be adopted for the pixels of the telop portion.

【0028】テロップ部分はエッジガ強く周囲に似た画
素が存在しないので、フレーム間での画素の動きベクト
ルは0か非常に小さくなる。これにより、vmcとv0
が同等程度になるので、テロップ部分の画素には動き補
償を用いない符号化が採用される傾向がある。
In the telop portion, since there are no pixels that are strongly edged and resemble the surroundings, the motion vector of the pixel between frames is 0 or very small. This gives vmc and v0
Are similar to each other, so that there is a tendency that the encoding in which the motion compensation is not used is adopted for the pixels in the telop portion.

【0029】テロップ以外の部分で、動いている部分に
ついては、明らかにv0よりvmcの方が小さくなるの
で、動き補償を用いる符号化が採用される傾向がある。
As for moving parts other than the telop, vmc is obviously smaller than v0, so that the coding using motion compensation tends to be adopted.

【0030】静止している背景など、テロップ以外の部
分で静止している画素は、実際には、画面のちらつきや
雑音によってv0は0にならない傾向がある。しかし、
テロップ部分以外の画素はテロップ部分に比べてエッジ
が強くなく、周囲に似た画素が存在することによって、
実際には動いていないのに、周囲の似た画素の位置へ動
いたと判定され、その動き補償によってvmcがv0よ
り小さくなる傾向がある。これによって、テロップ以外
の部分で静止している画素は、動き補償を用いた符号化
が採用される傾向がある。
Pixels that are stationary in a portion other than the telop, such as a stationary background, actually tend to have v0 that is not 0 due to screen flicker and noise. But,
Pixels other than the telop part do not have a strong edge compared to the telop part, and because there are pixels similar to the surroundings,
Although it has not actually moved, it is determined that the pixel has moved to the positions of similar pixels in the surroundings, and the motion compensation tends to make vmc smaller than v0. As a result, for pixels that are stationary in parts other than the telop, there is a tendency that encoding using motion compensation is adopted.

【0031】また、テロップ部分も、同様に画面のちら
つきや雑音によってv0が0にならない傾向があるが、
画面のちらつきや雑音に比してエッジが強く、周囲に似
た画素が存在しないため、動きが検出されず、vmcは
v0と同等になって小さくならない傾向がある。このた
め、画面のちらつきや雑音を考慮に入れても、やはり、
テロップ部分の画素には動き補償を用いない符号化が採
用される傾向がある。以上のテロップ部分とそれ以外の
画素の性質により、テロップ部分の画素は、フレーム間
の相関を用い、かつ、動き補償を用いないで符号化され
る傾向があり、テロップ以外の画素は、それ以外の方法
で符号化される傾向があることがわかった。これによ
り、フレーム間の相関を利用して符号化された動画像デ
ータにおいて、フレーム間の相関を用い、かつ動き補償
を用いないで符号化された画素がテロップ部分に時間的
空間的に集中するということができる。
Similarly, in the telop part, v0 tends not to be 0 due to screen flicker or noise.
Edges are stronger than flicker and noise on the screen, and pixels similar to the surroundings do not exist, so that motion is not detected and vmc tends to be the same as v0 and not become small. Therefore, even if you consider flicker and noise on the screen,
Coding without using motion compensation tends to be adopted for pixels in the telop portion. Due to the above properties of the telop portion and the other pixels, the pixels of the telop portion tend to be coded using the correlation between frames and without motion compensation, and the pixels other than the telop are It was found that there is a tendency to be encoded by the method of. As a result, in the moving image data encoded by using the correlation between frames, the pixels encoded by using the correlation between frames and without motion compensation are temporally and spatially concentrated in the telop portion. Can be said.

【0032】以下に、本発明の12個の実施例について
図面を参照して説明する。
Twelve embodiments of the present invention will be described below with reference to the drawings.

【0033】図1は、本発明の動画像テロップ抽出方法
の第1の実施例を表すフローチャートである。まず、M
PEGで符号化された動画像データがフレーム単位で入
力され(S1)、次に、フレーム間の相関を用いて符号
化されたフレームかどうかが判別される(S2)。フレ
ーム間の相関を用いないで符号化されたフレームは、こ
の実施例では特に処理されないが、他の実施例では利用
されることもありうる。フレーム間の相関を用いて符号
化されたフレームについては、次の計数段階(S3)に
マクロブロック単位で出力される。計数段階S3では、
マクロブロックの符号化方法について、フレーム間の相
関を用い、かつ動き補償を用いないで符号化されたマク
ロブロックかどうかを判定する。判定結果に基づき、マ
クロブロックの数を計数し、マクロブロックの位置に応
じた2次元の計数マトリックスに係数を格納する。係数
は与えられた計数区間内で繰り返される(S4)。計数
区間内での計数が終ると、次の選択段階(S5)に進
む。選択段階(S5)では、計数マトリックスに格納さ
れた値としきい値とを比較してテロップ部分を選択す
る。これを一つの計数区間での処理とし、必要に応じて
次の計数区間の処理を行う(S6)。なお、図中では省
略したが、処理に先立ち計数マトリックスは初期化され
ている。
FIG. 1 is a flow chart showing a first embodiment of the moving picture telop extraction method of the present invention. First, M
The moving image data encoded by PEG is input in frame units (S1), and then it is determined whether the frame is encoded by using the correlation between frames (S2). A frame coded without using correlation between frames is not specifically processed in this embodiment, but may be used in other embodiments. Frames coded using the correlation between frames are output in macroblock units in the next counting step (S3). In the counting step S3,
Regarding the macroblock coding method, it is determined whether or not the macroblock has been coded using correlation between frames and without using motion compensation. Based on the determination result, the number of macroblocks is counted, and the coefficient is stored in a two-dimensional counting matrix corresponding to the position of the macroblock. The coefficient is repeated within the given counting interval (S4). When the counting within the counting section is completed, the process proceeds to the next selection step (S5). In the selection step (S5), the value stored in the counting matrix is compared with the threshold value to select the telop portion. This is set as the processing in one counting section, and the processing in the next counting section is performed if necessary (S6). Although omitted in the figure, the counting matrix is initialized prior to the processing.

【0034】以下に、第1の実施例の計数段階につい
て、3つの実施例を述べる。
Three embodiments will be described below for the counting step of the first embodiment.

【0035】図3は、第2の実施例であり、第1の実施
例の計数段階の一実施例を表すフローチャートである。
計数段階では、フレームからマクロブロックを入力し
(S31)、フレーム間の相関を用い、かつ、動き補償
を用いないで符号化されたマクロブロックを判別して
(S32)、マクロブロックの位置に基づいて計数マト
リックスの値に1を加算する(S33)。これを、フレ
ーム内の全てのマクロブロックについて繰り返す(S3
4)。全てのマクロブロックの処理が済んだところで計
数段階の処理を終了する(S35)。
FIG. 3 is a flow chart showing the second embodiment, which is an example of the counting step of the first embodiment.
In the counting step, a macro block is input from a frame (S31), a coded macro block is discriminated using correlation between frames and without motion compensation (S32), and based on the position of the macro block. Then, 1 is added to the value of the counting matrix (S33). This is repeated for all macroblocks in the frame (S3
4). When the processing of all macroblocks is completed, the processing of the counting stage is ended (S35).

【0036】計数マトリックスをMとし、マクロブロッ
クをBとすれば、 M(i,j)←M(i,j)+1;B(i,j)は動き補償を用いないフレー ム間相関符号化マクロブロック M(i,j) ;それ以外 と表される。
If the counting matrix is M and the macroblock is B, then M (i, j) ← M (i, j) +1; B (i, j) is interframe correlation coding without motion compensation. Macroblock M (i, j); Represented as others.

【0037】この実施例では、フレーム間の相関を用
い、かつ、動き補償を用いないで符号化されたマクロブ
ロックが最低1回現れた位置をテロップとして抽出する
ので、人間が見てテロップと判定されない画素も誤って
抽出される恐れがあるが、テロップの抽出漏れを少なく
することができるという利点はある。
In this embodiment, since the position where a macroblock coded without using motion compensation and using the correlation between frames appears at least once is extracted as a telop, it is judged as a telop by human eyes. Pixels that are not selected may be erroneously extracted, but there is an advantage that telop extraction omission can be reduced.

【0038】図4は、第3の実施例であり、第1の実施
例の計数段階が変わった一実施例を表すフローチャート
である。計数段階では、フレームからマクロブロックを
入力し(S41)、フレーム間の相関を用い、かつ動き
補償を用いないで符号化されたマクロブックを判別する
(S42)。フレーム間の相関を用い、かつ、動き補償
を用いないで符号化されたマクロブロックについては、
計数マトリックスの値に1を加算し(S43)、そうで
ないマクロブロックについては、計数マトリックスの値
から1を減算する(S44)。これを、フレーム内の全
てのマクロブロックについて繰り返す(S45)。全て
のマクロブロックの処理が済んだところで計数段階の処
理を終了する(S46)。
FIG. 4 is a flow chart showing a third embodiment, which is an embodiment in which the counting step of the first embodiment is changed. In the counting step, a macroblock is input from a frame (S41), and a coded macrobook is discriminated using correlation between frames and without motion compensation (S42). For macroblocks coded with correlation between frames and without motion compensation:
1 is added to the value of the counting matrix (S43), and 1 is subtracted from the value of the counting matrix for macroblocks that are not (S44). This is repeated for all macroblocks in the frame (S45). When the processing of all macroblocks is completed, the processing of the counting stage is ended (S46).

【0039】この処理は、同様に、 M(i,j)←M(i,j)+1;B(i,j)は動き補償を用いなフレーム 間相関符号化マクロブロック M(i,j)−1;それ以外 と表される。Similarly, this processing is performed by M (i, j) ← M (i, j) +1; B (i, j) is an interframe correlation coding macroblock M (i, j) which does not use motion compensation. -1; Expressed as other than that.

【0040】この実施例では、テロップではない部分
が、偶然テロップであると判定された場合を、判定され
なかった場合によって取り消すことができるので、第2
の実施例における誤抽出の可能性を少なくすることがで
きるという利点がある。
In this embodiment, the case where the portion which is not the telop is accidentally determined to be the telop can be canceled depending on the case where it is not determined.
There is an advantage that the possibility of erroneous extraction can be reduced in this embodiment.

【0041】図5は、第4の実施例であり、第1の実施
例の計数段階のさらに異なった実施例を表すフローチャ
ートである。計数段階では、フレームからマクロブロッ
クを入力し(S51)、フレーム間の相関を用い、か
つ、動き補償を用いないで符号化されたマクロブロック
を判別する(S52)。フレーム間の相関を用い、かつ
動き補償を用いないで符号化されたマクロブロックにつ
いては、計数マトリックスの値に1を加算し(S5
3)、そうでないマクロブロックについては、計数マト
リックスの値を0にする(S54)。これを、フレーム
内の全てのマクロブロックについて繰り返す(S5
5)。全てのマクロブロックの処理が済んだところで計
数段階の処理を終了する(S56)。
FIG. 5 is a flow chart showing a fourth embodiment, which is a further different embodiment of the counting step of the first embodiment. In the counting step, a macroblock is input from a frame (S51), and a coded macroblock is discriminated using correlation between frames and without motion compensation (S52). For a macroblock coded using correlation between frames and not using motion compensation, 1 is added to the value of the counting matrix (S5
3) For other macroblocks, the value of the counting matrix is set to 0 (S54). This is repeated for all macroblocks in the frame (S5
5). When the processing of all macroblocks is completed, the processing of the counting stage is ended (S56).

【0042】この処理は、同様に、 M(i,j)←M(i,j)+1;B(i,j)は動き補償を用いなフレーム 間相関符号化マクロブロック 0;それ以外 と表される。Similarly, this processing is expressed as M (i, j) ← M (i, j) +1; B (i, j) is an interframe correlation coding macroblock 0 without motion compensation; To be done.

【0043】この実施例でも、テロップではない部分
が、偶然テロップであると判定された場合を、判定され
なかった場合によって取り消すことができるので、実施
例2の誤抽出の可能性を少なくすることができるという
利点がある。
In this embodiment as well, it is possible to cancel the case where the part which is not the telop is accidentally judged to be the telop depending on the case where it is not judged, so that the possibility of erroneous extraction in the second embodiment is reduced. The advantage is that

【0044】以下に、第1の実施例の選択段階につい
て、4つの異なった実施例を述べる。
In the following, four different embodiments will be described for the selection stage of the first embodiment.

【0045】図6は、第5の実施例であり、第1の実施
例の選択段階の異なった実施例を表すフローチャートで
ある。選択段階では、計数マトリックスMと、閾値T
h、計数に用いられたフレーム数nを入力する(S6
1)。計数マトリックスの値Mをnで割った値と、閾値
とを比較し(S62)、閾値より大きい部分をテロップ
領域として出力する。テロップ領域の存在を表す2次元
の領域マトリックスをRとすると、テロップが存在する
位置のRの値を1とし(S63)、そうでない部分を0
にする(S64)。これを全てのMの要素について繰り
返し(S65)、最終的に得られたRを領域マトリック
スとして出力する(S66)。
FIG. 6 is a flow chart showing a fifth embodiment, which is different from the first embodiment in the selection step. In the selection stage, the counting matrix M and the threshold T
h, the number of frames n used for counting is input (S6
1). A value obtained by dividing the value M of the counting matrix by n is compared with a threshold value (S62), and a portion larger than the threshold value is output as a telop area. When the two-dimensional area matrix representing the existence of the telop area is R, the value of R at the position where the telop exists is set to 1 (S63), and the other part is set to 0.
(S64). This is repeated for all M elements (S65), and the finally obtained R is output as a region matrix (S66).

【0046】この段階は、 と表される。At this stage, It is expressed as

【0047】なお、閾値は、あらかじめ与えられた一定
の値を用いてもよいし、変化させてもよい。例えば、計
数区間内で抽出されるテロップ部分の数が一定数を超え
ないよう適応的に計数区間毎に閾値を変化させてもよ
い。
The threshold value may be a constant value given in advance or may be changed. For example, the threshold value may be adaptively changed for each counting section so that the number of telop portions extracted in the counting section does not exceed a certain number.

【0048】図7は、第6の実施例であり、第1の実施
例の選択段階の異なった一実施例を表すフローチャート
である。この実施例では、計数段階の出力である計数マ
トリックスを縦または横方向に投影した1次元のヒスト
グラムを作成する投影段階と、ヒストグラムの頻度が閾
値より大きい区間を選択しテロップ領域とする選択段階
を有する。図7では、計数マトリックスMと、閾値T
h、計数に用いられるフレーム数nを入力する(S7
1)。次に、Mを横方向に投影し、投影ヒストグラムH
を作成する(S72)。そして、Hの値をnで割った値
が閾値Thより大きい区間[a,b)を求め(S7
3)、この区間について領域マトリックスRの値を1と
している(S74)。これを全てのHに要素が閾値と比
較されるまで繰り返し(S75)、最終的に得られらR
を領域マトリックスとして出力する(S76)。
FIG. 7 is a flow chart showing a sixth embodiment, which is an embodiment in which the selection step of the first embodiment is different. In this embodiment, there are a projection step of creating a one-dimensional histogram in which the counting matrix that is the output of the counting step is projected in the vertical or horizontal direction, and a selection step of selecting a section in which the frequency of the histogram is larger than a threshold value as a telop area. Have. In FIG. 7, the counting matrix M and the threshold T
Input h and the number n of frames used for counting (S7
1). Next, M is projected in the horizontal direction, and the projection histogram H
Is created (S72). Then, a section [a, b) in which the value of H is divided by n is larger than the threshold Th is obtained (S7).
3), the value of the area matrix R is set to 1 for this section (S74). This is repeated until all H elements are compared with the threshold value (S75), and finally obtained R
Is output as a region matrix (S76).

【0049】なお、図7では横方向投影を例としたが、
縦方向投影を用いた実施例も同様に作成してよい。
Although FIG. 7 shows an example of lateral projection,
Embodiments using vertical projection may be similarly created.

【0050】図8は、第7の実施例であり、第1の実施
例の選択段階の異なった一実施例を表すフローチャート
である。この実施例では、第6の実施例によって選択さ
れた部分を、第6の実施例で用いられなかったヒストグ
ラムの投影方向にさらに投影し、ヒストグラムの値が閾
値より大きい区間を選択しテロップ領域とする。図8で
は、計数マトリックスMと、閾値Th1,Th2、計数
の用いられたフレーム数nを入力する(S81)。次
に、Mを横方向に投影し、投影ヒストグラムH1を作成
する(S82)。次に、H1をnで割った値が閾値Th
1より大きい区間[a,b)を求め(S83)、その区
間について、さらにMを縦方向に投影し、投影ヒストグ
ラムH2を作成する(S84)。次に、H2をnと区間
の大きさ(b−a)で割った値が閾値Th2より大きい
区間[c,d)を求める(S85)。そして、区間
[a,b),[c,d)について領域マトリックスRの
値を1としている(S86)。これを、全てのH2とH
1の要素が比較されるまで繰り返し(S87、S8
8)、最終的に得られたRを領域マトリックスとして出
力する(S89)。
FIG. 8 is a flow chart showing a seventh embodiment, which is different from the first embodiment in the selection step. In this embodiment, the portion selected by the sixth embodiment is further projected in the projection direction of the histogram, which is not used in the sixth embodiment, and the section in which the histogram value is larger than the threshold value is selected as the telop area. To do. In FIG. 8, the counting matrix M, the thresholds Th1 and Th2, and the number of frames n used for counting are input (S81). Next, M is projected in the horizontal direction to create a projection histogram H1 (S82). Next, the value obtained by dividing H1 by n is the threshold Th.
A section [a, b) larger than 1 is obtained (S83), and M is further projected in the vertical direction for the section to create a projection histogram H2 (S84). Next, a section [c, d) in which the value obtained by dividing H2 by n and the section size (ba) is larger than the threshold Th2 is obtained (S85). Then, the value of the area matrix R is set to 1 for the sections [a, b) and [c, d) (S86). This is all H2 and H
Repeat until elements of 1 are compared (S87, S8
8) Then, the finally obtained R is output as a region matrix (S89).

【0051】また、図8の投影方向の順番を逆に入れ換
えた実施例も同様に作成してよい。この第7の実施例で
は、第6の実施例よりも精度の高いテロップ抽出が可能
となる。
Further, an embodiment in which the order of the projection directions in FIG. 8 is reversed may be similarly created. In the seventh embodiment, it is possible to extract the telop with higher accuracy than in the sixth embodiment.

【0052】図9は、第8の実施例であり、第5〜7の
実施例の選択段階の結果をさらに絞り込んで選択する選
択段階の一実施例を表すフローチャートである。
FIG. 9 is an eighth embodiment and is a flow chart showing an example of a selecting step for further narrowing down the results of the selecting steps of the fifth to seventh embodiments.

【0053】この段階の入力は、領域マトリックスR
と、種々の領域の特徴量の上限と下限を表す閾値である
(S91)。まず、領域マトリックスの連結領域R’を
求める(S92)。連結領域とは、領域マトリックスの
値が1であって互いに接する部分をまとめた領域を表
す。接する方向としては、上下左右の4方向を接すると
する4近傍連結と、これに右上、左上、右下、左下の4
方向を加えた8近傍連結とがある。連結領域を求める処
理はラベリングと称されることもある。
The input at this stage is the region matrix R
And a threshold value indicating the upper limit and the lower limit of the feature amount of various areas (S91). First, the connected region R ′ of the region matrix is obtained (S92). The connected region is a region in which the values of the region matrix are 1 and the portions in contact with each other are collected. As for the direction of contact, four neighborhood connections are assumed to be in contact with the four directions of up, down, left, and right, and four directions of upper right, upper left, lower right, lower left
There are 8-neighbor connections with added directions. The process of obtaining the connected region is sometimes called labeling.

【0054】R’の要素であるそれぞれの連結領域につ
いて(S93)、幅と高さ、面積、重心の位置を求め、
それぞれの値を、閾値を用いてさらに選択する(S9
4)。選択された連結領域については、それが占める部
分をR”に追加していく(S95)。これを全てのR’
の要素にてついて繰り返し(S96)、最終的に得られ
たR”を領域マトリックスとして出力する(S97)。
For each connected region that is an element of R '(S93), the width and height, the area, and the position of the center of gravity are obtained,
Each value is further selected using a threshold value (S9
4). For the selected connected region, the portion occupied by it is added to R ″ (S95).
The element of is repeated (S96), and the finally obtained R ″ is output as a region matrix (S97).

【0055】なお、選択に用いる値としては、ここで用
いた値以外に、種々の値を用いてもよい。例えば、幅と
高さの比や、領域の周囲長などの値を用いてもよい。
As the value used for selection, various values other than the value used here may be used. For example, values such as the width-height ratio and the perimeter of the area may be used.

【0056】この実施例では、テロップの典型的な使用
法にしたがって作成された閾値を与えれば、誤ってテロ
ップであると抽出された領域を除去することができ、テ
ロップ抽出の精度を向上させることができるという利点
がある。
In this embodiment, if a threshold value created according to a typical usage of telops is given, an area which is erroneously extracted as a telop can be removed and the accuracy of telop extraction can be improved. The advantage is that

【0057】図10は、第9の実施例であり、動画像テ
ロップ抽出方法の一実施例を表すフローチャートであ
る。この実施例では、第1の実施例の計数段階と選択段
階の間に、計数マトリックスの値を併合する併合段階
(S105)が挿入されている。計数段階(S103)
と選択段階(S106)には、第2〜8の実施例を用い
ることができる。
FIG. 10 is a flow chart showing an example of the moving picture telop extraction method according to the ninth embodiment. In this embodiment, a merging step (S105) for merging the values of the counting matrix is inserted between the counting step and the selecting step of the first embodiment. Counting stage (S103)
The second to eighth embodiments can be used in the selection step (S106).

【0058】併合段階では、計数マトリックスにガウシ
アンフィルタをかけ、計数マトリックスの値を平滑化
し、頻度の小さい部分を選択されにくくし、近接する頻
度の大きい部分を併合する。
In the merging step, a Gaussian filter is applied to the counting matrix to smooth the values of the counting matrix, making it difficult to select a portion having a low frequency, and merging a portion having a high frequency of proximity.

【0059】この段階は、 M←G* M と表される。ただし、Gはガウシアンフィルタ G(i,j)=(1/2πσ^2)exp(−(i^2
+j^2)/2σ^2). である。
This stage is expressed as M ← G * M. However, G is a Gaussian filter G (i, j) = (1 / 2πσ ^ 2) exp (-(i ^ 2
+ J ^ 2) / 2σ ^ 2). It is.

【0060】なお、併合方法としては、ガウシアンフィ
ルタに限るのではなく、これ以外の平滑方法や領域併合
方法を適用してもよい。
The merging method is not limited to the Gaussian filter, and other smoothing method or area merging method may be applied.

【0061】この実施例では、ばらばらなテロップ領域
を空間的にまとめることができ、領域の過分割の問題を
解決することができるのが利点である。
This embodiment is advantageous in that the disparate telop areas can be spatially put together and the problem of excessive division of areas can be solved.

【0062】図11は、第10の実施例であり、動画像
テロップ抽出方法の一実施例を表すフローチャートであ
る。この実施例は、第1の実施例にテロップ部分に関す
る情報を蓄積する蓄積段階(S116)を追加したもの
であるが、第9の実施例にも同様に適用してもよい。ま
た、計数段階(S113)と選択段階(S115)に
は、第2〜8の実施例を用いることができる。
FIG. 11 is a flow chart showing an example of the moving picture telop extraction method according to the tenth embodiment. In this embodiment, the accumulation step (S116) of accumulating the information on the telop portion is added to the first embodiment, but it may be similarly applied to the ninth embodiment. Also, the second to eighth embodiments can be used in the counting step (S113) and the selecting step (S115).

【0063】蓄積する情報としては、抽出に用いたフレ
ームのインデックス、計数マトリックス、領域マトリッ
クス、投影ヒストグラム、個々のテロップ領域の幅、高
さ、面積、重心の位置など個々のテロップ領域に関する
情報の一つ、または複数を組み合わせた組である。
The information to be accumulated is one of the information about each telop area such as the index of the frame used for extraction, the counting matrix, the area matrix, the projection histogram, the width, height, area of each telop area, and the position of the center of gravity. One or a combination of two or more.

【0064】これらのテロップ部分に関する蓄積情報
は、テロップ部分を用いた動画像の検索や編集、復号化
などの用途に利用することができる。
The accumulated information relating to these telop portions can be used for purposes such as retrieval, editing, and decoding of moving images using telop portions.

【0065】蓄積情報の保存期間は、種々の期間を設定
してもよい。例えば、検索や編集の用途には、動画像と
同等の保存期間を設定することができる。また、動画像
からテロップ部分だけを復号化するのが主な目的であり
長期保存の必要がない場合には、復号に必要最小限な期
間を設定することができる。
Various periods may be set for the storage information storage period. For example, a storage period equivalent to that of a moving image can be set for the purpose of searching or editing. Further, when the main purpose is to decode only the telop portion from the moving image and there is no need for long-term storage, the minimum period necessary for decoding can be set.

【0066】また、同一の領域を占めるテロップが繰り
返し抽出された場合には、蓄積情報量の削減のために重
複するテロップに関する情報を蓄積しないようにしても
よい。
Further, when telops occupying the same area are repeatedly extracted, it is possible not to accumulate the information regarding the overlapping telops in order to reduce the amount of accumulated information.

【0067】図12は第11の実施例であり、動画像テ
ロップ抽出方法の一実施例を表すフローチャートであ
る。この実施例は、第1の実施例に、テロップ部分だけ
を復号化できる復号段階(S125)を追加した実施例
であるが、第9,10の実施例にも同様に適用してもよ
い。また、計数段階(S123)と選択段階(S12
4)には、第2〜8の実施例を用いることができる。
FIG. 12 is an eleventh embodiment and is a flow chart showing an embodiment of the moving picture telop extraction method. This embodiment is an embodiment in which a decoding step (S125) capable of decoding only the telop portion is added to the first embodiment, but it may be similarly applied to the ninth and tenth embodiments. In addition, the counting step (S123) and the selection step (S12)
The second to eighth embodiments can be used in 4).

【0068】この実施例では、フレーム内予測符号化が
用いられている2枚のフレーム間を計数区間とし、テロ
ップ部分を抽出している(S122)。テロップ部分を
復号化するために、区間の後の区切りとなるフレーム内
予測符号化フレームを構成するマクロブロックのうち、
選択段階によって選択されたテロップ部分に該当するマ
クロブロックのみを復号化する。
In this embodiment, the telop portion is extracted by setting the interval between two frames in which the intraframe predictive coding is used as the counting section (S122). In order to decode the telop part, among the macroblocks that make up the intra-frame predictive coding frame that is the delimiter after the section,
Only the macroblock corresponding to the telop part selected in the selection step is decoded.

【0069】なお、ここでは区間の後の区切りとなるフ
レーム内予測符号化フレームを用いてテロップ部分の復
号化を行ったが、区間の前の区切りとなるフレーム内予
測符号化フレームを用いてもよいし、フレーム間予測符
号化フレームを用いてもよい。
Although the telop part is decoded using the intraframe predictive coding frame which is the delimiter after the section, the intraframe predictive coding frame which is the delimiter before the section is also used. Alternatively, an interframe predictive coding frame may be used.

【0070】図13は、本発明の動画像テロップ抽出装
置の一実施例のブロック図である。入力される符号化動
画像データは、フレーム間の相関を利用して符号化され
た動画像データであり、ここではMPEGを想定してい
る。符号化動画像データとしては、ビデオテープや磁気
ディスクなど蓄積メディアに記憶されているデータの他
に、無線または有線による放送、LAN回線や電話回線
を通じて送られてくるデータであってもよい。
FIG. 13 is a block diagram of an embodiment of the moving picture telop extracting apparatus of the present invention. The input encoded moving image data is moving image data encoded by utilizing the correlation between frames, and here MPEG is assumed. The encoded moving image data may be data stored in a storage medium such as a video tape or a magnetic disk, as well as data transmitted by wireless or wired broadcasting, a LAN line or a telephone line.

【0071】まず、フレーム判別部1において、フレー
ム間予測符号化が行われているフレーム(P)と、フレ
ーム内予測符号化が行われているフレーム(I)とを判
別する。Pフレームは計数部2に送られ計数マトリック
ス3が作成される。計数部については後で詳細を説明す
る。計数マトリックスはスイッチによって、併合部4を
通すかどうかを切り替えることができる。スイッチの位
置bでは、併合部4において、第9の実施例の方法にし
たがって、ガウシアンフィルタを使って値を併合する。
選択部5では、閾値との比較結果に基づいて領域マトリ
ックス6が作成される。なお、選択部については後で詳
細に説明する。復号部7では、フレーム判別部1で出力
されたフレーム内予測符号化フレームのうち、領域マト
リックスが1である位置のマクロブロックを復号化し、
テロップ画像として出力する。また、蓄積部7では、選
択部5から出力される領域に関する情報と領域マトリッ
クス6と、復号部7で複号された画像データなどが蓄積
される。
First, the frame discriminating unit 1 discriminates between a frame (P) in which interframe predictive coding is performed and a frame (I) in which intraframe predictive coding is performed. The P frame is sent to the counting section 2 and the counting matrix 3 is created. Details of the counting unit will be described later. The counting matrix can be switched by a switch as to whether or not to pass through the merging unit 4. At the switch position b, the merging unit 4 merges the values using the Gaussian filter according to the method of the ninth embodiment.
The selection unit 5 creates the area matrix 6 based on the result of comparison with the threshold value. The selection unit will be described later in detail. The decoding unit 7 decodes the macroblock at the position where the area matrix is 1 in the intraframe predictive coding frame output from the frame determination unit 1,
Output as a telop image. In addition, the storage unit 7 stores the information about the region output from the selection unit 5, the region matrix 6, the image data decoded by the decoding unit 7, and the like.

【0072】次に、図14を用いて計数部の詳細を説明
する。計数部にはマクロブロックが順に入力される。ま
ず、位置復号部11でマクロブロックの位置を表す符号
だけが復号化され、カウンタの位置情報となる。次に、
符号化判別部12で符号化の種類を判別し、フレーム間
の相関を用い、かつ、動き補償を用いないで符号化され
ている(図中“noMC coded”と書かれてい
る)かが判別される。判別結果はカウンタ13の増減あ
るいはリセット信号として用いられる。スイッチの位置
a,b,cによって、それぞれ、第2,3,4の実施例
の方法を切り替えることができる。最後に、カウンタの
値が計数マトリックスとして出力される。
Next, details of the counting section will be described with reference to FIG. Macro blocks are sequentially input to the counting unit. First, the position decoding unit 11 decodes only the code indicating the position of the macro block, and becomes the position information of the counter. next,
The coding discrimination unit 12 discriminates the type of coding and discriminates whether the coding is performed using the correlation between frames and without using motion compensation (indicated as "noMC coded" in the figure). To be done. The determination result is used as an increase / decrease or reset signal for the counter 13. The methods of the second, third, and fourth embodiments can be switched by the switch positions a, b, and c, respectively. Finally, the counter values are output as a counting matrix.

【0073】次に、図15を用いて選択部5(図13)
の詳細を説明する。選択部5には計数マトリックスが入
力される。スイッチの位置aでは、第5の実施例の方法
にしたがって、計数マトリックスの値と閾値とが比較さ
れ、領域合成部28で領域マトリックスが作成される。
スイッチの位置bでは、第6,7の実施例の方法にした
がうことになる。この場合、横方向投影部22で横方向
に投影され、投影ヒストグラム23が作成される。比較
部4で投影ヒストグラムの値と閾値とが比較される。ス
イッチの位置cは、第6の実施例の方法にしたがい、比
較の結果がすぐ8の領域合成部に送られ、領域マトリッ
クスが作成される。スイッチの位置dでは、第7の実施
例の方法に従って、さらに、縦方向投影部5で縦方向に
投影され、投影ヒストグラム26が作成される。比較部
7で閾値と比較されて、領域合成部28に送られ、領域
マトリックスが作成される。スイッチの位置eでは、領
域合成部28で作成された領域マトリックスがそのまま
出力される。スイッチの位置fでは、第8の実施例にし
たがい、連結領域作成部29によって連結領域30が作
成される。個々の連結領域は比較部31で閾値と比較さ
れ、その結果に基づいて領域合成部32で新たに領域マ
トリックスを作成し、出力する。また、領域に関する情
報も出力され、図13の蓄積部8に送られる。
Next, using FIG. 15, the selection unit 5 (FIG. 13)
Will be described in detail. The counting matrix is input to the selection unit 5. At the switch position a, the value of the counting matrix is compared with the threshold value according to the method of the fifth embodiment, and the area synthesizing unit 28 creates the area matrix.
At the switch position b, the method of the sixth and seventh embodiments is followed. In this case, the horizontal projection unit 22 projects in the horizontal direction to create a projection histogram 23. The comparison unit 4 compares the value of the projection histogram with the threshold value. The position c of the switch is sent to the area synthesizing section 8 immediately after the result of the comparison according to the method of the sixth embodiment, and an area matrix is created. At the switch position d, the vertical projection unit 5 further projects in the vertical direction according to the method of the seventh embodiment to create a projection histogram 26. The comparison unit 7 compares the threshold value with the threshold value, and the result is sent to the region synthesis unit 28 to create a region matrix. At the switch position e, the area matrix created by the area composition unit 28 is output as it is. At the switch position f, the connection area 30 is created by the connection area creating unit 29 according to the eighth embodiment. Each connected region is compared with a threshold value by the comparison unit 31, and based on the result, the region combination unit 32 newly creates a region matrix and outputs it. Information regarding the area is also output and sent to the storage unit 8 in FIG.

【0074】本発明は、上記実施例に限られるわけでは
なく、その要旨を変更しない範囲内で種々に変形して実
施できる。例えば、計数区間をカット点とカット点の間
であるシーンとする、あるいは、一定時間間隔にするな
ど、種々の区間を設定することができる。
The present invention is not limited to the above-described embodiments, but can be variously modified and implemented within the scope of the invention. For example, various sections can be set such that the counting section is a scene between cut points or a fixed time interval.

【0075】また、テロップ部分を復号化した後で、従
来のテロップ抽出方法を用いて、テロップ抽出の精度を
向上させる構成にしてもよい。
Also, after decoding the telop portion, a conventional telop extraction method may be used to improve the accuracy of the telop extraction.

【0076】また、テロップ部分を復号化した後でテロ
ップ中の字幕認識を行う構成にしてもよい。
Further, the subtitle in the telop may be recognized after the telop portion is decoded.

【0077】また、蓄積段階で蓄積する個々のテロップ
部分に関する情報として、個々のテロップ部分について
復号化された原画像データを蓄積してもよい。
Further, the original image data decoded for each telop part may be stored as the information on each telop part accumulated in the accumulating stage.

【0078】また、蓄積段階で蓄積する個々のテロップ
部分に関する情報として、テロップが文字を表す場合に
はテロップを文字認識した結果を蓄積してもよい。
When the telop represents a character, the result of character recognition of the telop may be stored as the information on each telop portion accumulated in the accumulation step.

【0079】[0079]

【発明の効果】以上説明したように本発明は、フレーム
間の相関を利用して符号化された動画像データのテロッ
プ部分を抽出する方法であって、フレーム化の相関を用
い、かつ動き補償を用いないで符号化された画素が時間
的空間的に集中している部分を抽出する抽出段階によっ
て、符号化された動画像データからフレーム画像を復号
化することなくテロップ部分を抽出することができるの
で、符号化された動画像を対象にして、小さい処理コス
トで高速にテロップ部分を抽出することができるという
効果がある。
As described above, the present invention is a method for extracting a telop portion of coded moving image data by utilizing the correlation between frames, which uses the correlation of framing and motion compensation. It is possible to extract the telop portion from the encoded moving image data without decoding the frame image by the extraction step of extracting the portion where the encoded pixels are temporally and spatially concentrated without using Therefore, there is an effect that the telop portion can be extracted at high speed with a small processing cost for the encoded moving image.

【0080】また、符号化された動画像データからフレ
ーム画像を復号化することなく小さい処理コストで高速
にテロップ部分を抽出し、テロップ部分に関する情報を
蓄積することができるので、動画像の内容に基づいた検
索や編集など処理を容易にすることができるという効果
もあり、符号化された動画像データからフレーム画像を
復号化することなくテロップ部分を高速に抽出すること
ができるので、符号化された動画像データからテロップ
部分だけを復号化した画像データを高速に作成すること
ができる効果もある。
Since the telop portion can be extracted at high speed and the information on the telop portion can be accumulated at a low processing cost without decoding the frame image from the encoded moving image data, the content of the moving image can be stored. There is also an effect that it is possible to easily perform processing such as search and edit based on it.Since the telop portion can be extracted at high speed without decoding the frame image from the encoded moving image data, it is encoded. There is also an effect that image data obtained by decoding only the telop portion from the moving image data can be created at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の動画像テロップ抽出方法の第1の実施
例のフローチャートである。
FIG. 1 is a flowchart of a first embodiment of a moving image telop extraction method of the present invention.

【図2】符号化の種類を判別する手順を示す説明図であ
る。
FIG. 2 is an explanatory diagram showing a procedure for determining the type of encoding.

【図3】本発明の動画像テロップ抽出方法の計数段階が
異なる第2の実施例のフローチャートである。
FIG. 3 is a flowchart of a second embodiment in which the counting step of the moving image telop extraction method of the present invention is different.

【図4】本発明の動画像テロップ抽出方法の計数段階が
異なる第3の実施例のフローチャートである。
FIG. 4 is a flowchart of a third embodiment in which the counting step of the moving image telop extraction method of the present invention is different.

【図5】本発明の動画像テロップ抽出方法の計数段階が
異なる第4の実施例のフローチャートである。
FIG. 5 is a flowchart of a fourth embodiment in which the counting step of the moving image telop extraction method of the present invention is different.

【図6】本発明の動画像テロップ抽出方法の選択段階が
異なる第5の実施例のフローチャートである。
FIG. 6 is a flowchart of a fifth embodiment in which the selection step of the moving image telop extraction method of the present invention is different.

【図7】本発明の動画像テロップ抽出方法の選択段階が
異なる第6の実施例のフローチャートである。
FIG. 7 is a flowchart of a sixth embodiment in which the selection step of the moving image telop extraction method of the present invention is different.

【図8】本発明の動画像テロップ抽出方法の選択段階が
異なる第7の実施例のフローチャートである。
FIG. 8 is a flowchart of a seventh embodiment in which the moving image telop extraction method of the present invention has different selection steps.

【図9】本発明の動画像テロップ抽出方法の選択段階が
異なる第8の実施例のフローチャートである。
FIG. 9 is a flowchart of an eighth embodiment in which the selection step of the moving image telop extraction method of the present invention is different.

【図10】本発明の動画像テロップ抽出方法の第9の実
施例のフローチャートである。
FIG. 10 is a flowchart of a ninth embodiment of the moving image telop extraction method of the present invention.

【図11】本発明の動画像テロップ抽出方法の第10の
実施例のフローチャートである。
FIG. 11 is a flowchart of a tenth embodiment of the moving image telop extraction method of the present invention.

【図12】本発明の動画像テロップ抽出方法の第11の
実施例のフローチャートである。
FIG. 12 is a flowchart of an eleventh embodiment of the moving image telop extraction method of the present invention.

【図13】本発明の動画像テロップ抽出装置の一実施例
のブロック図である。
FIG. 13 is a block diagram of an embodiment of a moving image telop extraction device of the present invention.

【図14】図13に示す計数部2の詳細ブロック図であ
る。
14 is a detailed block diagram of the counting unit 2 shown in FIG.

【図15】図13に示す選択部5の詳細ブロック図であ
る。
15 is a detailed block diagram of a selection unit 5 shown in FIG.

【符号の説明】 1 フレーム判別部 2 計数部 3 計数マトリックス 4 ガウシアンフィルタ 5 選択部 6 領域マトリックス 7 復号部 8 蓄積部 11 位置復号部 12 符号化判別部 13 カウンタ 21 比較部 22 横方向投影部 23 投影ヒストグラム 24 比較部 25 縦方向投影部 26 投影ヒストグラム 27 比較部 28 領域合成部 29 連結領域作成部 30 連結領域 31 比較部 32 領域合成部[Explanation of Codes] 1 Frame Discriminating Section 2 Counting Section 3 Counting Matrix 4 Gaussian Filter 5 Selecting Section 6 Area Matrix 7 Decoding Section 8 Accumulating Section 11 Position Decoding Section 12 Encoding Discriminating Section 13 Counter 21 Comparing Section 22 Horizontal Projecting Section 23 Projection histogram 24 Comparison unit 25 Vertical projection unit 26 Projection histogram 27 Comparison unit 28 Region synthesis unit 29 Connected region creation unit 30 Connected region 31 Comparison unit 32 Region synthesis unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 浜田 洋 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────の Continued on the front page (72) Inventor Hiroshi Hamada 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 単位画面を意味するフレーム相互間の相
関を利用して符号化された動画像データの、画面上の字
幕、写真、記号、アイコン等挿入キャラクタを意味する
テロップ部分を抽出する動画像テロップ抽出方法におい
て、 フレーム間の相関を用い、かつ、動き補償を用いないで
符号化された画素が時間的空間的に集中している部分を
抽出する抽出段階を有することを特徴とする動画像テロ
ップ抽出方法。
1. A moving image for extracting a telop portion, which means an inserted character such as subtitles, photographs, symbols, and icons on the screen, of moving image data encoded by utilizing the correlation between frames which means a unit screen. An image telop extraction method, characterized by comprising an extraction step of extracting a portion where pixels coded without using motion compensation and using correlation between frames are concentrated temporally and spatially. Image telop extraction method.
【請求項2】 前記抽出段階が、フレーム間の相関を用
い、かつ、動き補償を用いないで符号化された画素が出
現する頻度を計数する計数段階と、 前記画素出現の頻度と閾値との比較結果に基づいてテロ
ップ部分を選択する選択段階を有する請求項1記載の動
画像テロップ抽出方法。
2. A counting step of counting a frequency of appearance of a pixel coded by using correlation between frames and not using motion compensation in the extracting step, and a frequency of the pixel appearance and a threshold value. The moving image telop extraction method according to claim 1, further comprising a selection step of selecting a telop portion based on a comparison result.
【請求項3】 前記画素出現の頻度ヒストグラムを作成
する投影段階と、 投影ヒストグラムが示す頻度と閾値との比較結果に基づ
いてテロップ部分を選択する選択段階を有する請求項1
記載の動画像テロップ抽出方法。
3. A projection step of creating a frequency histogram of the pixel appearance, and a selection step of selecting a telop portion based on a result of comparison between the frequency indicated by the projection histogram and a threshold value.
The moving image telop extraction method described.
【請求項4】 計数段階後、頻度の空間的な特徴に基づ
いて頻度を併合する併合段階を有する請求項2または3
に記載の動画像テロップ抽出方法。
4. The method according to claim 2, further comprising, after the counting step, a merging step of merging frequencies based on spatial characteristics of the frequencies.
The moving image telop extraction method described in.
【請求項5】 前記動画像から抽出されたテロップ部分
を蓄積する蓄積段階を有する請求項2乃至4のいずれか
1項に記載の動画像テロップ抽出方法。
5. The moving image telop extraction method according to claim 2, further comprising a storage step of storing a telop portion extracted from the moving image.
【請求項6】 前記動画像から抽出されたテロップ部分
だけを復号化できる復号段階を有する請求項2乃至5の
いずれか1項に記載の動画像テロップ抽出方法。
6. The moving image telop extraction method according to claim 2, further comprising a decoding step capable of decoding only a telop portion extracted from the moving image.
【請求項7】 前記計数段階が、フレーム間の相関を用
い、かつ、動き補償を用いないで符号化された画素に対
してのみ1を付与し、その後、選択する請求項2記載の
動画像テロップ抽出方法。
7. The moving image according to claim 2, wherein the counting step assigns 1 only to a pixel coded with correlation between frames and without motion compensation, and then selects. Telop extraction method.
【請求項8】 前記計数段階が、フレーム間の相関を用
い、かつ、動き補償を用いないで符号化された画素に対
して1を付与し、他の画素には−1を付与し、その後、
選択する請求項2記載の動画像テロップ抽出方法。
8. The counting step assigns 1 to pixels coded with correlation between frames and without motion compensation, and -1 to other pixels, and then ,
The moving picture telop extraction method according to claim 2, wherein the moving picture telop is selected.
【請求項9】 前記フレーム間の相関を用い、かつ、
動き補償を用いないで符号化された画素に対して1を付
与し、他には0を付与して、その後、選択する請求項2
記載の動画像テロップ抽出方法。
9. Using correlation between the frames, and
3. A pixel which is encoded without using motion compensation is provided with 1 and 0 is provided with respect to the other pixels, and then selected.
The moving image telop extraction method described.
【請求項10】 前記選択段階が、同一画素に付与した
数値の合計値を計測回数で除算した数値と閾値とを比較
して閾値より大きい画素を選択する、請求項2記載の動
画像テロップ抽出方法。
10. The moving image telop extraction according to claim 2, wherein the selecting step compares a numerical value obtained by dividing a total value of numerical values given to the same pixel by the number of times of measurement with a threshold value and selects a pixel larger than the threshold value. Method.
【請求項11】 前記ヒストグラムを方向別、区間別に
閾値より大きい部分を選出して1とし、全範囲に亙って
比較し、選択する請求項3記載の動画像テロップ抽出方
法。
11. The moving image telop extraction method according to claim 3, wherein a portion larger than a threshold value is selected for each direction and section of the histogram and set to 1, and the whole range is compared and selected.
【請求項12】 前記フレーム間の相関を用い、かつ、
動き補償を用いないで符号化された各画素に付与した数
値の合計値にガウシアンフィルタをかけて平滑化し、頻
度の低い部分を選択され難くし、近接する頻度の高い部
分を併合する併合段階を有する請求項4記載の動画像テ
ロップ抽出方法。
12. Using correlation between the frames, and
Gaussian filter is used to smooth the sum of the numerical values assigned to each pixel coded without motion compensation, making it difficult to select infrequent parts, and merging steps that merge frequently adjacent parts. 5. The moving picture telop extraction method according to claim 4.
【請求項13】 単位画面を意味するフレーム相互間の
相関を利用して符号化された動画像データの、画面上の
字幕、写真、記号、アイコン等挿入キャラクタを意味す
るテロップ部分を抽出する動画像テロップ抽出装置にお
いて、 フレーム間の相関を用い、かつ、動き補償を用いないで
符号化された画素が時間的空間的に集中している部分を
抽出する抽出部を有することを特徴とする動画像テロッ
プ抽出装置。
13. A moving image for extracting a telop portion which means an inserted character such as a subtitle, a photograph, a symbol, an icon on the screen of moving image data encoded by utilizing the correlation between frames which means a unit screen. An image telop extraction apparatus, characterized by having an extraction unit for extracting a portion in which pixels coded without using motion compensation using correlation between frames are temporally and spatially concentrated. Image telop extractor.
【請求項14】 フレーム間符号化が行われたフレーム
か、フレーム内符号化が行われたフレームかを判別する
フレーム判別部と、フレーム間符号化が行われたフレー
ムの符号化動画像データを所定平面に投影して計数マト
リックスを作成する計数部と、ガウシアンフィルタを選
択的に接続するスイッチと、前記計数マトリックスを閾
値と比較し、閾値より大きい画素部分を所定平面上に表
示する領域マトリックスを作成する比較部と、前記領域
マトリックスを用いて符号化動画像を復号化してテロッ
プ画像を出力する復号部と、領域マトリックスおよび復
号部で復号化された画像データが蓄積される蓄積部とを
有する請求項13記載の動画像テロップ抽出装置。
14. A frame discrimination unit for discriminating between a frame subjected to inter-frame coding and a frame subjected to intra-frame coding, and encoded moving image data of the frame subjected to inter-frame coding. A counting unit that projects a count matrix by projecting onto a predetermined plane, a switch that selectively connects a Gaussian filter, a count matrix that compares the count matrix with a threshold value, and an area matrix that displays pixel portions larger than the threshold value on the predetermined plane. A comparison unit to be created, a decoding unit for decoding the encoded moving image using the area matrix and outputting a telop image, and a storage unit for storing the area matrix and the image data decoded by the decoding unit The moving picture telop extraction device according to claim 13.
【請求項15】 前記計数部が、入力された単位画素部
分であるマクロブロックの位置を示す符号のみを復号化
して位置情報とする位置復号部と、フレーム間の相関を
用い、かつ、動き補償を用いないで符号化された画素で
あるか否かを判別する符号化判別部と、フレーム間の相
関を用い、かつ、動き補償を用いないで符号化された画
素データに対して1を付与し、他の画素に対して何もし
ないか、−1の付与か、あるいはリセットを選択的に行
って計数マトリックスを出力するカウンタとを有する請
求項14記載の動画像テロップ抽出装置。
15. A position decoding unit, wherein the counting unit decodes only a code indicating a position of a macroblock which is an input unit pixel portion to obtain position information, and uses a correlation between frames, and performs motion compensation. And a coding determination unit that determines whether or not the pixel is a coded pixel, and 1 is assigned to the pixel data that is coded using the correlation between frames and without motion compensation. 15. The moving picture telop extraction device according to claim 14, further comprising: a counter that outputs nothing to other pixels, adds -1, or resets them selectively to output a counting matrix.
【請求項16】 前記選択部が、前記計数マトリックス
が入力されると、 計数マトリックスと閾値と比較しその結果を出力する第
1の比較部と、 横方向投影を行い横方向の投影ヒストグラムを作成する
横方向投影部と、 横方向の投影ヒストグラムと閾値とを比較する第2の比
較部と、 さらに、縦方向の投影を行い縦方向の投影ヒストグラム
を作成する縦方向投影部と、 縦方向ヒストグラムと閾値とを比較する第3の比較部
と、 各比較部からの出力閾値より大きい画素を記録して領域
マトリックスを作成する領域合成部と、 連結領域を作成する連結領域作成部と、該連結領域毎の
画素データを閾値と比較する第4の比較部と、該比較結
果から領域マトリックスを作成する第2の領域合成部を
有する請求項14記載の動画像テロップ抽出装置。
16. The selection unit, when the count matrix is input, compares the count matrix with a threshold value and outputs the result, and a horizontal projection to generate a horizontal projection histogram. A horizontal projection unit, a second comparison unit that compares the horizontal projection histogram with a threshold value, a vertical projection unit that performs vertical projection to create a vertical projection histogram, and a vertical histogram And a threshold value, a third comparing unit, a region synthesizing unit that records a pixel larger than the output threshold value from each comparing unit to create a region matrix, a connected region creating unit that creates a connected region, and the connected region 15. The moving image telop extraction device according to claim 14, further comprising a fourth comparing unit that compares pixel data for each region with a threshold value, and a second region combining unit that creates a region matrix from the comparison result.
JP13189896A 1996-05-27 1996-05-27 Method and device for extracting time-varying image telop Pending JPH09322173A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP13189896A JPH09322173A (en) 1996-05-27 1996-05-27 Method and device for extracting time-varying image telop
MYPI97002288A MY119560A (en) 1996-05-27 1997-05-26 Scheme for detecting captions in coded video data without decoding coded video data
US08/863,840 US6243419B1 (en) 1996-05-27 1997-05-27 Scheme for detecting captions in coded video data without decoding coded video data
KR1019970020966A KR100272090B1 (en) 1996-05-27 1997-05-27 Method and apparatus for detecting caption in video data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13189896A JPH09322173A (en) 1996-05-27 1996-05-27 Method and device for extracting time-varying image telop

Publications (1)

Publication Number Publication Date
JPH09322173A true JPH09322173A (en) 1997-12-12

Family

ID=15068748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13189896A Pending JPH09322173A (en) 1996-05-27 1996-05-27 Method and device for extracting time-varying image telop

Country Status (1)

Country Link
JP (1) JPH09322173A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112837A (en) * 1996-10-07 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video index generation displaying method and device therefor
JPH10112834A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video retrieving method and device therefor
JP2002536927A (en) * 1999-02-05 2002-10-29 サムスン エレクトロニクス カンパニー リミテッド Digital image processing method and apparatus
WO2006018970A1 (en) * 2004-08-19 2006-02-23 Pioneer Corporation Telop detecting method, telop detecting program, and telop detecting device
EP1918851A2 (en) 2006-11-01 2008-05-07 Hitachi, Ltd. Video player
US7526027B2 (en) 2002-04-16 2009-04-28 Mitsubishi Denki Kabushiki Kaisha Video data converter and video data converting method
US7656951B2 (en) 1999-02-05 2010-02-02 Samsung Electronics Co., Ltd. Digital video processing method and apparatus thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112834A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video retrieving method and device therefor
JPH10112837A (en) * 1996-10-07 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video index generation displaying method and device therefor
JP2002536927A (en) * 1999-02-05 2002-10-29 サムスン エレクトロニクス カンパニー リミテッド Digital image processing method and apparatus
US7656951B2 (en) 1999-02-05 2010-02-02 Samsung Electronics Co., Ltd. Digital video processing method and apparatus thereof
US7526027B2 (en) 2002-04-16 2009-04-28 Mitsubishi Denki Kabushiki Kaisha Video data converter and video data converting method
WO2006018970A1 (en) * 2004-08-19 2006-02-23 Pioneer Corporation Telop detecting method, telop detecting program, and telop detecting device
JPWO2006018970A1 (en) * 2004-08-19 2008-05-08 パイオニア株式会社 Telop detection method, telop detection program, and telop detection device
JP4700002B2 (en) * 2004-08-19 2011-06-15 パイオニア株式会社 Telop detection method, telop detection program, and telop detection device
US8126055B2 (en) 2004-08-19 2012-02-28 Pioneer Corporation Telop detecting method, telop detecting program, and telop detecting device
EP1918851A2 (en) 2006-11-01 2008-05-07 Hitachi, Ltd. Video player

Similar Documents

Publication Publication Date Title
JP4666784B2 (en) Video sequence key frame extraction method and video sequence key frame extraction device
KR100272090B1 (en) Method and apparatus for detecting caption in video data
KR100636910B1 (en) Video Search System
US7469010B2 (en) Extracting key frames from a video sequence
JP3738939B2 (en) Moving image cut point detection device
EP1040429B1 (en) Method for hierarchical summarization and browsing of digital video
US6700999B1 (en) System, method, and apparatus for multiple face tracking
JP4377887B2 (en) Video dividing device
JP2006510072A (en) Method and system for detecting uniform color segments
CN110830787B (en) Method and device for detecting screen-patterned image
JP2010503006A (en) Method and apparatus for adaptive video presentation
JPH10257436A (en) Automatic hierarchical structuring method for moving image and browsing method using the same
JP4637180B2 (en) Video processing apparatus and video processing method
JP2008278467A (en) Image processing apparatus, and image processing method
KR101281850B1 (en) Video descriptor generator
JP5503507B2 (en) Character area detection apparatus and program thereof
JPH09322173A (en) Method and device for extracting time-varying image telop
US20090180670A1 (en) Blocker image identification apparatus and method
Kopf et al. FSCAV: Fast seam carving for size adaptation of videos
KR20020007915A (en) An wipe and special effect detection method for MPEG-Compressed video using spatio-temporal distribution of the macro blocks
JP3379453B2 (en) Caption region detection method and device, and moving image search method and device
JPH118854A (en) Cut point detection method and device therefor
KR100558383B1 (en) Method for detecting a motion block and method for tracking a moving object based on the method for detecting motion block
CN103763501A (en) Self-adaptive video de-interlacing algorithm and device thereof
JP3503797B2 (en) Video telop detection method and apparatus