JP2002064748A - Telop area detector in moving image - Google Patents

Telop area detector in moving image

Info

Publication number
JP2002064748A
JP2002064748A JP2000248794A JP2000248794A JP2002064748A JP 2002064748 A JP2002064748 A JP 2002064748A JP 2000248794 A JP2000248794 A JP 2000248794A JP 2000248794 A JP2000248794 A JP 2000248794A JP 2002064748 A JP2002064748 A JP 2002064748A
Authority
JP
Japan
Prior art keywords
telop
telop area
detecting
frame
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000248794A
Other languages
Japanese (ja)
Other versions
JP4349542B2 (en
Inventor
Haruhisa Kato
晴久 加藤
Yasuyuki Nakajima
康之 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2000248794A priority Critical patent/JP4349542B2/en
Publication of JP2002064748A publication Critical patent/JP2002064748A/en
Application granted granted Critical
Publication of JP4349542B2 publication Critical patent/JP4349542B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a telop area detector that can detect the appearance of a telop at a high-speed with high accuracy from compressed coded data themselves or information decoding only part of the coded data and extract a telop position in a frame. SOLUTION: A variable length decoding section 1 partially decodes only required information from coded data, and decoded information sets A, B, C are respectively fed to a time transition decision section 2, a telop position deciding section 3, and an appeared frame decision section 4. The time transition decision section 2 sets an area to be a telop area object on an I image. The telop position decision section 3 extracts a block, having a coded mode corresponding to the telop from the image. The appeared frame decision section 4 conducts frame decision processing denoting from which frame the telop appears.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は動画像内のテロッ
プ領域検出装置に関し、特に、圧縮符号化データそのも
のまたはその一部だけを復号した情報から、高速かつ高
精度にテロップ領域を抽出できる動画像内のテロップ領
域検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting a telop region in a moving image, and more particularly to a moving image capable of extracting a telop region with high speed and high accuracy from information obtained by decoding compressed encoded data itself or only a part thereof. And a telop area detection device.

【0002】[0002]

【従来の技術】従来のテロップ領域を検出する方式(以
下、第1の検出方式)、特にニュース映像からのテロッ
プ検出方式として、時間的な輝度分布差分値をテロップ
の検出判定に使用する方式がある。また、出現位置の局
所性、規則的な配置などの幾何的な性質からテロップを
求める方式、エッジ分布の偏向や色の類似性など文字と
しての特徴量からテロップを求める方式が報告されてい
る。さらに、これら特徴量を解析する方法として、ニュ
ーラルネットワークや遺伝アルゴリズムを取り入れたテ
ロップ領域検出方法などが提案されている。これらの方
式は、動画像における各画素の輝度値を対象に様々なア
ルゴリズムを適用してテロップ領域を抽出する方式であ
る。
2. Description of the Related Art As a conventional method of detecting a telop area (hereinafter, referred to as a first detection method), particularly a method of detecting a telop from a news video, a method of using a temporal luminance distribution difference value to determine telop detection is used. is there. In addition, a method of obtaining a telop from geometrical properties such as locality of an appearance position and a regular arrangement, and a method of obtaining a telop from character feature amounts such as edge distribution deflection and color similarity have been reported. Further, as a method of analyzing these feature amounts, a telop region detection method incorporating a neural network or a genetic algorithm has been proposed. In these methods, a telop area is extracted by applying various algorithms to the luminance value of each pixel in a moving image.

【0003】また、他のテロップ検出方式では画素その
ものを利用するのではなく、圧縮符号化された動画像の
符号化データそのものを利用する方式が提案されてい
る。この方式は圧縮の際に求められる各種のパラメータ
や符号化データを直接操作することでテロップ領域の検
出処理を達成する。
In another telop detection system, there has been proposed a system in which coded data of a moving image which has been compression-encoded is used instead of using pixels themselves. This method achieves a telop area detection process by directly operating various parameters and encoded data required at the time of compression.

【0004】従来の動き予測誤差の時間的変化に注目し
た方式(以下、第2の検出方式)は、画像内の符号単位
ブロックについて動き予測情報の時間変動を観測し、テ
ロップの瞬時的な出現を検出する。必要最小限の情報の
みを取捨選択しテロップ領域の抽出を行う。このため、
抽出される解像度は動き予測情報を持つ各圧縮方式の符
号化単位ブロックの大きさに設定される。
A conventional method (hereinafter, referred to as a second detection method) that focuses on a temporal change of a motion prediction error observes a temporal variation of motion prediction information for a code unit block in an image, and instantaneously generates a telop. Is detected. Only the necessary minimum information is selected and the telop area is extracted. For this reason,
The extracted resolution is set to the size of the coding unit block of each compression method having motion prediction information.

【0005】さらに、符号単位ブロックの符号化モード
に着目した方式(以下、第3の検出方式)は、静止した
テロップの特徴と符号化モードの相関から、符号化モー
ドに応じて計数カウンタを増減させる。閾値以上の領域
をテロップ領域候補と認識し、更に形状判断すること
で、テロップとして抽出する。なお、該第3の検出方式
を開示した文献として、例えば、電子情報通信学会論文
誌 D-II, Vol.J81-D-IINo.8,PP1847-1855,1998 年8 月
「MPEG符号化映像からの高速テロップ領域検出法」
がある。
[0005] Further, a method focusing on the coding mode of a code unit block (hereinafter, a third detection method) is based on the correlation between the characteristics of a stationary telop and the coding mode, and increases or decreases the count counter in accordance with the coding mode. Let it. An area having a threshold value or more is recognized as a telop area candidate, and the shape is determined to extract a telop. References disclosing the third detection method include, for example, IEICE Transactions D-II, Vol.J81-D-IINo.8, PP1847-1855, August 1998, “MPEG Fast Telop Region Detection Method "
There is.

【0006】[0006]

【発明が解決しようとする課題】前記第1の検出方式を
圧縮符号化された動画像データに適用するには、符号化
データを一旦復号する必要があり、圧縮符号化データを
画素領域の情報に戻さねばテロップ検出処理を適用でき
ない。よって、第1の検出方式は、例えば図10のブロ
ック図で示される構成により実現される。
In order to apply the first detection method to moving image data that has been compression-encoded, it is necessary to decode the encoded data once, and the compression-encoded data is converted to the information of the pixel area. The telop detection process cannot be applied unless it is returned to. Therefore, the first detection method is realized by, for example, the configuration shown in the block diagram of FIG.

【0007】図10の可変長復号部51は圧縮された画
像符号化データを入力とし、可変長復号、逆量子化や係
数範囲制限等の復号処理を行う。可変長復号部51から
は復号されたフレームやブロックの符号化モード情報、
動き予測情報、動き予測誤差情報等が出力される。画像
生成部52の入力は可変長復号部51からの予測誤差情
報であり、逆変換を経て1フレームの画像データを生成
する。また、動き補償部52は動き予測の参照フレーム
を保持している画像メモリ53から動き予測情報を使っ
てブロックを抽出し、完全な1フレームを構成するため
に画像生成部52の出力画像データと加算する。この画
像はテロップ検出部54へ入力されるとともに、次フレ
ーム以降の参照画像となるフレームならば画像メモリ5
3に蓄積される。これら一連の復号処理の後、テロップ
検出部54にて、初めて画素領域でのテロップ領域検出
処理が施される。テロップ検出部54による検出結果
は、画像表示部55に送られる。
[0007] The variable length decoding unit 51 shown in FIG. 10 receives compressed image coded data as input and performs variable length decoding, decoding such as inverse quantization and coefficient range limitation. The encoding mode information of the decoded frame or block from the variable length decoding unit 51,
Motion prediction information, motion prediction error information, and the like are output. The input of the image generation unit 52 is prediction error information from the variable length decoding unit 51, and generates image data of one frame through inverse transformation. Further, the motion compensating unit 52 extracts a block from the image memory 53 holding a reference frame for motion prediction using the motion prediction information, and outputs the block with the output image data of the image generating unit 52 to form one complete frame. to add. This image is input to the telop detection unit 54, and if the frame is a reference image for the next frame and subsequent frames, the image memory 5
3 is stored. After these series of decoding processes, the telop detection unit 54 performs the telop region detection process in the pixel region for the first time. The detection result by the telop detection unit 54 is sent to the image display unit 55.

【0008】この第1の検出方式では、圧縮データの復
号処理および復号された画像を用いたテロップ領域検出
処理に、大きな計算コストがかかるという問題がある。
In the first detection method, there is a problem that a large calculation cost is required for the decoding processing of the compressed data and the telop area detection processing using the decoded image.

【0009】一方、前記第2、第3の検出方式は圧縮符
号化データそのものを利用するので、復号処理過程が省
略でき検出処理も高速に実行できる。しかし、実際の動
画像では、パン、チルトなどのカメラワークや、ワイ
プ、ディゾルブなどの撮影後に編集された映像効果など
の要因によって、動き予測誤差情報の変化が激しくな
り、テロップの出現との判別が難しい。特にシーンチェ
ンジにおいてはこの影響が大きく、第2の検出方式では
シーンチェンジ後のフレームをテロップ領域と誤認識す
るなど、検出精度が劣るという問題がある。
On the other hand, since the second and third detection methods use the compressed and coded data itself, the decoding process can be omitted and the detection process can be executed at high speed. However, in actual moving images, the motion prediction error information changes greatly due to factors such as camera work such as pan and tilt and video effects edited after shooting such as wipe and dissolve, and it is determined that a telop appears. Is difficult. In particular, this effect is significant in a scene change, and the second detection method has a problem that the detection accuracy is poor, such as a frame after the scene change is erroneously recognized as a telop area.

【0010】また、第3の検出方式はテロップ領域外に
動きベクトルが多数存在する場合に検出率が高くなる特
性を持つ。しかし、低解像度の映像では動きベクトルが
相対的に小さくなり、符号化モードの分布も異なってく
る。また、ニュース映像等はカメラが固定されている場
合が多く、背景に動きベクトルが存在しないような場
合、テロップ以外の領域をテロップ領域と誤検出する恐
れがある。
The third detection method has a characteristic that the detection rate is increased when a large number of motion vectors exist outside the telop area. However, in a low-resolution video, the motion vector becomes relatively small, and the distribution of the encoding modes differs. In addition, a news video or the like often has a fixed camera, and when there is no motion vector in the background, an area other than a telop may be erroneously detected as a telop area.

【0011】本発明の目的は、前述した従来技術の問題
点を解消し、圧縮された符号化データそのもの、または
その一部だけを復号した情報からテロップの出現を高速
かつ高精度に検出できるテロップ領域検出装置、および
フレーム内でのテロップ位置を抽出できるテロップ領域
検出装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems of the prior art, and to quickly and accurately detect the appearance of a telop from compressed coded data itself or information obtained by decoding only a part of the coded data. An object of the present invention is to provide a region detecting device and a telop region detecting device capable of extracting a telop position in a frame.

【0012】[0012]

【課題を解決するための手段】前述の目的を達成するた
めに、本発明は、圧縮された動画像のデータを入力と
し、該動画像のデータにテロップ領域情報を付加して出
力する動画像内のテロップ領域検出装置において、動き
予測誤差情報の時間的変化からテロップの出現を検知す
る時間変移判定部と、符号化モード情報の種類を基にテ
ロップの位置を抽出するテロップ位置判定部と、動き予
測情報の参照方向の遷移からテロップの出現フレームを
検出する出現フレーム判定部とを具備した点に特徴があ
る。
SUMMARY OF THE INVENTION In order to achieve the above-mentioned object, the present invention provides a moving image which receives compressed moving image data as input, adds telop area information to the moving image data, and outputs the moving image data. In the telop area detection device within, a time change determination unit that detects the appearance of the telop from the temporal change of the motion prediction error information, a telop position determination unit that extracts the position of the telop based on the type of encoding mode information, The feature is that an appearance frame determination unit that detects an appearance frame of a telop from a transition of the reference direction of the motion prediction information is provided.

【0013】この特徴によれば、テロップ領域の検出過
程を段階的にしたので、高速なテロップ領域検出処理を
行うことができるようになる。また、テロップ領域の検
出に、動き予測誤差情報の時間的変化、符号化モード情
報の種類、および動き予測情報の参照方向の遷移を用い
たので、高精度なテロップ領域検出処理を行うことがで
きるようになる。
According to this feature, the process of detecting the telop area is made stepwise, so that the telop area can be detected at a high speed. In addition, since the temporal change of the motion prediction error information, the type of the encoding mode information, and the transition of the reference direction of the motion prediction information are used to detect the telop region, highly accurate telop region detection processing can be performed. Become like

【0014】[0014]

【発明の実施の形態】以下に、本発明を、図面を参照し
て説明する。図1に本発明の一実施形態の構成を示すブ
ロック図を表す。なお、この実施形態は入力動画像の符
号化方式に国際標準であるMPEG-1ビデオ(ISO/IEC11172-
2)を使用しているが、本発明はこれに限定されるもので
はない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention. Note that this embodiment adopts an international standard of MPEG-1 video (ISO / IEC11172-
Although 2) is used, the present invention is not limited to this.

【0015】システム全体の入力として、圧縮符号化さ
れた動画像の符号化データが与えられる。符号化データ
は可変長復号部1により必要な情報だけが部分的に復号
され、該復号された情報A,B,Cは、それぞれ時間変
移判定部2、テロップ位置判定部3、および出現フレー
ム判定部4に送られる。ここに、前記情報Aは、(n−
N)フレーム〜(n+mN)フレーム間のフレーム内符
号化画像(Iピクチャ)の符号化情報、Bは、nフレー
ム〜(n+mN)フレーム間のP、Bピクチャの符号化
モード情報、Cは、(n−N)フレーム〜nフレーム間
のBピクチャの動き予測情報である。ここで、定数Nは
GOP内のピクチャ数を表し、フレーム内符号化画像の
出現間隔を意味するパラメータである。また、n,mは
任意の正の整数である。
[0015] Encoded data of a compression-encoded moving image is provided as an input to the entire system. Only the necessary information is partially decoded from the coded data by the variable-length decoding unit 1, and the decoded information A, B, and C are used as a time shift determining unit 2, a telop position determining unit 3, and an appearance frame determining unit, respectively. Sent to the section 4. Here, the information A is (n−
N) The coding information of the intra-frame coded image (I picture) between the frame and the (n + mN) frame, B is the coding mode information of the P and B pictures between the n frame and the (n + mN) frame, and C is ( (n-N) motion prediction information of a B picture between a frame and an n-th frame. Here, the constant N represents the number of pictures in the GOP, and is a parameter indicating the appearance interval of the intra-frame coded image. Further, n and m are arbitrary positive integers.

【0016】時間変移判定部2は複数のフレーム内符号
化画像の符号化情報Aをもとに時間的推移の状態を検討
する。そして、該検討の上で、テロップ領域候補となる
領域をIピクチャ上で設定し、この領域の位置情報Dを
テロップ位置判定部3へ出力する。
The time transition judging section 2 examines the state of temporal transition based on the coded information A of a plurality of intra-frame coded images. Then, based on the examination, an area that is a telop area candidate is set on the I picture, and the position information D of this area is output to the telop position determination unit 3.

【0017】テロップ位置判定部3では、時間変移判定
部2からの位置情報Dをもとにテロップ判定対象のブロ
ックを決定する。同時に、可変長復号部1からは対象ブ
ロックの符号化モード情報Bを入力し、判定対象ブロッ
ク毎に符号化モードの選定状況を把握する。これらの結
果を基に、テロップに相応しい符号化モードを持つブロ
ックをIピクチャ上から抜き出し、そのブロックの位置
情報Eを出現フレーム判定部4へ送る。
The telop position determination unit 3 determines a telop determination target block based on the position information D from the time transition determination unit 2. At the same time, the coding mode information B of the target block is input from the variable length decoding unit 1, and the selection status of the coding mode is grasped for each determination target block. Based on these results, a block having a coding mode suitable for the telop is extracted from the I picture, and the position information E of the block is sent to the appearance frame determination unit 4.

【0018】出現フレーム判定部4ではテロップ位置判
定部3から入力されたブロックの位置情報Eをもとに検
出対象ブロックを決定し、同時に可変長復号部1から動
き予測情報Cを受け取る。動き予測情報Cをもとに、ど
のフレームからテロップが出現したかのフレーム判定処
理を行う。
The appearance frame determination unit 4 determines a detection target block based on the position information E of the block input from the telop position determination unit 3, and simultaneously receives the motion prediction information C from the variable length decoding unit 1. Based on the motion prediction information C, frame determination processing is performed to determine from which frame the telop appears.

【0019】この判定結果Fは、検出結果表示部または
記録部(図示されていない)へ出力される。検出結果表
示部または記録部は検出結果を出力し、要求があれば抽
出領域の映像を部分的に復号し提示する。
The determination result F is output to a detection result display unit or a recording unit (not shown). The detection result display unit or the recording unit outputs the detection result and, if requested, partially decodes and presents the video of the extraction area.

【0020】次に、前記時間変移判定部2の機能を、図
2のフローチャートを参照して、詳細に説明する。時間
変移判定部2は4つの処理を行う。この4つの処理は、
ステップS1のライン変動判定処理と、ステップS2の
ブロック変動判定処理と、ステップS3の収束判定処理
と、ステップS4の形状整形処理である。
Next, the function of the time transition judging section 2 will be described in detail with reference to the flowchart of FIG. The time change determination unit 2 performs four processes. These four processes are
These are a line variation determination process in step S1, a block variation determination process in step S2, a convergence determination process in step S3, and a shape shaping process in step S4.

【0021】前記ライン変動判定処理(ステップS1)
は、入力してくる2つのフレーム内(Intra) 符号化画像
In-N 、In の符号化データに対して処理を行う。ここ
で、定数NはGOP内のピクチャ数を表し、フレーム内
符号化画像の出現間隔を意味するパラメータである。ラ
イン変動判定処理は、時間経過によって変化が生じた領
域をブロックの1ライン単位で抽出する。ステップS1
の処理で変動領域と判定された領域の位置情報は、ステ
ップS2のブロック変動判定処理の入力となる。該ブロ
ック変動判定処理ではブロック単位で変動領域を判定
し、該抽出ブロックはステップS3の収束判定処理に送
られる。
The line fluctuation determination processing (step S1)
Performs processing on coded data of two input (Intra) coded images In-N and In. Here, the constant N represents the number of pictures in the GOP, and is a parameter indicating the appearance interval of the intra-frame coded image. In the line variation determination process, an area where a change has occurred with the passage of time is extracted for each line of a block. Step S1
The position information of the area determined to be a fluctuation area in the processing of (1) is input to the block fluctuation determination processing in step S2. In the block variation determination process, a variation region is determined in block units, and the extracted block is sent to the convergence determination process in step S3.

【0022】該収束判定処理は、指定された領域に対し
て、In 以降のフレームIn+mN(0<m<q)全てにお
いて変化が収束する領域を抽出し、該領域をテロップ領
域候補とする。ここで、定数qは収束判定対象となるフ
レーム数を表し、1以上の値を取る。ステップS4の形
状整形処理はテロップ領域候補を受け取り、テロップの
大きさを考慮して孤立した小領域を排除する。次に膨張
収縮処理にてテロップ領域候補の欠損部を補い、次以降
の判定処理のためテロップ領域候補を整形する。以上
で、前記時間変移判定部2の処理は終了する。
In the convergence determination processing, a region where the change converges in all frames In + mN (0 <m <q) after In with respect to the designated region is extracted, and the region is set as a telop region candidate. . Here, the constant q represents the number of frames for which convergence is to be determined, and takes a value of 1 or more. The shape shaping process in step S4 receives a telop area candidate and eliminates isolated small areas in consideration of the telop size. Next, the missing portion of the telop area candidate is compensated by the expansion / contraction processing, and the telop area candidate is shaped for the next and subsequent determination processing. With the above, the processing of the time change determination unit 2 ends.

【0023】該時間変移判定部2は、現在のフレーム内
符号化画像と一つ前のフレーム内符号化画像との比較に
よって変化が認められた領域に着目して、その領域のみ
未来のフレーム内符号化画像において変化が収束するか
否かを検討する。具体的な時間変化の発生判定には、D
CT係数のDC成分とAC成分を個別に判定基準として
用いる。
The time transition determination unit 2 focuses on a region in which a change has been recognized by comparing the current intra-frame coded image with the immediately preceding intra-frame coded image, and only that region is included in the future frame. Consider whether the change converges in the encoded image. To determine the occurrence of a specific time change, D
The DC component and the AC component of the CT coefficient are individually used as criteria.

【0024】以下に、前記ステップS1〜S3の処理
を、図3〜図5を参照して、より詳細に説明する。
Hereinafter, the processing in steps S1 to S3 will be described in more detail with reference to FIGS.

【0025】まず、図3を参照して、前記図2のステッ
プS1のライン変動判定処理を説明する。図3(a) は、
DC成分によるライン変動判定処理の詳細を示すフロー
チャートである。ライン変動判定処理には、フレームI
n と1GOP前のフレームIn-N のDCT係数DC成分
情報が入力される。初めにテロップは画面に対して水平
または垂直に現れると仮定して、DC成分はステップS
10の処理にて縦横それぞれ1ライン単位で読み込まれ
る。例えば、図3(b) に示されているように、フレーム
In と1GOP前のフレームIn-N の各ブロックのDC
T係数のDC成分が縦横1ライン単位で読み込まれる。
First, with reference to FIG. 3, a description will be given of the line fluctuation determination processing in step S1 of FIG. FIG. 3 (a)
It is a flowchart which shows the detail of the line fluctuation determination processing by a DC component. In the line fluctuation determination processing, the frame I
n and DCT coefficient DC component information of the frame In-N one GOP before are input. First, assuming that the telop appears horizontally or vertically with respect to the screen, the DC component is
In step 10, the data is read in units of one line each in the vertical and horizontal directions. For example, as shown in FIG. 3B, the DC of each block of the frame In and the frame In-N one GOP before is shown.
The DC component of the T coefficient is read for each vertical and horizontal line.

【0026】ステップS11では、該DC成分の大まか
な変化を捉えるため、粗く量子化した輝度ヒストグラム
を生成する。ステップS12では、過去のフレームIn-
N において同位置ラインのヒストグラムとの差分絶対値
和を求める。ステップS13では、閾値による判定を行
い、閾値以上の差分値を持つラインはステップS14で
1ライン全体をテロップ領域候補とする。そうでなけれ
ば、ステップS15で1ライン全体を非テロップ領域と
する。
In step S11, a coarsely quantized luminance histogram is generated in order to capture a rough change in the DC component. In step S12, the past frame In-
In N, the sum of absolute differences between the histogram of the same position line and the histogram is obtained. In step S13, a determination is made based on a threshold value, and in the line having a difference value equal to or greater than the threshold value, one line is determined as a telop area candidate in step S14. Otherwise, the entire one line is set as a non-telop area in step S15.

【0027】ステップS16ではライン毎の処理が全ブ
ロックについて全て終了したか否かを判断し、終了して
いなければステップS10に戻り、次のラインについて
ステップS10〜S15の一連の処理を繰り返す。ステ
ップS16の判断が肯定の場合には、ステップS17に
移る。
In step S16, it is determined whether or not processing for each line has been completed for all blocks. If not, the process returns to step S10, and a series of processing in steps S10 to S15 is repeated for the next line. If the determination in step S16 is affirmative, the process proceeds to step S17.

【0028】ステップS17はテロップ領域候補となっ
たラインの本数を計数し、テロップ領域候補がフレーム
の大部分を占める場合はテロップ以外の原因による輝度
変化として、全ブロックを非テロップ領域とした上で現
フレームの検出処理を終了する。そうでなければ、抽出
ブロックの位置情報を出力し、DC成分による時間変動
判定処理を終了する。
In step S17, the number of lines that have become telop area candidates is counted. If the telop area candidates occupy a large part of the frame, all the blocks are regarded as non-telop areas as luminance changes due to causes other than telop. The detection processing of the current frame ends. If not, the position information of the extracted block is output, and the time variation determination process based on the DC component ends.

【0029】次に、前記ステップS2のブロック変動判
定処理を、図4を参照して説明する。図4(a) は、AC
成分によるブロック変動判定処理のフローチャートを表
す。該変動判定処理には、フレームIn とフレームIn-
N のDCT係数AC成分情報が入力され、ブロック単位
で処理する。文字と背景が織り成すエッジ領域はDCT
係数AC成分の多寡に対応するので、ブロックの部分和
の変化が空間的、時間的ともに閾値を超えるブロックを
テロップ領域とする。
Next, a description will be given, with reference to FIG. 4, of the block change determination processing in step S2. FIG.
9 shows a flowchart of a block variation determination process based on components. In the fluctuation determination process, the frame In and the frame In-
N DCT coefficient AC component information is input and processed in block units. DCT is the edge area where text and background are interwoven
A block in which a change in the partial sum of blocks exceeds a threshold both spatially and temporally is set as a telop area because it corresponds to the number of coefficient AC components.

【0030】ステップS19は、対象ブロックが前記ス
テップS1のライン変動判定処理でテロップ領域候補と
判定された領域であるか調べる。テロップ領域候補であ
れば処理を続行し、そうでなければ非テロップとした上
で該ブロックに対する判定を終了する。ステップS20
は、テロップ領域候補に対してAC成分の絶対値部分和
を計算する。
In step S19, it is checked whether or not the target block is an area determined as a telop area candidate in the line variation determination processing in step S1. If it is a telop area candidate, the process is continued; if not, a non-telop is set, and the determination for the block is terminated. Step S20
Calculates the partial sum of the absolute value of the AC component for the telop area candidate.

【0031】図4(b) は変動判定に利用する係数範囲に
ついての一例を表す。ここでは、DCT係数AC成分に
ついて、ジグザグスキャンオーダーでAC低周波成分9
個の絶対値部分和による判定を使用している。
FIG. 4B shows an example of a coefficient range used for determining fluctuation. Here, the DCT coefficient AC component has an AC low-frequency component 9 in a zigzag scan order.
Judgment using partial sums of absolute values is used.

【0032】ステップS21では、過去のフレーム(I
n-N フレーム)における同位置ブロックの、AC低周波
成分9個の絶対値部分和との差分を計算する。ステップ
S22では、閾値による判定を行い、閾値以上の差分値
を持つブロックはステップS23でテロップ領域候補と
する。そうでなければ、ステップS24で非テロップ領
域候補とする。ステップS25は全てのブロックに対し
て処理が完了したかを判断し、完了していなければ、ス
テップS19に戻って、ステップS19〜S24の一連
の処理を繰り返す。ステップS25で、全ブロックの処
理が完了したと判定されると、AC成分による変動判定
処理は終了する。
In step S21, the past frame (I
The difference between the absolute value partial sum of nine AC low frequency components of the same position block in the (nN frame) is calculated. In step S22, a determination is made based on a threshold, and blocks having a difference value equal to or greater than the threshold are determined as telop area candidates in step S23. Otherwise, it is determined as a non-telop area candidate in step S24. A step S25 decides whether or not the processing has been completed for all the blocks, and if not completed, returns to the step S19 and repeats a series of the processing of the steps S19 to S24. If it is determined in step S25 that the processing of all blocks has been completed, the fluctuation determination processing based on the AC component ends.

【0033】次に、前記ステップS3の収束判定処理の
詳細を、図5を参照して説明する。図5(a) は、該収束
判定処理のフローチャートを表す。変動領域はテロップ
の出現である可能性が高いが、移動する物体やカメラワ
ークによる変動である可能性も否めない。テロップは出
現過渡期においては時間的な輝度変動が激しいが、定常
状態では逆に輝度変化がほとんど生じない。よって、該
収束判定処理には、前記ステップS1、S2で抽出した
テロップ領域候補のうち、テロップ出現以外の要因によ
る変動領域を除去するため、テロップの位置に対する定
常性を利用する。
Next, details of the convergence determination processing in step S3 will be described with reference to FIG. FIG. 5A shows a flowchart of the convergence determination process. It is highly probable that the fluctuating area is the appearance of a telop, but it cannot be denied that it is fluctuating due to a moving object or camera work. The telop has a large temporal fluctuation in luminance during the transition period, but in the steady state, the luminance hardly changes. Therefore, in the convergence determination process, the stationarity with respect to the position of the telop is used in order to remove a fluctuation region due to a factor other than the appearance of the telop among the telop region candidates extracted in steps S1 and S2.

【0034】具体的には、画面全体に対しDC成分の時
間的変化を判断基準にシーンチェンジ等が無いことを確
認した上で、テロップ領域候補に対し静止したテロップ
のエッジの方向と位置が同一であることを利用する。エ
ッジの一致性には、AC成分の部分和を利用したクラス
分類を用いる。例えば、図4(b) に示した9つのAC成
分を更に縦(垂直)、横(水平)、対角要素の3つの部
分に分割したとき、図5(b) で示すように4つのブロッ
クから、合計で12個のクラスを形成することができ
る。
More specifically, after confirming that there is no scene change or the like based on the temporal change of the DC component for the entire screen, the direction and position of the edge of the stationary telop with respect to the telop area candidate are the same. Take advantage of that. For the coincidence of edges, a class classification using a partial sum of AC components is used. For example, when the nine AC components shown in FIG. 4B are further divided into three parts of vertical (vertical), horizontal (horizontal), and diagonal elements, as shown in FIG. Thus, a total of 12 classes can be formed.

【0035】ステップS3の収束判定処理には、フレー
ムIn からフレームIn+qNまでのDCT係数AC成分情
報が入力される。ステップS26では、対象ブロックが
テロップ領域候補であるか否かを調べる。テロップ領域
候補であれば、処理を続行し、そうでなければ、非テロ
ップ領域とした上で該ブロックの収束判定処理を終了す
る。ステップS27は、フレームIn における対象ブロ
ックのエッジクラスを決定する。例えば、図5(b) の前
記12個のクラスから、最大部分和をもつエッジクラス
を求める。ステップS28では、フレームIn+mN(0<
m<q)における同位置ブロックの同エッジクラスを決
定する。一般にフレーム内符号化画像は12〜15フレ
ーム間隔で配置されることが多いため、30fpsなら
ば、およそ0.5秒間隔で配置されていることになる。
2秒以上テロップが提示されていると仮定すれば、qの
値は4程度まで設定できる。
In the convergence determination process in step S3, DCT coefficient AC component information from frame In to frame In + qN is input. In step S26, it is checked whether or not the target block is a telop area candidate. If it is a telop area candidate, the processing is continued. Otherwise, the convergence determination processing for the block is terminated after setting a non-telop area. A step S27 decides the edge class of the target block in the frame In. For example, an edge class having the maximum partial sum is obtained from the twelve classes shown in FIG. In step S28, the frame In + mN (0 <
The same edge class of the same position block in m <q) is determined. Generally, intra-frame coded images are often arranged at intervals of 12 to 15 frames, so if 30 fps, they are arranged at intervals of about 0.5 seconds.
Assuming that the telop is presented for 2 seconds or more, the value of q can be set to about 4.

【0036】ステップS29では、前記ステップS27
とS28で求められたエッジクラスの部分和が一致する
かを判定する。一致する場合は、ステップS30で該ブ
ロックをテロップ領域候補とする。そうでなければ、ス
テップS31で非テロップ領域候補とする。ステップS
32は全てのブロックに対して処理が完了したかを判断
し、完了していなければ、ステップS26に戻り、該ス
テップS26〜S31の一連の処理を繰り返す。全ブロ
ックの処理が完了していれば、クラス分類による収束判
定処理を終了する。
In step S29, the process proceeds to step S27.
And whether the partial sums of the edge classes obtained in S28 match. If they match, the block is set as a telop area candidate in step S30. Otherwise, it is determined as a non-telop area candidate in step S31. Step S
32 judges whether the processing has been completed for all blocks, and if not completed, returns to step S26 and repeats the series of processing of steps S26 to S31. If the processing of all blocks has been completed, the convergence determination processing based on the class classification ends.

【0037】以上の時間変移判定処理により、テロップ
領域候補となる領域がIピクチャ上で設定されたことに
なる。
By the above-described time transition determination processing, an area serving as a telop area candidate has been set on the I picture.

【0038】次に、図6を参照して、前記符号化モード
情報によるテロップ位置判定部3(図1参照)の機能を
説明する。テロップ位置判定部3には、時間変移判定部
2にて抽出されたテロップ領域候補情報が入力される。
同時に可変長復号部1からはフレームIn とフレームI
n+mNの間に存在するフレーム(P,Bピクチャ)の符号
化モード情報が入力される。複数のフレームに渡って、
同位置に存在するブロック群を1単位として処理する。
符号化モード情報によるテロップの検証は、前述の検出
処理で抽出されたテロップ領域候補に限定して行う。
Next, referring to FIG. 6, the function of the telop position judging unit 3 (see FIG. 1) based on the encoding mode information will be described. The telop area determination unit 3 receives the telop area candidate information extracted by the time change determination unit 2.
At the same time, the frame In and the frame I
The coding mode information of the frames (P, B pictures) existing between n + mN is input. Over multiple frames,
Processing is performed with the block group located at the same position as one unit.
Verification of the telop based on the encoding mode information is limited to the telop area candidates extracted in the above-described detection processing.

【0039】ステップS33は対象ブロックが時間変移
判定部2でテロップ領域候補と判定されているか否かを
判断する。テロップ領域候補であれば処理を続行し、そ
うでなければ非テロップとした上で該ブロックに対する
判定を終了する。ステップS34は符号化モード情報と
動き予測情報の参照するフレーム間距離から計数カウン
タを生成する。ステップS35はステップS34で計数
されたカウンタに対して、閾値による判定を行う。閾値
以上を持つカウンタを形成したブロック群はステップS
36にてテロップ領域候補とする。そうでなければ、ス
テップS37で非テロップ領域候補とする。ステップS
38は全てのブロックに対して処理が完了したかを判断
し、完了していなければ、ステップS33に戻って、ス
テップS33〜S37の一連の処理を繰り返す。全ブロ
ックの処理が完了していれば、ステップS39の処理に
移る。ステップS39はテロップ領域候補に対して形状
整形処理を行う。処理内容は形状整形処理部(前記ステ
ップS4)と同一である。以上で符号化モード情報によ
る判定処理を終了する。
In step S33, it is determined whether or not the target block has been determined as a telop area candidate by the time transition determining unit 2. If it is a telop area candidate, the process is continued; if not, a non-telop is set, and the determination for the block is terminated. In step S34, a count counter is generated from the encoding mode information and the inter-frame distance referred to by the motion prediction information. In step S35, a determination based on a threshold value is performed on the counter counted in step S34. The block group forming the counter having the threshold value or more is determined in step S
At 36, a telop area candidate is set. Otherwise, it is determined as a non-telop area candidate in step S37. Step S
38 judges whether the processing has been completed for all the blocks, and if not completed, returns to step S33 and repeats a series of processing of steps S33 to S37. If the processing for all blocks has been completed, the processing moves to step S39. A step S39 performs a shape shaping process on the telop area candidate. The processing content is the same as that of the shape shaping processing section (Step S4). Thus, the determination process based on the encoding mode information ends.

【0040】入力情報の一つである符号化モード情報に
は、フレーム符号化情報とブロック符号化情報を用い
る。フレーム符号化情報には次の3種類が存在する。 (1) フレーム内符号化画像 (Iピクチャ) (2) 順方向予測画像 (Pピクチャ) (3) 双方向予測画像 (Bピクチャ)
As the coding mode information, which is one of the input information, frame coding information and block coding information are used. There are the following three types of frame coding information. (1) Intra-frame coded image (I picture) (2) Forward predicted image (P picture) (3) Bidirectional predicted image (B picture)

【0041】ブロック符号化モードには、フレーム内符
号化ブロック(Intra )とフレーム間符号化ブロック
(Inter )がある。さらに、フレーム間符号化ブロック
には動き補償と符号化の有無から次に示す4種類が存在
する。 (1) 動き補償符号化ブロック (MC coded) (2) フレーム差分符号化ブロック (no MC coded ) (3) 動き補償ブロック (MC no coded ) (4) スキップト・ブロック (Skip) ただし、動き予測には順方向、逆方向、両方向の3種類
が存在する。
In the block coding mode, there are an intra-frame coding block (Intra) and an inter-frame coding block (Inter). Further, there are the following four types of inter-frame coded blocks based on the presence or absence of motion compensation and coding. (1) Motion compensation coding block (MC coded) (2) Frame difference coding block (no MC coded) (3) Motion compensation block (MC no coded) (4) Skipped block (Skip) There are three types of forward, backward, and both directions.

【0042】このとき、静止したテロップの特徴と、対
応するブロックの符号化モードとの間に高い相関が存在
する。例えば、静止したテロップには動き予測情報が存
在しないか、若しくはその大きさが0に近い。また、テ
ロップを構成する文字列の特徴として境界部のエッジを
挙げているように、複雑なテクスチャが存在するため動
き予測誤差情報が省略されることは少ない。
At this time, there is a high correlation between the feature of the still telop and the coding mode of the corresponding block. For example, there is no motion prediction information in a static telop, or its size is close to zero. Also, as described in the character string constituting the telop, the edge of the boundary portion is cited as a feature of the character string, the motion prediction error information is rarely omitted due to the presence of a complicated texture.

【0043】よって、上記の特徴を備えるno MC coded
符号化モードは、テロップである可能性が最も高い。し
かし、実映像の符号化過程を考慮するとき、符号化器の
精度が向上するほど、静止領域には動き予測情報が与え
られない。つまりテロップの有無に関わらず、動き予測
情報を持たないモードが選択されることが多くなる。ま
た、動き予測の参照フレームが近いほど移動している領
域でも見かけの動きが小さいため、動き予測情報が割り
当てられないことがある。
Therefore, no MC coded having the above characteristics
The encoding mode is most likely to be a telop. However, when the encoding process of the actual video is considered, the motion prediction information is not provided to the still region as the accuracy of the encoder is improved. That is, a mode that does not have motion prediction information is often selected regardless of the presence or absence of a telop. Also, the closer the reference frame for motion prediction is, the smaller the apparent motion is, even in a moving area, so that motion prediction information may not be assigned.

【0044】この問題を解決する方法として、符号化モ
ードによる判定を行う際、時間的距離の概念を導入し、
符号化モードの信頼性情報として利用する。参照フレー
ムが近い場合は動き予測情報が存在しなくても、それが
テロップである可能性を保証するものではないので符号
化モード情報の信頼度は低く設定する。逆に動き予測情
報が存在するならば、明確な移動物体が存在するものと
して非テロップ領域候補としての信頼度は高くする。一
方、参照フレームが遠く離れている場合は逆の設定を用
意する。すなわち、動き予測情報が存在しない場合は完
全に静止した領域と判断できるので、テロップ領域候補
としての符号化モード情報の信頼度を高く設定する。ま
た、動き予測情報が存在しても、非テロップ領域候補と
しての符号化モード情報の信頼度は低く設定する。
As a method for solving this problem, a concept of a temporal distance is introduced when making a determination based on an encoding mode.
It is used as encoding mode reliability information. If the reference frame is close, even if motion prediction information does not exist, the reliability of the encoding mode information is set low because it does not guarantee the possibility of being a telop. Conversely, if motion prediction information exists, it is assumed that a clear moving object exists, and the reliability as a non-telop area candidate is increased. On the other hand, when the reference frame is far away, the reverse setting is prepared. That is, when there is no motion prediction information, it can be determined that the area is completely still, so that the reliability of the encoding mode information as a telop area candidate is set high. Even if motion prediction information exists, the reliability of the encoding mode information as a non-telop area candidate is set low.

【0045】この時間的距離を信頼性情報とした符号化
モード情報による計数法(前記ステップS34)の一例
を、図7のフローチャートを参照して説明する。入力さ
れる情報は同位置のブロック群の符号化モード情報であ
る。
An example of the counting method based on the coding mode information using the temporal distance as the reliability information (step S34) will be described with reference to the flowchart of FIG. The input information is the encoding mode information of the block group at the same position.

【0046】ステップS40では、動き予測情報が参照
するフレームまでの距離を算出する。ただし、予測方式
が両方向予測のときは距離の近い方を採用する。ステッ
プS41はブロックの符号化モード情報を用いて判定を
下す。ブロックの符号化タイプが動き予測情報を持つMC
coded、MC no coded ならば、ステップS42にてステ
ップS40で求めた参照フレームまでの時間的距離に反
比例した数を減算する。一方、動き予測情報を持たない
Intra 、動き予測情報の大きさが0であるno MC coded
、またはSkipならば、ステップS43で時間的距離に
比例した数を加算する。ステップS44は同位置に存在
するブロックに対して処理がすべて終了したかを判断
し、終了していなければ次のブロックについてステップ
S40から一連の操作を繰り返す。そうでなければカウ
ンタの計数を終了する。
In step S40, the distance to the frame referred to by the motion prediction information is calculated. However, when the prediction method is bidirectional prediction, the one with the shorter distance is adopted. A step S41 makes a decision using the coding mode information of the block. MC whose block coding type has motion prediction information
If it is coded, MC no coded, in step S42, a number inversely proportional to the temporal distance to the reference frame obtained in step S40 is subtracted. On the other hand, does not have motion prediction information
Intra, no MC coded where the size of motion prediction information is 0
, Or Skip, a number proportional to the temporal distance is added in step S43. A step S44 decides whether or not the processing has been completed for all the blocks located at the same position. If not, a series of operations from the step S40 is repeated for the next block. If not, the counting of the counter ends.

【0047】以上のテロップ位置判定処理により、テロ
ップに相応しい符号化モードを持つブロックをIピクチ
ャ上から抜き出すことができる。
By the above telop position determination processing, a block having an encoding mode suitable for a telop can be extracted from an I picture.

【0048】次に、前記出現フレーム判定部4の動作を
説明する。動き予測情報によるテロップの検証は、前述
の検出処理で抽出されたテロップ領域候補に限定して行
う。ここでは、ブロックの符号化モードと動きベクトル
の時間的参照方向を利用する。テロップが出現すると
き、IまたはPピクチャに区切られた連続するBピクチ
ャ(以下、これをBピクチャ群という)のテロップ領域
には次に挙げる性質が現れる。 (1) Bピクチャ群に両方向予測が存在しない。 (2) 出現フレームがI、又はPピクチャのとき、Bピク
チャ群に順方向動きベクトルのみ存在する。 (3) 出現フレームがBピクチャのとき、Bピクチャ群に
逆方向動きベクトルも存在する。 (4) 出現フレームがBピクチャのとき、Bピクチャ群に
順逆方向の切り替わりは一度だけ存在する。 (5) テロップ出現後は動きベクトルを持たない。
Next, the operation of the appearance frame determination section 4 will be described. The verification of the telop based on the motion prediction information is performed only for the telop area candidates extracted in the above-described detection processing. Here, the coding mode of the block and the temporal reference direction of the motion vector are used. When a telop appears, the following properties appear in the telop area of a continuous B picture (hereinafter referred to as a B picture group) divided into I or P pictures. (1) There is no bidirectional prediction in the B picture group. (2) When the appearance frame is an I or P picture, only a forward motion vector exists in the B picture group. (3) When the appearing frame is a B picture, a backward motion vector also exists in the B picture group. (4) When the appearing frame is a B picture, there is only one switching in the B picture group in the forward / reverse direction. (5) After the telop appears, it has no motion vector.

【0049】上記の性質の理解を容易にするために、図
9を示す。同図(a) 、(b) から、Bピクチャ、Iピクチ
ャ、またはPピクチャにテロップが出現する時には、前
記(1) のようにBピクチャ群に両方向予測が存在しない
ことは明らかである。また、テロップの出現フレームが
I、又はPピクチャのときには、同図(b) から、前記
(2) のようにBピクチャ群に順方向動きベクトルのみが
存在することは明らかである。また、テロップ出現フレ
ームがBピクチャのときには、同図(a) から、Bピクチ
ャ群は前記(3) 、(4) の性質を有することは明らかであ
る。なお、同図(c) に示されているように、Bピクチャ
群に両方向予測が存在する場合には、I,PおよびBピ
クチャ群のいずれにもテロップは出現しない。
FIG. 9 is shown to facilitate understanding of the above properties. From FIGS. 7A and 7B, when a telop appears in a B picture, an I picture, or a P picture, it is clear that there is no bidirectional prediction in the B picture group as in (1). Further, when the appearance frame of the telop is an I or P picture, from FIG.
It is obvious that only the forward motion vector exists in the B picture group as shown in (2). Also, when the telop appearing frame is a B picture, it is clear from FIG. 10A that the B picture group has the above-mentioned properties (3) and (4). As shown in FIG. 3C, when bidirectional prediction exists in the B picture group, no telop appears in any of the I, P, and B picture groups.

【0050】したがって、Bピクチャ群の動き予測情報
からテロップの出現フレームを上記の条件(1) 〜(5) を
満たすフレームに絞り込む。なお、図9におけるBピク
チャ群の両側が、共にPピクチャであることもありう
る。
Therefore, the appearance frame of the telop is narrowed down to the frame satisfying the above conditions (1) to (5) from the motion prediction information of the B picture group. Note that both sides of the B picture group in FIG. 9 may be both P pictures.

【0051】具体的には、時間変移判定部2で複数のフ
レーム内符号化画像にテロップの出現が検知されたと
き、出現フレーム判定部4はGOP内部のBピクチャ群
について上記の特性(性質)を検証する。初めに、Bピ
クチャ群毎に、個々のブロックに対して動き予測情報の
時間的参照方向を調べる。Bピクチャ群が順方向予測の
みで構成される場合(前記性質2)は、直後のIまたは
Pピクチャにテロップが出現したものと判断する。Bピ
クチャ群が逆方向を含む場合、又は順方向から逆方向へ
の変化が一度だけ存在する場合(前記性質3、4)は、
逆方向が始まったBピクチャにテロップが出現したと判
断する。これら以外の場合は、この連続するBピクチャ
群にはテロップの出現はないと判断し、次のBピクチャ
群について判定処理を続ける。これにより、テロップの
出現フレームはフレーム単位で検出することが可能とな
る。
More specifically, when the time transition judging unit 2 detects the appearance of a telop in a plurality of intra-frame encoded images, the appearing frame judging unit 4 sets the above-mentioned characteristic (property) for the group of B pictures in the GOP. Verify First, a temporal reference direction of motion prediction information is checked for each block for each B picture group. When the group of B pictures is composed only of forward prediction (the property 2), it is determined that a telop has appeared in the immediately following I or P picture. When the group of B pictures includes the backward direction, or when there is only one change from the forward direction to the backward direction (the above properties 3 and 4),
It is determined that a telop has appeared in the B picture in which the reverse direction has started. In other cases, it is determined that no telop appears in this continuous B picture group, and the determination process is continued for the next B picture group. This makes it possible to detect the appearance frame of the telop in frame units.

【0052】ただし、静止したテロップを仮定している
ため、動き予測情報自体の長さはほぼ0であるブロック
に限定する。動き予測情報が有意な長さを持つブロック
は参照方向の如何に関わらず、テロップ領域候補から外
す。同様に、テロップ出現判定後のGOPに対しても、
同位置のブロック毎に、動き予測情報の長さを検証す
る。長さが十分0に近くなければ、そのブロックはテロ
ップ領域候補から除外する。
However, since a stationary telop is assumed, the length of the motion prediction information itself is limited to a block having almost zero. Blocks in which the motion prediction information has a significant length are excluded from the telop area candidates regardless of the reference direction. Similarly, for the GOP after the telop appearance determination,
The length of the motion prediction information is verified for each block at the same position. If the length is not sufficiently close to 0, the block is excluded from the telop area candidates.

【0053】図8に動き予測情報による出現フレーム判
定部4の動作のフローチャートを示す。テロップ位置判
定部3からはテロップ領域候補の位置情報が入力され
る。同時に可変長復号部1からはフレームIn-N とフレ
ームIn 間にあるフレームの動き予測情報が入力され
る。判定はBピクチャ群の個々のブロックを対象とす
る。
FIG. 8 is a flowchart showing the operation of the appearance frame determination unit 4 based on the motion prediction information. The telop position determination unit 3 receives position information of a telop area candidate. At the same time, the motion prediction information of the frame between the frame In-N and the frame In is input from the variable length decoding unit 1. The determination is made for each block of the B picture group.

【0054】ステップS45では、対象ブロックがテロ
ップ位置判定部3でフレームIn においてテロップ領域
候補と判定されているか否かを判断する。テロップ領域
候補であれば処理を続行し、そうでなければ該ブロック
群に対する判定を終了する。ステップS46は前述した
テロップ出現に伴うBピクチャ群の特性を検証する(前
記性質(1) 〜(5) 、および図9参照)。ステップS47
ではステップS46の出力が上記の性質を満たしている
ものであるか否かを判断し、満たしているならば、ステ
ップS48にて逆方向ベクトルが出現したBピクチャフ
レーム,あるいはIまたはPピクチャフレームをテロッ
プの出現フレームとして出力する。そうでなければ、ス
テップS49にて該ブロックを非テロップとし、該Bピ
クチャ群にはテロップが出現していないと判断する。ス
テップS50はBピクチャ群の全てのブロックに対して
判定処理が完了したかを判断する。終了していなけれ
ば、ステップS45に戻って、次のブロックに対して前
記ステップS45〜S49の一連の処理を繰り返す。そ
うでなければ判定処理を続ける。
In step S45, it is determined whether or not the target block has been determined by the telop position determination unit 3 as a telop area candidate in the frame In. If it is a telop area candidate, the process is continued; otherwise, the determination for the block group is terminated. In step S46, the characteristics of the B picture group accompanying the appearance of the telop described above are verified (see the characteristics (1) to (5) and FIG. 9). Step S47
Then, it is determined whether or not the output of step S46 satisfies the above property. If so, the B picture frame in which the backward vector appears or the I or P picture frame in step S48 is determined. Output as the appearance frame of the telop. Otherwise, in step S49, the block is set as a non-telop, and it is determined that no telop appears in the B picture group. A step S50 decides whether or not the decision processing has been completed for all blocks of the B picture group. If the processing has not been completed, the process returns to step S45, and the series of steps S45 to S49 is repeated for the next block. Otherwise, the determination process is continued.

【0055】ステップS51はGOP内部のすべてのB
ピクチャ群に対して判定処理が完了したかを判断する。
終了していなければ次のBピクチャ群について、ステッ
プS45〜S50の一連の処理を繰り返す。そうでなけ
れば、処理を終了する。なお、ステップS48で、テロ
ップ開始フレームが検出されなかった場合には、、全ブ
ロックを非テロップ領域とし、出現フレーム判定部4の
処理を終了する。この場合には、該出現フレーム判定部
4は、その後、次のGOP内部のすべてのBピクチャ群
に対して、図8の判定処理を再度行う。
In step S51, all Bs in the GOP are
It is determined whether the determination processing has been completed for the picture group.
If the processing has not been completed, a series of steps S45 to S50 is repeated for the next B picture group. Otherwise, the process ends. If no telop start frame is detected in step S48, all blocks are set as non-telop areas, and the process of the appearance frame determination unit 4 ends. In this case, the appearance frame determination unit 4 then performs the determination processing of FIG. 8 again on all the B pictures in the next GOP.

【0056】上記の説明から明らかなように、本発明に
よれば、以下の特徴(1) 〜(5) を提供することができ
る。 (1) テロップ領域の検出過程を段階的にするようにした
ので、高速な処理と高精度な処理を両立させることがで
きる。 (2) 時間的な変動判定とそれに続く収束判定とを行うよ
うにしたので、不要な変動領域を排除して、テロップ領
域の検出処理をすることができるようになる。 (3) 有意な動き予測情報を備えるブロックを検出対象か
ら除外することができるようになる。 (4) 符号化モード情報の信頼性を考慮して、重み付け計
数による検出判定を行うことができるようになる。 (5) 動き予測情報を利用して、1フレーム単位でのテロ
ップ検出解像度を達成できるようになる。
As apparent from the above description, according to the present invention, the following features (1) to (5) can be provided. (1) Since the step of detecting the telop area is made stepwise, both high-speed processing and high-accuracy processing can be achieved. (2) Since the temporal variation determination and the subsequent convergence determination are performed, unnecessary variation regions can be eliminated, and the telop region detection processing can be performed. (3) Blocks having significant motion prediction information can be excluded from detection targets. (4) In consideration of the reliability of the encoding mode information, it is possible to perform the detection determination by the weighting counting. (5) The telop detection resolution in one frame unit can be achieved using the motion prediction information.

【0057】[0057]

【発明の効果】以上の説明から明らかなように、本発明
によれば、圧縮符号化された動画像データを部分的に復
号することに加え、10数フレームの間隔をおいたフレ
ーム(例えば、フレーム内符号化画像)を対象とした検
出をまず行い、次いで1フレーム単位での検出を行うと
いうように、テロップ開始フレームの検出処理を階層的
にしたので、従来の画素領域の検出方式(前記第1の検
出方式)は無論のこと、符号データ領域での検出方式
(前記第2、第3の検出方式)と比較しても処理コスト
を抑えることが可能となる。つまり、本発明では、テロ
ップ検出判定の適用範囲を必要最小限に抑えることがで
きるため、圧縮符号化データ上でのテロップ領域抽出方
式の処理量の低減および高速性を更に向上することが可
能となる。
As is apparent from the above description, according to the present invention, in addition to partially decoding the compression-encoded moving image data, in addition to the frames at intervals of ten or more frames (for example, The detection process of the telop start frame is made hierarchical such that detection is first performed for the intra-frame coded image, and then detection is performed in units of one frame. Needless to say, the first detection method can reduce the processing cost as compared with the detection method in the code data area (the second and third detection methods). That is, according to the present invention, the applicable range of the telop detection determination can be suppressed to a necessary minimum, so that it is possible to further reduce the processing amount and the speed of the telop region extraction method on the compression-encoded data. Become.

【0058】また、本発明は、テロップの出現に伴う前
兆(変動)と出現後の定常性(収束性)の2性質をそれ
ぞれ異なる判別法で判定するようにしたので、第2、第
3の検出方式と比較してはるかに優れた検出精度を達成
することが可能となる。
Also, in the present invention, the two properties of the precursor (fluctuation) and the stationarity (convergence) after the appearance of the telop are determined by different discriminants, respectively. It is possible to achieve much better detection accuracy than the detection method.

【0059】また、本発明は、符号化モード情報を利用
してテロップ領域候補となるブロックの精度を高め、動
き予測情報を利用してテロップ開始フレームを求めるよ
うにしたので、テロップ検出解像度を高めることが可能
になる。
Further, according to the present invention, the accuracy of a block serving as a telop area candidate is improved by using the encoding mode information, and the telop start frame is obtained by using the motion prediction information. It becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態の概略の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention.

【図2】 図1の時間変移判定部の動作を示すフローチ
ャートである。
FIG. 2 is a flowchart illustrating an operation of a time transition determining unit in FIG. 1;

【図3】 図2のライン変動判定処理(ステップS1)
の詳細を示すフローチャートおよび説明図である。
FIG. 3 is a line variation determination process of FIG. 2 (step S1);
FIG. 4 is a flowchart and an explanatory diagram showing details of FIG.

【図4】 図2のブロック変動判定処理(ステップS
2)の詳細を示すフローチャートおよび説明図である。
FIG. 4 is a block change determination process (step S) of FIG.
It is a flowchart and explanatory drawing which show the detail of 2).

【図5】 図2の収束判定処理(ステップS3)の詳細
を示すフローチャートおよび説明図である。
FIG. 5 is a flowchart and an explanatory diagram showing details of a convergence determination process (step S3) of FIG. 2;

【図6】 図1のテロップ位置判定部の動作を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing an operation of a telop position determination unit in FIG. 1;

【図7】 図6の重み付け符号化モード計数処理(ステ
ップS34)の詳細を示すフローチャートである。
FIG. 7 is a flowchart illustrating details of a weighted encoding mode counting process (step S34) in FIG. 6;

【図8】 図1の出現フレーム判定部の動作を示すフロ
ーチャートである。
FIG. 8 is a flowchart showing an operation of an appearance frame determination unit in FIG. 1;

【図9】 図8の出現予兆の検証処理(ステップS4
6)の説明図である。
FIG. 9 shows an appearance sign verification process (step S4) in FIG.
It is explanatory drawing of 6).

【図10】 従来の第1の検出方式の構成を示すブロッ
ク図である。
FIG. 10 is a block diagram showing a configuration of a conventional first detection method.

【符号の説明】[Explanation of symbols]

1…可変長復号部、2…時間変移判定部、3…テロップ
位置判定部、4…出現フレーム判定部。
DESCRIPTION OF SYMBOLS 1 ... Variable length decoding part, 2 ... Time transition judgment part, 3 ... Telop position judgment part, 4 ... Appearance frame judgment part.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C023 AA18 BA01 CA05 5C059 KK00 MA04 MA05 MA23 MC32 MC34 NN21 PP05 PP06 PP07 PP20 PP24 PP26 UA05 5L096 BA18 FA26 FA34 FA35 FA44 HA03  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C023 AA18 BA01 CA05 5C059 KK00 MA04 MA05 MA23 MC32 MC34 NN21 PP05 PP06 PP07 PP20 PP24 PP26 UA05 5L096 BA18 FA26 FA34 FA35 FA44 HA03

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 圧縮された動画像のデータを入力とし、
該動画像のデータにテロップ領域情報を付加して出力す
る動画像内のテロップ領域検出装置において、 動き予測誤差情報の時間的変化からテロップの出現を検
知する時間変移判定部と、 符号化モード情報の種類を基にテロップの位置を抽出す
るテロップ位置判定部と、 動き予測情報の参照方向の遷移からテロップの出現フレ
ームを検出する出現フレーム判定部とを具備したことを
特徴とする動画像内のテロップ検出装置。
1. Compressed moving image data is input,
A telop area detecting device for adding a telop area information to the data of the moving image, and outputting the telop area information in the moving image; A telop position determining unit for extracting the position of the telop based on the type of the telop, and an appearance frame determining unit for detecting the appearance frame of the telop from the transition of the reference direction of the motion prediction information. Telop detection device.
【請求項2】 請求項1に記載の動画像内のテロップ領
域検出装置において、前記時間変移判定部は、テロップ
の出現判定として、フレーム間の動き予測誤差情報の差
分値を判定基準に用いることを特徴とするテロップ領域
検出装置。
2. The apparatus for detecting a telop area in a moving image according to claim 1, wherein the time change determination unit uses a difference value of motion prediction error information between frames as a criterion as a telop appearance determination. A telop area detection device characterized by the above-mentioned.
【請求項3】 請求項2に記載の動画像内のテロップ領
域検出装置において、 前記時間変移判定部は、変動判定に用いるフレーム間の
差分値として、動き予測誤差情報のDCT係数DC成分
によるヒストグラム差分を利用することを特徴とするテ
ロップ領域検出装置。
3. The apparatus for detecting a telop area in a moving image according to claim 2, wherein the time transition determining unit determines a histogram based on a DCT coefficient DC component of motion prediction error information as a difference value between frames used for a variation determination. A telop area detection device using a difference.
【請求項4】 請求項2または3に記載の動画像内のテ
ロップ領域検出装置において、 前記時間変移判定部は、動き予測誤差情報のヒストグラ
ム差分を縦横それぞれブロックのライン毎に利用するこ
とを特徴とするテロップ領域検出装置。
4. The apparatus for detecting a telop area in a moving image according to claim 2, wherein the time transition determining unit uses a histogram difference of the motion prediction error information for each line of the block in each of the vertical and horizontal directions. Telop area detecting device.
【請求項5】 請求項2に記載の動画像内のテロップ領
域検出装置において、 前記時間変移判定部は、変動判定に用いるフレーム間の
差分値として、動き予測誤差情報のDCT係数AC成分
の部分絶対値和による差分を利用することを特徴とする
テロップ領域検出装置。
5. The apparatus for detecting a telop region in a moving image according to claim 2, wherein the time transition determining unit determines a DCT coefficient AC component of motion prediction error information as a difference value between frames used for a variation determination. A telop area detection device using a difference based on a sum of absolute values.
【請求項6】 請求項1に記載の動画像内のテロップ領
域検出装置において、 前記時間変移判定部は、テロップ出現後の定常状態を確
認する手段を有することを特徴とするテロップ領域検出
装置。
6. The telop area detection device according to claim 1, wherein the time change determination unit includes a unit that checks a steady state after the appearance of the telop.
【請求項7】 請求項6に記載の動画像内のテロップ領
域検出装置において、 前記時間変移判定部は、定常状態の確認にクラス分類に
よる同一性判定を利用することを特徴とするテロップ領
域検出装置。
7. The telop area detection apparatus according to claim 6, wherein the time change determination unit uses identity determination based on class classification to confirm a steady state. apparatus.
【請求項8】 請求項6または7に記載の動画像内のテ
ロップ領域検出装置において、 前記時間変移判定部は、定常状態の把握に利用するクラ
スを動き予測誤差情報の係数分布の偏在をもとに形成す
ることを特徴とするテロップ領域検出装置。
8. The apparatus for detecting a telop area in a moving image according to claim 6, wherein the time transition determining unit determines whether a class used for grasping a steady state is unevenly distributed in a coefficient distribution of motion prediction error information. And a telop area detecting device.
【請求項9】 請求項6、7および8のいずれかに記載
の動画像内のテロップ領域検出装置において、 前記時間変移判定部は、収束判定に用いるクラス形成
に、動き予測誤差情報DCT係数AC成分を縦、横、対
角の3要素から識別したエッジ方向を利用することを特
徴とするテロップ領域検出装置。
9. The apparatus for detecting a telop area in a moving image according to claim 6, wherein the time transition determination unit performs the motion prediction error information DCT coefficient AC to form a class used for convergence determination. A telop area detection apparatus characterized by using an edge direction in which a component is identified from three elements of vertical, horizontal and diagonal.
【請求項10】 請求項1に記載の動画像内のテロップ
領域検出装置において、 前記テロップ位置判定部は、テロップの判定に動き予測
情報の大きさを判定基準にした0近似判定を利用するこ
とを特徴とするテロップ領域検出装置。
10. The apparatus for detecting a telop area in a moving image according to claim 1, wherein the telop position determination unit uses 0-approximation determination based on the size of motion prediction information for determination of a telop. A telop area detection device characterized by the above-mentioned.
【請求項11】 請求項1に記載の動画像内のテロップ
領域検出装置において、 前記テロップ位置判定部は、個々のブロックに対する符
号化モード情報とテロップとしての特徴の相関をテロッ
プ位置判定に利用することを特徴とするテロップ領域検
出装置。
11. The apparatus for detecting a telop area in a moving image according to claim 1, wherein the telop position determination unit uses a correlation between coding mode information for each block and a feature as a telop for telop position determination. A telop area detection device, characterized in that:
【請求項12】 請求項1に記載の動画像内のテロップ
領域検出装置において、 前記テロップ位置判定部は、個々のブロックに対する符
号化モード情報と非テロップとしての特徴の相関をテロ
ップ位置判定に利用することを特徴とするテロップ領域
検出装置。
12. The apparatus for detecting a telop area in a moving image according to claim 1, wherein the telop position determination unit uses a correlation between coding mode information for each block and a feature as a non-telop for telop position determination. A telop area detecting device.
【請求項13】 請求項11または12に記載の動画像
内のテロップ領域検出装置において、 前記テロップ位置判定部は、符号化モード情報に対する
信頼性の判定に動き予測情報の参照フレームまでの時間
的距離を利用することを特徴とするテロップ領域検出装
置。
13. The apparatus for detecting a telop area in a moving image according to claim 11, wherein the telop position determination unit determines a reliability of the encoding mode information by using a time interval from a reference frame of the motion prediction information to a reference frame. A telop area detection device using a distance.
【請求項14】 請求項11、12、および13のいず
れかに記載の動画像内のテロップ領域検出装置におい
て、 前記テロップ位置判定部は、符号化モード情報の連続性
の判定に重み付け計数カウンタを利用することを特徴と
するテロップ領域検出装置。
14. The apparatus for detecting a telop area in a moving image according to claim 11, wherein the telop position determination unit includes a weighting counter for determining a continuity of the encoding mode information. A telop area detection device characterized by using.
【請求項15】 請求項11、12、13、および14
のいずれかに記載の動画像内のテロップ領域検出装置に
おいて、 前記テロップ位置判定部は、重み付け計数カウンタの重
み係数を、動き予測情報が参照するフレームまでの時間
的距離に比例させることを特徴とするテロップ領域検出
装置。
15. The method of claim 11, 12, 13, and 14.
In the apparatus for detecting a telop area in a moving image according to any one of the above, the telop position determination unit is characterized in that a weight coefficient of a weighting counter is proportional to a temporal distance to a frame referred to by the motion prediction information. Telop area detection device.
【請求項16】 請求項1に記載の動画像内のテロップ
領域検出装置において、 前記出現フレーム判定部は、テロップの出現フレームの
判定に、動き予測情報の方向の時間的変化を利用するこ
とを特徴とするテロップ領域検出装置。
16. The apparatus for detecting a telop area in a moving image according to claim 1, wherein the appearance frame determination unit uses a temporal change in the direction of motion prediction information to determine an appearance frame of the telop. Characteristic telop area detection device.
【請求項17】 請求項16に記載の動画像内のテロッ
プ領域検出装置において、 前記出現フレーム判定部
は、テロップの出現フレームの判定として、連続する双
方向予測画像中のテロップ領域に、両方向動き予測情報
が存在しないことを判定基準に利用することを特徴とす
るテロップ領域検出装置。
17. The apparatus for detecting a telop area in a moving image according to claim 16, wherein the appearance frame determination unit determines the appearance frame of the telop by adding a bidirectional motion to a telop area in a continuous bidirectional prediction image. A telop area detecting device, wherein the absence of prediction information is used as a criterion.
【請求項18】 請求項16に記載の動画像内のテロッ
プ領域検出装置において、 前記出現フレーム判定部
は、テロップの出現フレームの判定として、テロップが
フレーム内符号化画像または片方向予測画像に出現する
とき、それ以前の連続する双方向予測画像中のテロップ
領域に順方向動き予測情報のみが存在することを判定基
準に利用することを特徴とするテロップ領域検出装置。
18. The apparatus for detecting a telop area in a moving image according to claim 16, wherein the appearance frame determination unit determines that the appearance frame of the telop is such that the telop appears in the intra-frame encoded image or the unidirectional prediction image. A telop area detection device that uses, as a criterion, the presence of only forward motion prediction information in a telop area in a continuous bidirectional prediction image before that.
【請求項19】 請求項16に記載の動画像内のテロッ
プ領域検出装置において、 前記出現フレーム判定部
は、テロップの出現フレームの判定として、テロップが
双方向予測画像に出現するとき、連続する双方向予測画
像中のテロップ領域に逆方向動き予測情報も存在するこ
とを判定基準に利用することを特徴とするテロップ領域
検出装置。
19. The apparatus for detecting a telop area in a moving image according to claim 16, wherein the appearance frame determination unit determines the appearance frame of the telop when the telop appears in the bidirectional prediction image. A telop area detection device, which uses, as a criterion, the presence of backward motion prediction information in a telop area in a direction prediction image.
【請求項20】 請求項16に記載の動画像内のテロッ
プ領域検出装置において、 前記出現フレーム判定部
は、テロップの出現フレームの判定として、テロップが
双方向予測画像に出現するとき、連続する双方向予測画
像中のテロップ領域に動き予測情報の順逆の向きが一度
だけ切り替わることを判定基準に利用することを特徴と
するテロップ領域検出装置。
20. The apparatus for detecting a telop area in a moving image according to claim 16, wherein the appearance frame determination unit determines the appearance frame of the telop when the telop appears in the bidirectional prediction image. A telop area detection device characterized in that a change of the direction of motion prediction information to a telop area in a direction prediction image is switched only once, as a determination criterion.
JP2000248794A 2000-08-18 2000-08-18 Device for detecting telop area in moving image Expired - Fee Related JP4349542B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000248794A JP4349542B2 (en) 2000-08-18 2000-08-18 Device for detecting telop area in moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000248794A JP4349542B2 (en) 2000-08-18 2000-08-18 Device for detecting telop area in moving image

Publications (2)

Publication Number Publication Date
JP2002064748A true JP2002064748A (en) 2002-02-28
JP4349542B2 JP4349542B2 (en) 2009-10-21

Family

ID=18738637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000248794A Expired - Fee Related JP4349542B2 (en) 2000-08-18 2000-08-18 Device for detecting telop area in moving image

Country Status (1)

Country Link
JP (1) JP4349542B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287774A (en) * 2005-04-04 2006-10-19 Sharp Corp Television receiver and method of adjusting vertical position
US8126055B2 (en) 2004-08-19 2012-02-28 Pioneer Corporation Telop detecting method, telop detecting program, and telop detecting device
JP2013172394A (en) * 2012-02-22 2013-09-02 Toshiba Corp Image processing apparatus and image display system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126055B2 (en) 2004-08-19 2012-02-28 Pioneer Corporation Telop detecting method, telop detecting program, and telop detecting device
JP2006287774A (en) * 2005-04-04 2006-10-19 Sharp Corp Television receiver and method of adjusting vertical position
JP4611787B2 (en) * 2005-04-04 2011-01-12 シャープ株式会社 Television receiver and vertical position adjustment method
JP2013172394A (en) * 2012-02-22 2013-09-02 Toshiba Corp Image processing apparatus and image display system

Also Published As

Publication number Publication date
JP4349542B2 (en) 2009-10-21

Similar Documents

Publication Publication Date Title
JP3226020B2 (en) Motion vector detection device
US6618507B1 (en) Methods of feature extraction of video sequences
Zeng et al. Robust moving object segmentation on H. 264/AVC compressed video using the block-based MRF model
EP1389016B1 (en) Improved motion estimation and block matching pattern
JP3994445B2 (en) Motion vector detection apparatus and motion vector detection method
JP4198206B2 (en) Video information compression method and apparatus using motion dependent prediction
JPH10304374A (en) Moving image encoding device
US20080002774A1 (en) Motion vector search method and motion vector search apparatus
JPH08228356A (en) Processing system for picture representing signal
US20070092007A1 (en) Methods and systems for video data processing employing frame/field region predictions in motion estimation
US6480543B1 (en) Detection of a change of scene in a motion estimator of a video encoder
US7295711B1 (en) Method and apparatus for merging related image segments
WO2010109564A1 (en) Image encoding apparatus and image encoding method
JP4349542B2 (en) Device for detecting telop area in moving image
JP2001250118A (en) Detecting and tracking device for moving body in moving picture
JP2001204023A (en) Processing for motion vector histogram to recognize interlaced or progressive character of picture
JP2869398B2 (en) Cut point detection method and device
JP4350877B2 (en) Compressed video scene change detection device, compressed video scene change detection method, and recording medium recording the program
KR100286742B1 (en) Method of detecting scene change and article from compressed news video image
JP3332202B2 (en) Camera work calculation method and device
JPH10112863A (en) Method and device for extracting motion subject information
JP2868445B2 (en) Moving image compression method and apparatus
JP2003061112A (en) Camerawork detector and camerawork detection method
JPH10304371A (en) Moving vector detecting device
Huang et al. An efficient and robust adaptive deinterlacing technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees