JPH11331851A - Low bit rate dynamic image coder - Google Patents

Low bit rate dynamic image coder

Info

Publication number
JPH11331851A
JPH11331851A JP13046598A JP13046598A JPH11331851A JP H11331851 A JPH11331851 A JP H11331851A JP 13046598 A JP13046598 A JP 13046598A JP 13046598 A JP13046598 A JP 13046598A JP H11331851 A JPH11331851 A JP H11331851A
Authority
JP
Japan
Prior art keywords
moving object
image
background
unit
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13046598A
Other languages
Japanese (ja)
Inventor
Daisaku Komiya
宮 大 作 小
Tsutomu Uenoyama
野 山 努 上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP13046598A priority Critical patent/JPH11331851A/en
Publication of JPH11331851A publication Critical patent/JPH11331851A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a dynamic image coder especially suitable for low bit rate coding by decreasing an arithmetic amount of coding while keeping high image quality. SOLUTION: This coder is provided with an input means 101 that receives a digital image, an image storage section 104 that stores the received image, a scene detection section 103, a mobile object detection section 105, a mobile object layer retrieval section 106, a background image discrimination compensation section 107, a coding control section 108, an encoder section 109 and an output means 110. The mobile object detection section detects a moving area in the unit of blocks at a head of a scene and outputs a 1st moving object layer. The moving object layer retrieval section generates a mobile object layer formed to be a rectangle of a succeeding frame based on a motion of a block in the layer in a current frame. The background image discrimination compensation section has an internal memory, which stores background information of the decoder side and analyzes a motion vector of a received background image, detects a motion of the background and provides an output of information to update the background newly.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画圧縮符号化に
関するものである。特に、転送レートが低い伝送媒体で
有効な低ビットレート符号化を目的とした、動画符号化
手法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to moving picture compression encoding. In particular, the present invention relates to a moving picture coding method for low bit rate coding effective on a transmission medium having a low transfer rate.

【0002】[0002]

【従来の技術】近年、パーソナルコンピュータの低価格
化、高性能化、使い易さが進み、一般大衆への普及も加
速している。まさに各家庭に1台という時代がそこまで
到来している。また、それにともないISDNなどの通
信インフラも整備され、インターネットなどにも自宅の
パーソナルコンピュータから接続する機会も増してき
た。しかし、LANなどと違いインターネットなどの広
域で比較的伝送ビットレートの高くない伝送媒体で動画
像を伝送する場合、動画像圧縮技術が不可欠になる。そ
して、動画データを受けとりながら再生する用途を考え
た場合、滑らかな画像を再生するためには、符号化装置
は伝送媒体によって制限されるビットレートを満たすよ
うに符号化しなければならない。
2. Description of the Related Art In recent years, personal computers have been reduced in price, improved in performance, and easier to use, and their use in the general public has been accelerated. The era of one in each home has just arrived. Along with that, a communication infrastructure such as ISDN has been developed, and the opportunity to connect to the Internet and the like from a personal computer at home has increased. However, when a moving image is transmitted over a transmission medium having a relatively low transmission bit rate over a wide area such as the Internet unlike a LAN or the like, a moving image compression technique is indispensable. Then, in consideration of playing back while receiving moving picture data, in order to play back a smooth image, the coding apparatus must perform coding so as to satisfy a bit rate limited by a transmission medium.

【0003】そのため、従来より多くの低ビットレート
符号化技術が考案されてきた。画像の内容に関与せずに
符号化を行なう手法では、基本的に空間情報を下げるか
時間情報を少なくするかしかない。前者のように、空間
方向のデータ圧縮率をあげると空間解像度が劣化し、再
生画像がぼやけてしまう。また後者のようにフレーム時
間辺りの伝送フレーム数を減らすと、再生画像は動きの
ギクシャクしたものとなる。
For this reason, many low bit rate coding techniques have been devised. In a method of performing encoding without being concerned with the content of an image, basically, there is no choice but to reduce spatial information or time information. As in the former case, when the data compression ratio in the spatial direction is increased, the spatial resolution is degraded, and the reproduced image is blurred. When the number of transmission frames around the frame time is reduced as in the latter case, the reproduced image becomes jerky in motion.

【0004】そこで、この問題を解決するために、動画
像の内容まで考慮し、画像1フレーム内部で重要な所に
多くのビットを割り当てる符号化がなされるようになっ
てきた。このとき、画像のどの部分を重要と見なすのか
という問題が新たに起きるが、動物体をオブジェクトと
して、画像(背景)とは別にオブジェクトにビットを割
り当てるオブジェクト符号化とよばれる手法が一般的で
ある。オブジェクト符号化は、ISO−IEC/JTC
1/SC28/WG11 にて標準化が進められている
新しいビデオ符号化方式であるMPEG4にも採用され
ている。
Therefore, in order to solve this problem, encoding has been performed in which many bits are assigned to important places within one frame of an image in consideration of the contents of a moving image. At this time, a new problem arises as to which part of the image is regarded as important. However, a method called object coding in which a moving object is used as an object and bits are assigned to the object separately from the image (background) is generally used. . Object encoding is based on ISO-IEC / JTC
It is also adopted in MPEG4 which is a new video encoding system standardized by 1 / SC28 / WG11.

【0005】オブジェクト符号化では、特に動物体を一
つのオブジェクトとして背景とは分けて符号化する。そ
の際、オブジェクト情報として、形状、色、動きをパラ
メータとして符号化し復号器側に送信する。ところが、
画像からのオブジェクトの切り出しに時間がかかるな
ど、実現には問題が残されている。
In object coding, a moving object is coded as one object separately from the background. At that time, as object information, the shape, color, and motion are encoded as parameters and transmitted to the decoder side. However,
There are still problems in realization, such as the time required to extract an object from an image.

【0006】その従来例の一つとして、背景画の静止画
からなる背景プレーン情報とその背景画上を動く動物体
プレーンとに分けて符号化伝送し、復号器側で合成し再
生画像を得るようにした特開平7- 38858がある。
この手法ではカメラの撮影を開始する前に準備期間を設
け、その期間に信号処理部で入力画像に対して背景プレ
ーンと動物体プレーンとの切り分けを行なうものであ
る。この特開平7- 38858の手法の簡単な構成図を
図18に示す。この従来の動画符号化装置は、外部から
デジタル入力画像を取り込む入力手段1001と、入力
された画像データについて信号処理をする信号処理部1
002と、背景プレーンの画像を蓄積する背景プレーン
フレームメモリ1003と、動物体プレーンの画像を蓄
積する動物体プレーンフレームメモリ1004と、背景
プレーンおよび動物体プレーンにおける静止画を符号化
する静止画エンコーダ1005と、信号処理部の出力か
ら動き情報を符号化する動き情報エンコーダ1006
と、静止画エンコーダ1005の出力と動き情報エンコ
ーダ1006の出力とから低ビットレートの圧縮画像を
出力する出力手段1007とを備えて成る。
As one of the prior art examples, background plane information consisting of a still image of a background image and a moving object plane moving on the background image are separately coded and transmitted, and a reproduced image is obtained by synthesizing at a decoder side. There is Japanese Patent Application Laid-Open No. 7-38858.
In this method, a preparation period is provided before photographing by a camera is started, and during that period, the signal processing unit separates the input image into a background plane and a moving object plane. FIG. 18 shows a simple configuration diagram of the method of Japanese Patent Application Laid-Open No. 7-38858. This conventional moving image encoding apparatus includes an input unit 1001 for receiving a digital input image from the outside, and a signal processing unit 1 for performing signal processing on input image data.
002, a background plane frame memory 1003 for storing the background plane image, a moving object plane frame memory 1004 for storing the moving object plane image, and a still image encoder 1005 for coding a still image in the background plane and the moving object plane. And a motion information encoder 1006 for encoding motion information from the output of the signal processing unit
And output means 1007 for outputting a low bit rate compressed image from the output of the still picture encoder 1005 and the output of the motion information encoder 1006.

【0007】かかる構成を有する画像符号化装置につい
て、その動作を説明する。最初に、画枠より広い範囲の
静止画を背景プレーンメモリ1003に取り込む。そし
て、背景プレーンメモリ1003に蓄えられた背景画と
入力画像の差分をとり、その値が閾値θ1以上である画
素についてさらに、前フレームの画素を差分をとる。そ
して、差分値が閾値θ2以上であるとき、その画素を動
き画素とみなす。その後、左上から右下に走査し、動き
画素を検出し8近傍の画素をみて統合していき、最終的
にいくつかの動物体を得る。そして複数の動物体プレー
ンを動物体プレーンメモリ1004に書き込んでおく。
The operation of the image coding apparatus having such a configuration will be described. First, a still image wider than the image frame is fetched into the background plane memory 1003. Then, the difference between the background image stored in the background plane memory 1003 and the input image is calculated, and for the pixels whose values are equal to or larger than the threshold value θ1, the pixels of the previous frame are further calculated. When the difference value is equal to or larger than the threshold value θ2, the pixel is regarded as a motion pixel. After that, scanning is performed from the upper left to the lower right, motion pixels are detected, and the eight neighboring pixels are integrated to finally obtain some moving objects. Then, a plurality of moving object planes are written in the moving object plane memory 1004.

【0008】以上の処理が準備期間になされる。これら
のプレーン情報は、静止画のエンコーダ1005で低圧
縮率(もしくは非圧縮)で圧縮され出力される。つぎ
に、撮影期間には、背景プレーンメモリ1003、動物
体プレーンメモリ1004に書いてある情報を使って、
背景画の位置および動物体の動き情報を検出し、それら
の情報も別に圧縮されて出力される。
The above processing is performed during a preparation period. The plane information is compressed at a low compression ratio (or uncompressed) by the still image encoder 1005 and output. Next, during the shooting period, using information written in the background plane memory 1003 and the moving object plane memory 1004,
The position of the background image and the motion information of the moving object are detected, and the information is also separately compressed and output.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、この際
に3つの問題が生じる。1つは動き物体の検出に時間が
かかることである。特開平7- 38858の手法でも、
準備期間を設けて動き物体の検出を行なっているが、一
般に動き物体(動き画素)をピクセル単位で検出してい
るために、動き画素を検出後の領域統合(マージ)の処
理に時間がかかってしまう。
However, at this time, three problems occur. One is that it takes time to detect a moving object. In the method of JP-A-7-38858,
Although a moving object is detected with a preparation period, moving objects (moving pixels) are generally detected on a pixel-by-pixel basis, so it takes time to perform area integration (merging) after detecting moving pixels. Would.

【0010】2つめの問題点として、動物体の形状及び
動きを安定して符号化することが難しいことがあげられ
る。その理由は、現フレーム内の動物体に対する次フレ
ームでの動物体の動き及び形状変化情報を符号化しなけ
ればならないからである。特開平7- 38858の手法
でも、形状が変化しないときは、特定の代表点もしくは
代表ブロックに関して動きベクトルをもとめ、それを動
き物体の動きベクトルとし、形状が変化するときには、
動き検出及び動き補償を行ない誤差分を誤差情報として
いる。
[0010] The second problem is that it is difficult to encode the shape and motion of the moving object stably. The reason is that the motion and shape change information of the moving object in the next frame with respect to the moving object in the current frame must be encoded. In the method of JP-A-7-38858, when the shape does not change, a motion vector is obtained for a specific representative point or a representative block, and the obtained motion vector is used as a motion vector of a moving object.
The motion detection and the motion compensation are performed, and the error is used as the error information.

【0011】3つめの問題点は、動物体を背景画像に重
ね合わせたときの境界付近でのノイズの問題である。そ
の理由として、動物体のエッジがきれいに揃っていない
ためピクセル単位で動物体の切り出しを行なったとして
も境界付近が汚く見えてしまうことがあげられる。結
局、切出しに動物体にも背景が混ざってしまうことが多
く境界をぼかして合成することになる。
A third problem is a noise problem near a boundary when a moving object is superimposed on a background image. The reason is that the edges of the moving object are not perfectly aligned, so that even if the moving object is cut out in pixel units, the vicinity of the boundary looks dirty. In the end, the background is often mixed with the moving object in the extraction, and the boundary is blurred and synthesized.

【0012】本発明は、上記の課題に鑑みなされたもの
で、その第1の目的は、背景画の静止画からなる背景情
報とその背景画上を動く動物体情報とに分けて符号化を
行なう低ビットレート動画符号化装置において、動き物
体の検出を高速に行なうことができるようにすることで
ある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and a first object of the present invention is to separately encode a background image consisting of a background still image and moving object information moving on the background image. An object of the present invention is to make it possible to detect a moving object at a high speed in a low bit rate moving image encoding apparatus.

【0013】本発明の第2の目的は、背景画の静止画か
らなる背景情報とその背景画上を動く動物体情報とに分
けて符号化を行なう低ビットレート動画符号化装置にお
いて、時間が経っても動き物体の検出・符号化に誤差が
生じないようにすることである。
A second object of the present invention is to provide a low bit rate moving picture coding apparatus which performs coding by dividing background information consisting of a background still picture and moving object information moving on the background picture. This is to prevent an error from occurring in detection and encoding of a moving object even after passing.

【0014】本発明の第3の目的は、背景画の静止画か
らなる背景情報とその背景画上を動く動物体情報とに分
けて符号化を行なう低ビットレート動画符号化装置にお
いて、特別なフィルタを施すことなく動物体と背景画像
の境界付近のノイズをなくすことである。
A third object of the present invention is to provide a low-bit-rate moving image encoding apparatus which performs encoding by dividing background information consisting of a background still image and moving object information moving on the background image. This is to eliminate noise near the boundary between the moving object and the background image without applying a filter.

【0015】[0015]

【課題を解決するための手段】本発明は上記第1の目的
を達成するために、第1に動物体領域検出部が、シーン
の最初にブロック単位で動きのある無し判定を行ない、
つづけてブロックベースでの領域統合を行ない動領域を
検出し、初めの動物体レイヤを出力するものである。こ
れにより、シーン最初のフレーム中から動き物体の検出
を高速に行なうことが可能になる。
According to the present invention, in order to achieve the first object, first, a moving object region detecting section performs a motionless / non-moving determination at the beginning of a scene in units of blocks.
Subsequently, a moving area is detected by performing block-based area integration, and the first moving object layer is output. This makes it possible to quickly detect a moving object from the first frame of a scene.

【0016】また、第2に動物体領域検出部は、ブロッ
クごとに動きの有る無しを判断したのち、各ブロックの
領域統合を色情報を用い行なうものである。これによ
り、同領域に属するか否かの判断に画像の連結性をみる
といった複雑な処理を必要とせず、高速にブロックの統
合を行ない動き物体の検出を行なうことが可能になる。
Second, the moving object region detecting section determines whether or not there is a motion for each block, and then performs the region integration of each block using color information. As a result, it is possible to detect a moving object by performing block integration at high speed without requiring complicated processing such as checking the connectivity of images to determine whether or not the image belongs to the same area.

【0017】次に、本発明は上記第2の目的を達成する
ために、第3に動物体レイヤ探索部は動物体レイヤの形
状を長方形とし、次のフレームのレイヤを現フレームの
レイヤ内に含まれる動物体の外周エッジを含むブロック
のみを動き予測に用い、予測で得られたブロックを包括
するような長方形を次の動物体レイヤとするものであ
る。これにより確実に、動物体を追跡・更新していくこ
とが可能になる。
Next, in order to achieve the second object of the present invention, thirdly, the moving object layer searching section sets the shape of the moving object layer to a rectangle, and places the next frame layer in the current frame layer. Only the block including the outer edge of the included moving object is used for motion prediction, and a rectangle that includes the block obtained by the prediction is set as the next moving object layer. This makes it possible to reliably track and update the moving object.

【0018】また、第4に動物体レイヤ探索部は、長方
形の動き物体レイヤ内のブロックのDCT係数から、次
のフレームのレイヤを探索するための動物体の外周エッ
ジを含むブロックを選択するものである。これにより、
さらに高速に次の動物体レイヤを検出することができ
る。
Fourthly, the moving object layer search section selects a block including the outer peripheral edge of the moving object for searching for the layer of the next frame from the DCT coefficients of the blocks in the rectangular moving object layer. It is. This allows
The next moving object layer can be detected at a higher speed.

【0019】次に、本発明は上記第3の目的を達成する
ために、第5に背景画判定補償部は、内部にメモリを有
し、デコーダ側の持っている背景情報を記憶し、入力さ
れた背景画像の動きベクトルを解析し、背景の平行移
動、拡大、縮小といった動きを検出し、新しく背景を更
新するのに必要な情報のみを出力するものである。これ
により、背景を含む動物体レイヤと背景画像の重ね合わ
せ時に、境界付近のノイズを大きく削減することが可能
となる。
Fifthly, in order to achieve the third object of the present invention, fifthly, the background image decision compensator has a memory therein, stores background information held by the decoder side, and inputs the background information. The motion vector of the background image is analyzed to detect motion such as parallel movement, enlargement and reduction of the background, and to output only information necessary for updating the background. This makes it possible to greatly reduce noise near the boundary when the moving object layer including the background and the background image are superimposed.

【0020】[0020]

【発明の実施の形態】本発明の請求項1に記載の発明
は、低ビットレート動画符号化装置を外部からデジタル
画像を取り込む入力手段と、入力した画像を蓄積するフ
レームメモリと、シーン検出部と、動物体検出部と、動
物体レイヤ探索部と、背景画判定補償部と、符号化制御
部と、エンコーダ部と、さらに出力手段とから構成した
ものであり、シーン最初のフレーム中から動き物体の検
出を高速に行なうことが可能になるという作用を有す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention according to claim 1 of the present invention provides an input means for inputting a digital image from an external device to a low bit rate moving image encoding apparatus, a frame memory for storing the input image, and a scene detecting section. And a moving object detecting unit, a moving object layer searching unit, a background image determination compensating unit, an encoding control unit, an encoder unit, and an output unit. This has the effect that the object can be detected at high speed.

【0021】本発明の請求項2に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、動
物体領域検出部が、シーンの最初にブロック単位の動領
域を検出し、初めの動物体レイヤを出力するようにした
ものであり、シーン最初のフレーム中から動き物体の検
出を高速に行なうことが可能になるという作用を有す
る。
According to a second aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the moving object region detecting section detects a moving region in block units at the beginning of the scene, The first moving object layer is output, and has an effect that a moving object can be detected at high speed from the first frame of a scene.

【0022】本発明の請求項3に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、動
物体領域検出部は、ブロックごとに動きの有る無しを判
断し、さらに色情報を用い領域統合を行なうようにした
ものであり、同領域に属するか否かの判断に画像の連結
性をみるといった複雑な処理を必要とせず、高速にブロ
ックの統合を行ない動き物体の検出を行なうことが可能
になるという作用を有する。
According to a third aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the moving object region detecting section determines whether or not there is a motion for each block, and further performs color coding. Region integration is performed using information, and does not require complicated processing such as checking the connectivity of images to determine whether or not they belong to the same region. Is performed.

【0023】本発明の請求項4に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、動
物体レイヤ探索部は、動物体レイヤの形状を長方形と
し、次のフレームのレイヤを現フレームのレイヤ内のブ
ロックの動きから作成したものであり、確実に、動物体
を追跡・更新していくことが可能になるという作用を有
する。
According to a fourth aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the moving object layer searching section sets the moving object layer to a rectangular shape, and The layer is created from the motion of the blocks in the layer of the current frame, and has an effect that the moving object can be reliably tracked and updated.

【0024】本発明の請求項5に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、動
物体レイヤ探索部は、長方形の動物体レイヤ内のブロッ
クのDCT係数から、次のフレームのレイヤを探索する
ためのブロックを選択するようにしたものであり、さら
に高速に次の動物体レイヤを検出することができるとい
う作用を有する。
According to a fifth aspect of the present invention, in the low bit-rate moving image encoding apparatus according to the first aspect, the moving object layer searching unit determines a DCT coefficient of a block in the rectangular moving object layer from the following. A block for searching for a layer of the next frame is selected, and has an effect that the next moving object layer can be detected at a higher speed.

【0025】本発明の請求項6に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、背
景画判定補償部は、内部にメモリを有し、デコーダ側の
持っている背景情報を記憶し、新しく背景を更新するの
に必要な情報のみを出力するようにしたものであり、背
景を含む動物体レイヤと背景画像の重ね合わせ時に、境
界付近のノイズを大きく削減することが可能となるとい
う作用を有する。
According to a sixth aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the background image decision compensating section has a memory therein and has a decoder side. The background information is stored and only the information necessary to update the new background is output, and when the moving object layer including the background is superimposed on the background image, the noise near the boundary is greatly reduced. This has the effect that it becomes possible.

【0026】本発明の請求項7に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、背
景画判定補償部は、背景画像の動きベクトルを解析し、
背景の平行移動、拡大、縮小といった動きを検出するよ
うにしたものであり、背景を含む動物体レイヤと背景画
像の重ね合わせ時に、境界付近のノイズを大きく削減す
ることが可能となるという作用を有する。
According to a seventh aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the background image decision compensator analyzes a motion vector of the background image,
It detects motions such as parallel translation, enlargement, and reduction of the background, and has the effect of greatly reducing noise near the boundary when superimposing a background image with a moving object layer including the background. Have.

【0027】本発明の請求項8に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、動
物体レイヤ探索部によって切り出された長方形レイヤに
は背景情報が含まれており、背景画判定補償部は、背景
の平行移動及び拡大縮小を検出し補償することによっ
て、再生時に動物体レイヤと補償した背景画像との境界
のノイズを発生させないようにしたものであり、背景を
含む動物体レイヤと背景画像の重ね合わせ時に、境界付
近のノイズを大きく削減することが可能となるという作
用を有する。
According to an eighth aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the rectangular layer cut out by the moving object layer search unit includes background information. The background image determination / compensation unit detects and compensates for parallel movement and enlargement / reduction of the background so that noise at the boundary between the moving object layer and the compensated background image is not generated during reproduction. This has an effect that it is possible to greatly reduce noise near the boundary when superimposing the moving object layer and the background image.

【0028】本発明の請求項9に記載の発明は、請求項
1に記載の低ビットレート動画符号化装置において、シ
ーン検出部が、シーンの変わり目を検出し、シーンをピ
クチャグループ単位として符号化処理を行なうようにし
たものである。
According to a ninth aspect of the present invention, in the low bit rate moving image encoding apparatus according to the first aspect, the scene detecting section detects a scene change and encodes the scene in a picture group unit. The processing is performed.

【0029】以下、本発明の実施の形態について、添付
の図面を参照しながら説明する。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

【0030】(実施の形態1)第1の発明の実施の形態
である動物体領域検出部は、デジタル入力画像を低ビッ
トレートの画像に変換して出力する低ビットレート動画
符号化装置の中で実施されている。図1は、本発明の第
1の実施の形態に係る低ビットレート動画符号化装置の
構成を示すブロック図である。この実施の形態に係る低
ビットレート動画符号化装置は、外部からデジタル入力
画像を取り込む入力手段101と、入力された画像デー
タのシーンの変わり目を検出するシーン検出部102
と、画像を蓄積するフレームメモリ104とが接続され
ている。さらにフレームメモリ104には、画像中の動
物体を検出する動物体検出部105と、それぞれのフレ
ームについて動物体レイヤを探索する動物体レイヤ探索
部106と、それぞれのフレームについて背景画の動き
を解析する背景画判定補償部107とが接続される。1
08は画像データの符号化処理動作を制御する符号化制
御部であり、この符号化制御部108は、シーン検出部
102と、動物体検出部105と、動物体レイヤ探索部
106と、背景画判定補償部107と、画像データの符
号化処理を行なうエンコーダ部109に接続される。エ
ンコーダ部109は、さらに低ビットレート圧縮画像を
出力する出力手段110とフレームメモリ104に接続
されている。
(Embodiment 1) A moving object region detection unit according to an embodiment of the first invention is a low bit rate moving picture encoding apparatus which converts a digital input image into a low bit rate image and outputs the image. Has been implemented. FIG. 1 is a block diagram showing a configuration of a low bit rate video encoding device according to the first embodiment of the present invention. A low bit rate moving image encoding apparatus according to this embodiment includes an input unit 101 that receives a digital input image from the outside, and a scene detection unit 102 that detects a transition of a scene of input image data.
And a frame memory 104 for storing images. Further, the frame memory 104 includes a moving object detecting unit 105 that detects a moving object in an image, a moving object layer searching unit 106 that searches for a moving object layer for each frame, and analyzes a motion of a background image for each frame. And a background image determination compensating unit 107 to be connected. 1
Reference numeral 08 denotes an encoding control unit that controls the encoding operation of image data. The encoding control unit 108 includes a scene detection unit 102, a moving object detection unit 105, a moving object layer search unit 106, a background image It is connected to a decision compensating unit 107 and an encoder unit 109 that performs image data encoding processing. The encoder unit 109 is further connected to an output unit 110 for outputting a low bit rate compressed image and the frame memory 104.

【0031】かかる構成を有する低ビットレート動画符
号化装置の概要について説明する。本装置はデジタル入
力画像を低ビットレートの画像に変換して出力する装置
である。動物体検出部105は、入力画像からフレーム
内に含まれる動物体の検出を行なう。動物体とは、動画
シーケンスで動きを持った連続した部分のことである。
例えば、野球放送での投手が動物体に相当する。ここで
1シーン内での背景画と動物体レイヤは分離される。動
物体レイヤとは、動物体を含む長方形の画像のことで、
背景画とはフレームから動物体レイヤを除いた部分のこ
とである。
An outline of a low bit rate moving picture coding apparatus having such a configuration will be described. This device is a device for converting a digital input image into a low bit rate image and outputting the converted image. The moving object detection unit 105 detects a moving object included in the frame from the input image. A moving object is a continuous part having motion in a moving image sequence.
For example, a pitcher in a baseball broadcast corresponds to a moving object. Here, the background image and the moving object layer in one scene are separated. The moving object layer is a rectangular image containing the moving object.
The background image is a portion obtained by removing the moving object layer from the frame.

【0032】エンコーダ部109は、シーンの最初のフ
レームでは、背景画、動物体レイヤともそのまま符号化
送出する。2フレーム以降、動物体レイヤ探索部106
は各フレームごとに動物体レイヤを探索し、動物体レイ
ヤのフレーム内での位置及び大きさ情報をエンコーダ部
109に送る。また背景画判定補償部107は各フレー
ムごとに背景画の動きを解析し、動き情報をエンコーダ
部109に送る。エンコーダ部109では、送られたこ
れらの情報から必要となる画像の部分をフレームメモリ
104から読み出し符号化送出する。シーンが切り替わ
ると、動物体検出部105は、また新たな動物体の検出
を行ない処理が繰り返される。
In the first frame of the scene, the encoder unit 109 encodes and transmits both the background image and the moving object layer as they are. After the second frame, the moving object layer search unit 106
Searches the moving object layer for each frame, and sends the position and size information of the moving object layer in the frame to the encoder unit 109. Further, the background image determination compensation unit 107 analyzes the motion of the background image for each frame, and sends motion information to the encoder unit 109. The encoder unit 109 reads a necessary image portion from the transmitted information from the frame memory 104, and encodes and transmits the read image portion. When the scene is switched, the moving object detection unit 105 detects a new moving object and the processing is repeated.

【0033】本実施の形態に係る低ビットレート動画符
号化装置は、背景情報と動物体情報を切り分け、背景は
シーンの中で最初に1度しか送らず後は背景補償により
更新する。また動物体レイヤは、フレームごとに更新す
るので、画像の内容を考慮せずフレームを一様に符号化
する装置に比べ、得られる画像は同じビットレートでも
高画質であり、動きも滑らかであるという特徴をもつ。
The low bit rate moving picture encoding apparatus according to the present embodiment separates background information and moving object information, and transmits the background only once at the beginning of a scene, and thereafter updates the background by background compensation. In addition, since the moving object layer is updated for each frame, compared to a device that uniformly encodes a frame without considering the content of the image, the obtained image has a high image quality even at the same bit rate, and the motion is smooth. It has the characteristic.

【0034】次に本装置の全体の動作について図2のフ
ローチャートを用いて説明する。 ステップ101: まず、入力手段101が非圧縮デジタ
ル画像を、順次入力する。 ステップ102: フレームメモリ104に書き込む。 ステップ103: シーン検出部102は、連続的に入力
される画像からシーンの大きく変わるフレームを検出
し、フレーム番号を符号化制御部108に伝える。 ステップ104: 動物体検出部105は、符号化制御部
108からシーンの切り替わる先頭フレームの番号を受
け、受けとった番号及びその次の番号のフレームをフレ
ームメモリ104から読み出す。 ステップ105: 動物体検出部105は、読み出したフ
レームから一連のシーンの中で動物体としてエンコード
すべき物体を定め、その物体を包括する長方形の動物体
レイヤ情報を符号化制御部108に送る。 ステップ106: 動物体レイヤ探索部106と背景画判
定補償部107は、符号化制御部108からシーン終了
の信号を受けとるまで、 ステップ107: 動物体レイヤ探索部106は、符号化
制御部108から動物体レイヤに関する情報を受け、フ
レームメモリ104から一連のシーンに属するフレーム
を順番に読み出し、フレームごとに動物体レイヤを探索
していく。そして動物体レイヤに関する情報を符号化制
御部108に送る。 ステップ108: また、背景画判定補償部107は、動
物体検出部105が受けとったシーンの切り替わるフレ
ーム番号(ステップ104)と同じシーンの切り替わる
先頭フレームの番号を符号化制御部108から受け、フ
レームメモリ104から一連のシーンに属するフレーム
を順番に読み出し、シーン内での背景画の動きを判定
し、背景画の動き情報を符号化制御部108に送る。 ステップ108: 符号化制御部108は、動物体検出部
105及び動物体レイヤ探索部106から受け取ったレ
イヤ情報をエンコーダ部109に送る。 ステップ110: エンコーダ部109はそのレイヤ情
報をもとに、データをフレームメモリ104から読み出
し、動物体レイヤのエンコードを行なう。 ステップ111: また、符号化制御部108は、背景
画の動き情報をエンコーダ部109に送る。 ステップ112: エンコーダ部109はその背景の動
き情報をもとに、データをフレームメモリ104から読
み出しエンコードを行なう。 ステップ113: エンコーダ部109は、動物体レイ
ヤの符号化情報と背景画の動き符号化情報を多重し一つ
のストリームとする。 ステップ114: 出力手段110 は、エンコーダ部1
09においてエンコードしたデータを、本装置外部へ出
力する。 ステップ115: 入力データがなくなるまで次のシーン
に対して処理を繰り返す。
Next, the overall operation of the present apparatus will be described with reference to the flowchart of FIG. Step 101: First, the input means 101 sequentially inputs uncompressed digital images. Step 102: Write to the frame memory 104. Step 103: The scene detection unit 102 detects a frame in which the scene changes greatly from the continuously input image, and transmits the frame number to the encoding control unit 108. Step 104: The moving object detection unit 105 receives the number of the first frame at which the scene is switched from the encoding control unit 108, and reads the received number and the next numbered frame from the frame memory 104. Step 105: The moving object detection unit 105 determines an object to be encoded as a moving object in a series of scenes from the read frame, and sends rectangular object layer information including the object to the encoding control unit 108. Step 106: The moving object layer search unit 106 and the background image determination / compensation unit 107 receive the scene end signal from the encoding control unit 108. Upon receiving information about the body layer, frames belonging to a series of scenes are sequentially read from the frame memory 104, and a moving object layer is searched for each frame. Then, information on the moving object layer is sent to the encoding control unit 108. Step 108: The background image determination / compensation unit 107 receives from the encoding control unit 108 the same scene switching frame number (step 104) as the scene switching frame number received by the moving object detection unit 105 from the encoding control unit 108, and Frames belonging to a series of scenes are sequentially read from 104, the motion of the background image in the scene is determined, and the motion information of the background image is sent to the encoding control unit 108. Step 108: The encoding control unit 108 sends the layer information received from the moving object detecting unit 105 and the moving object layer searching unit 106 to the encoder unit 109. Step 110: The encoder unit 109 reads data from the frame memory 104 based on the layer information and encodes the moving object layer. Step 111: The encoding control unit 108 sends the motion information of the background image to the encoder unit 109. Step 112: The encoder 109 reads data from the frame memory 104 and encodes the data based on the background motion information. Step 113: The encoder unit 109 multiplexes the coding information of the moving object layer and the motion coding information of the background image into one stream. Step 114: The output unit 110 is the encoder unit 1
In step 09, the encoded data is output to the outside of the apparatus. Step 115: The process is repeated for the next scene until there is no more input data.

【0035】以上のようにして、低ビットレート動画符
号化装置は高画質な低ビットレート圧縮画像を生成す
る。次に動物体検出部105における動物体レイヤ情報
の検出法( ステップ104, ステップ105) について
図3を用いて詳しく説明する。動物体検出部105は、
符号化制御部108からシーンの切り替わる先頭フレー
ムの番号を受け、受けとった番号及びその次の番号のフ
レームをフレームメモリ104から読み出す。シーンの
先頭のフレームをフレーム0、その次のフレームをフレ
ーム1と呼ぶことにする。動物体検出部105は、フレ
ーム0とフレーム1の画素毎の差分を求める。ただし、
負の値は絶対値をとるものとする。そしてある閾値を定
めその閾値を越える画素を各ブロック毎に数えあげる。
このとき、閾値を越える画素の数が一定値以上であった
ブロックを動ブロックとする。なお、動ブロックの検出
には動きベクトルの大きさなどを用いることもできる。
As described above, the low bit rate moving image coding apparatus generates a high quality low bit rate compressed image. Next, a method of detecting the moving object layer information in the moving object detecting unit 105 (Steps 104 and 105) will be described in detail with reference to FIG. The moving object detection unit 105 includes:
The number of the first frame at which the scene is switched is received from the encoding control unit 108, and the received number and the next numbered frame are read from the frame memory 104. The first frame of the scene is called frame 0, and the next frame is called frame 1. The moving object detection unit 105 obtains a difference between each pixel of the frame 0 and the frame 1. However,
Negative values are absolute values. Then, a certain threshold value is determined, and pixels exceeding the threshold value are counted for each block.
At this time, a block in which the number of pixels exceeding the threshold is equal to or more than a certain value is set as a moving block. Note that the size of a motion vector can also be used for detecting a moving block.

【0036】次に動物体検出部105は、フレーム中の
動ブロックをサーチし、動ブロックXを検出するとその
動ブロックXがまだ領域番号を得ていなければ、領域番
号を割り当てる。そしてその動ブロックXの近傍のブロ
ックを調べ、もしすでに近傍のブロックが領域番号を取
得していたら、近傍のブロックと同じ領域番号を動ブロ
ックにつけ直す。このようにして、順番にすべての動ブ
ロックを検出していくことで、近隣の動ブロックをマー
ジし、いくつかの領域に分割する。ただし、この領域分
割法は、発見的手法であり、どういう順番でサーチする
か、また近傍をどの程度とするかで領域分割の結果が変
わってきてしまう。
Next, the moving object detection unit 105 searches for a moving block in the frame, and when detecting the moving block X, if the moving block X has not yet obtained an area number, assigns an area number. Then, a block in the vicinity of the moving block X is checked, and if a neighboring block has already acquired an area number, the same block number as the neighboring block is re-assigned to the moving block. In this way, by detecting all moving blocks in order, neighboring moving blocks are merged and divided into several regions. However, this region division method is a heuristic method, and the result of region division changes depending on the order in which to search and the extent of the neighborhood.

【0037】そこで、領域統合(併合)法ではなく、ブ
ロックの中の画素の値をブロックの特徴量として使い、
各特徴量ごとに軸をもつ空間に写像し分割を行なう領域
分割法を用いてもよい。図3では、3つの領域に分割さ
れているが領域( b)、(c)は、小さいので動物体領
域とはみなさないことにする。ここで動物体領域か否か
の判定には、その領域に含まれる動ブロックの数で行な
うものとする。つづいて動物体検出部105は、検出し
た動物体領域にいくつかのブロックを加え、長方形の動
領域レイヤを決定する。
Therefore, instead of the area integration (merging) method, the values of the pixels in the block are used as the feature values of the block.
A region division method of performing mapping by dividing into a space having an axis for each feature amount and performing division may be used. In FIG. 3, although the area is divided into three areas, the areas (b) and (c) are small and are not regarded as a moving object area. Here, the determination as to whether or not the area is a moving object area is made based on the number of moving blocks included in the area. Subsequently, the moving object detection unit 105 adds some blocks to the detected moving object region, and determines a rectangular moving region layer.

【0038】以上のように、動物体検出部105はブロ
ック単位での動物体検出を行なうことにより、高速に動
物体レイヤを切り出すことが可能である。
As described above, the moving object detecting unit 105 can cut out the moving object layer at a high speed by detecting the moving object in block units.

【0039】(実施の形態2)第2の発明の実施の形態
である動物体領域検出部は、デジタル入力画像を低ビッ
トレートの画像に変換して出力する低ビットレート動画
符号化装置の中で実施されている。低ビットレート動画
符号化装置は、動物体領域検出部を除いて実施の形態1
の低ビットレート動画符号化装置と全く同じものであ
る。
(Embodiment 2) A moving object region detection unit according to an embodiment of the second invention is a low bit rate moving image encoding apparatus which converts a digital input image into a low bit rate image and outputs the image. Has been implemented. Embodiment 1 of the low bit rate moving image encoding apparatus except for a moving object region detection unit
Is exactly the same as the low-bit-rate moving image coding apparatus of FIG.

【0040】本実施例における動物体検出部の動物体レ
イヤ情報の検出法について説明する。本実施例における
動物体検出部も領域統合までは、実施の形態1の動物体
検出部105と同じくブロック単位で処理を行なう。と
ころが、本実施例における動物体検出部は領域の過分割
による動物体の検出ミスを減らすことができる。
A method of detecting the moving object layer information of the moving object detecting unit in this embodiment will be described. The moving object detection unit in the present embodiment also performs processing in block units until the region integration, similarly to the moving object detection unit 105 of the first embodiment. However, the moving object detection unit according to the present embodiment can reduce the detection error of the moving object due to excessive division of the area.

【0041】動物体検出部は、領域統合によっていくつ
かの領域に分割したのち、各領域の色情報と周囲のブロ
ックの色情報との相関度を調べ領域を成長させていく。
各ブロックでは輝度Y、及び色差Cr,Cbを持ってい
る。そこで各領域で輝度Y、及び色差Cr,Cbごとに
それぞれヒストグラムを作成する。階級の幅は大きめに
設定し度数が最大となる階級の中心値をそのブロックの
代表値とする。輝度Y、及び色差Cr,Cbの代表値か
ら、領域における代表色ベクトルを求めることができ
る。
The moving object detecting section divides the area into several areas by area integration, and then examines the degree of correlation between the color information of each area and the color information of surrounding blocks to grow the area.
Each block has a luminance Y and color differences Cr and Cb. Therefore, a histogram is created for each of the luminance Y and the color differences Cr and Cb in each area. The width of the class is set to be relatively large, and the center value of the class with the highest frequency is set as the representative value of the block. From the luminance Y and the representative values of the color differences Cr and Cb, a representative color vector in the region can be obtained.

【0042】動ブロックと認定されなかったブロックに
対しても、ブロックの代表色ベクトルを求めることがで
き、動物体検出部は各領域とその周囲のブロックの代表
色ベクトルを比較する。比較基準としては、領域の代表
色ベクトルからブロックの代表色ベクトルを引くことに
より得られるベクトルの大きさを用いる。この値が閾値
以下であった場合に、ブロックは領域に取り入れられ
る。なお、色情報としては代表色ベクトルの代わりに、
ブロック内の各ピクセルの色差の平均値などを用いるこ
とができる。
A representative color vector of a block that has not been recognized as a moving block can be obtained, and the moving object detection unit compares the representative color vector of each area with the surrounding blocks. The magnitude of the vector obtained by subtracting the block representative color vector from the region representative color vector is used as a comparison reference. If this value is less than or equal to the threshold, the block is taken into the region. As the color information, instead of the representative color vector,
For example, an average value of the color difference of each pixel in the block can be used.

【0043】次に、具体例として、ある背景の中を一様
な色をもつボールが右に飛んでいるシーンにおける動物
体検出を図4を用いて説明する。最初に動ブロックを検
出するために、フレーム0とフレーム1の差分画像を求
める。差分画像中の黒い点は、両フレームの画素値の差
が閾値以上である画素を示す。ノイズやカメラのぶれな
どが充分小さい場合、静止物体と思われるような位置に
も画素値の差が閾値以上である画素が現れる。ところが
これらの画素は、1ブロック中に含まれる数が少ないの
で動ブロックにはならないことが多い。結局、4つの動
ブロックが得られる。
Next, as a specific example, detection of a moving object in a scene in which a ball having a uniform color is flying to the right in a certain background will be described with reference to FIG. First, in order to detect a moving block, a difference image between frame 0 and frame 1 is obtained. The black dots in the difference image indicate pixels for which the difference between the pixel values of both frames is equal to or greater than a threshold. When noise, camera shake, and the like are sufficiently small, a pixel having a pixel value difference equal to or larger than a threshold appears at a position considered to be a stationary object. However, these pixels are not often included in a moving block because the number of pixels included in one block is small. As a result, four motion blocks are obtained.

【0044】図4の下段が動ブロックの位置を拡大した
ものである。領域統合処理により、領域a ,領域bの二
つの動領域が得られる。しかし、これらは実際には同じ
物体でり、ボール内部の平坦な領域も動物体に加えられ
なければならない。領域統合処理により得られた動領域
a, bは、それぞれボールのエッジを含む部分であり背
景情報も含んでいる。しかし、ヒストグラムに基づく代
表色ベクトルは、ボール部分の画素のものと等しくな
る。また、逆に背景のみを含むブロックは、それとは異
なる代表色ベクトルを持つことが予想される。動物体検
出部は、領域a,bと周囲のブロックの代表色ベクトル
の相関度をチェックし、その結果ふたつの領域と似た代
表色ベクトルを持つ領域a, bの間に挟まれた二つのブ
ロックを領域に加え、二つの領域a, bを一つの領域に
マージする。
The lower part of FIG. 4 is an enlarged view of the position of the moving block. By the region integration processing, two moving regions, a region a and a region b, are obtained. However, they are actually the same object, and a flat area inside the ball must also be added to the moving object. The moving regions a and b obtained by the region integration processing are portions including the edge of the ball and also include background information. However, the representative color vector based on the histogram is equal to that of the pixel in the ball portion. Conversely, a block including only the background is expected to have a different representative color vector. The moving object detection unit checks the correlation between the regions a and b and the representative color vectors of the surrounding blocks, and as a result, two regions sandwiched between the regions a and b having the representative color vectors similar to the two regions. The block is added to the area, and the two areas a and b are merged into one area.

【0045】以上のように、動物体検出部105は動物
体領域検出の際にブロックの色情報を用いることで、動
物体内の平坦な領域の検出洩れをなくすことができる。
As described above, by using the color information of the block when detecting the moving object area, the moving object detection unit 105 can eliminate the omission of detection of a flat area in the moving object.

【0046】(実施の形態3)第3の発明の実施の形態
である動物体レイヤ探索部は、デジタル入力画像を低ビ
ットレートの画像に変換して出力する低ビットレート動
画符号化装置の中で実施されている。低ビットレート動
画符号化装置は、実施の形態1の低ビットレート動画符
号化装置と全く同じものである。
(Embodiment 3) A moving object layer search unit according to an embodiment of the third invention is a moving image encoding apparatus for converting a digital input image into a low bit rate image and outputting the converted image. Has been implemented. The low bit rate video encoding device is exactly the same as the low bit rate video encoding device of the first embodiment.

【0047】動物体レイヤ探索部106における動物体
レイヤ探索方法( ステップ107)について図5のフロ
ーチャートを用いて詳しく説明する。 ステップ201: 動物体レイヤ探索部106は、符号
化制御部108からシーンの切り替わる先頭フレームの
番号を受けとり、 ステップ202: フレームメモリ104から一連のシ
ーンに属するフレームを順番に読みだす。ただし、シー
ンの先頭のフレームをフレーム0とし以後のフレームは
順番に番号が加算されるものとする。 ステップ203: 動物体レイヤ探索部106は、符号
化制御部108からフレーム0の動物体レイヤに関する
情報を受けとる。 ステップ204: フレームnの動物体レイヤをブロック
に分割する。ただし、nの初期値はシーンの先頭フレー
ムである0である。 ステップ205: 動物体レイヤ探索部106は、フレ
ームnの動物体レイヤ内の各ブロックとフレームn+1
との間でブロックマッチングを行ない、フレームn+
1 内でブロックのマッチした位置を記憶する。ただ
し、フレームn の動物体レイヤ内のブロックのうちブロ
ックマッチングに使われるのは濃淡値の変化のあるブロ
ックに限定する。 ステップ206: 動物体レイヤ探索部106は、フレ
ームn+1内でブロックとマッチした位置をすべて包括
するようにフレームn+1の動物体レイヤを作成し、 ステップ207: 動物体レイヤのフレーム内での位置
と大きさを動物体レイヤ情報として、符号化制御部10
8に送る。 ステップ208: 動物体レイヤ探索部106は、符号
化制御部108からシーンの終了の信号を受けとるまで
処理を繰り返す。
The moving object layer searching method (step 107) in the moving object layer searching unit 106 will be described in detail with reference to the flowchart of FIG. Step 201: The moving object layer search unit 106 receives the number of the first frame at which a scene is switched from the encoding control unit 108, and reads out frames belonging to a series of scenes from the frame memory 104 in order. However, it is assumed that the first frame of the scene is frame 0 and the subsequent frames are sequentially numbered. Step 203: The moving object layer search unit 106 receives information on the moving object layer of frame 0 from the encoding control unit 108. Step 204: Divide the moving object layer of the frame n into blocks. However, the initial value of n is 0, which is the first frame of the scene. Step 205: The moving object layer searching unit 106 checks each block in the moving object layer of the frame n and the frame n + 1.
And block matching between frame n +
1 stores the matched position of the block. However, among the blocks in the moving object layer of frame n, those used for block matching are limited to blocks having a change in gray value. Step 206: The moving object layer search unit 106 creates a moving object layer of the frame n + 1 so as to include all positions matching the blocks in the frame n + 1. Step 207: Position and size of the moving object layer in the frame The encoding control unit 10 uses the
Send to 8. Step 208: The moving object layer searching section 106 repeats the processing until receiving the signal of the end of the scene from the encoding control section 108.

【0048】つぎに、フレームnの動物体レイヤ内のブ
ロックのうちブロックマッチングに使われる濃淡値の変
化のあるブロックについての説明を行なう。動物体レイ
ヤ内のブロックすべてでブロックマッチングを行なって
も、次の動物体検出にはあまり効果はない。その理由
は、一つには動物体の外枠を知りたいということと、も
う一つは動物体内部は平坦で正確な動きベクトルを得難
いということがある。それゆえ、動物体の外枠のエッジ
を含んだブロックを動き予測に用いるのが効果的であ
る。エッジ検出には一般的なDOG(Differen
tial of Gaussian)フィルタなどを用
いる。画像とDOG 関数のコンボリューションにより、画
像のエッジのところでゼロクロッシングがおきる。よっ
てゼロクロッシング点をもつブロックを検出しブロック
マッチングに用いる。
Next, among the blocks in the moving object layer of the frame n, the blocks used in the block matching and having a change in the gray value will be described. Even if block matching is performed on all the blocks in the moving object layer, the next moving object detection is not so effective. One reason is that one wants to know the outer frame of the moving object, and the other is that it is difficult to obtain an accurate motion vector because the inside of the moving object is flat. Therefore, it is effective to use a block including the edge of the outer frame of the moving object for motion prediction. A general DOG (Differen) is used for edge detection.
Tial of Gaussian) filter or the like is used. The convolution of the image and the DOG function results in zero crossings at the edges of the image. Therefore, a block having a zero crossing point is detected and used for block matching.

【0049】次に、具体例として背景中を雲が形を変え
ながら動くシーンにおける動物体レイヤ検出を図6を用
いて行なう。フレーム0の動物体レイヤの中から周囲の
10ブロック(a〜j)をブロックマッチングに用い
る。その結果、フレーム1とのマッチングしたポイント
が図6中央に示される。ここで、gブロックは、hブロ
ックと重なり間違ったポイントを選んでしまっている。
しかし、a〜jのブロックとマッチしたブロックを包括
するような長方形が、フレーム1の動物体レイヤとな
る。
Next, as a specific example, a moving object layer detection in a scene in which a cloud moves while changing its shape in the background is performed with reference to FIG. The surrounding 10 blocks (a to j) from the moving object layer of frame 0 are used for block matching. As a result, a point that matches frame 1 is shown in the center of FIG. Here, the g block overlaps with the h block and has selected an incorrect point.
However, a rectangle that includes blocks matching the blocks a to j becomes the moving object layer of the frame 1.

【0050】以上のように、動物体レイヤ探索部106
は動物体レイヤの形状を長方形に限定し、動物体レイヤ
内のエッジを含んだブロックをブロックマッチングに使
い、次の動物体レイヤの探索を行なうので、動物体の形
状変化の際にも安定して検出を行なうことができる。ま
た、マッチしたブロックを包括するような長方形を次の
動物体レイヤとすることで、マッチングにおける多少の
誤差に対しても安定して動物体レイヤを得ることができ
る。
As described above, the moving object layer search unit 106
Limits the shape of the moving object layer to a rectangle, uses the block containing the edge in the moving object layer for block matching, and searches for the next moving object layer, so it is stable even when the shape of the moving object changes. Detection can be performed. Further, by setting a rectangle that includes the matched block as the next moving object layer, a moving object layer can be stably obtained even with a slight error in matching.

【0051】(実施の形態4)第4の発明の実施の形態
である動物体レイヤ探索部は、デジタル入力画像を低ビ
ットレートの画像に変換して出力する低ビットレート動
画符号化装置の中で実施されている。ただし、本実施例
でのデジタル入力画像は、DVフォーマットである。D
Vフォーマットは、1886年に制定されたビデオカセ
ットレコーダ向けの規格である、「Specifica
tions of Consumer−Use Dig
ital VCRs(HD Digital VCR
Conference,1886) 」に準拠した規格で
あり、ブロック単位でDCT が施されている。
(Embodiment 4) A moving object layer search unit according to an embodiment of the fourth invention is a moving image encoding apparatus for converting a digital input image into a low bit rate image and outputting the converted image. Has been implemented. However, the digital input image in the present embodiment is in the DV format. D
The V format is a standard for video cassette recorders established in 1886, "Specifica".
Tions of Consumer-Use Dig
ital VCRs (HD Digital VCR
Conference, 1886) ”, and DCT is performed in block units.

【0052】図7は本実施例における動画像変換装置の
構成を示す構成図であり、この図を用いて本装置の構成
について説明する。この動画像変換装置では、外部から
画像を取り込む入力手段201と、シーン検出部202
と、画像をデコードするDVデコード部203が接続さ
れ、さらにDVデコード部203には画像を蓄積するフ
レームメモリ204が接続され、動物体検出部205
と、動物体レイヤ探索部206と、背景画判定補償部2
07が接続される。符号化制御部208は、シーン検出
部202と、動物体検出部205と、動物体レイヤ探索
部206と、背景画判定補償部207と、エンコーダ部
209と接続される。エンコーダ部209は、さらに出
力手段210とフレームメモリ204と接続されてい
る。また、フレームメモリ211 は、入力手段201
と動物体レイヤ探索部206と接続されている。シーン
検出部202と動物体レイヤ探索部206以外は、実施
の形態1のモジュールと同じものである。
FIG. 7 is a block diagram showing the configuration of the moving picture conversion apparatus according to this embodiment. The configuration of this apparatus will be described with reference to FIG. In this moving image conversion apparatus, an input means 201 for taking in an image from the outside, a scene detection unit 202
And a DV decoding unit 203 for decoding the image, and a frame memory 204 for storing the image is connected to the DV decoding unit 203.
Moving object layer search unit 206, background image determination compensation unit 2
07 is connected. The encoding control unit 208 is connected to the scene detection unit 202, the moving object detection unit 205, the moving object layer search unit 206, the background image determination compensation unit 207, and the encoder unit 209. The encoder unit 209 is further connected to the output unit 210 and the frame memory 204. Further, the frame memory 211 stores the input means 201.
And the moving object layer search unit 206. The components other than the scene detection unit 202 and the moving object layer search unit 206 are the same as the modules of the first embodiment.

【0053】シーン検出部202はDVフォーマットの
データを入力とし、DVフォーマットのデータから直接
シーンの変わり目を検出することができる。また、DV
フォーマットを入力とするため、DVフォーマットを非
圧縮の画像データに戻すためのDVデコード部203
と、入力手段201の出力を保持しておくためのフレー
ムメモリ211が新たに必要となる。
The scene detecting section 202 receives DV format data as input and can directly detect a scene change from the DV format data. Also, DV
DV decoder 203 for returning the DV format to uncompressed image data in order to input the format
And a frame memory 211 for holding the output of the input means 201 is newly required.

【0054】次に本装置の全体の動作について図8のフ
ローチャートを用いて説明する。 ステップ501: まず、入力手段201がDVフォー
マットの入力画像を順次入力し、 ステップ502: フレームメモリ211にブロック毎
にDCT係数を書き込む。 ステップ503: DVデコード部203は、連続的に
入力される画像を順番にデコードし、フレームメモリ2
04に書き込む。 ステップ504: シーン検出部202は、連続的に入
力されるbv画像からシーンの大きく変わるフレームを
検出し、フレーム番号を符号化制御部208に伝える。 ステップ505: 動物体検出部205は、符号化制御
部208からシーンの切り替わる先頭フレームの番号を
受け、受けとった番号及びその次の番号のフレームをフ
レームメモリ204から読み出す。 ステップ506: 動物体検出部205は、読み出した
フレームから一連のシーン の中で動物体としてエンコ
ードすべき物体を定め、その物体を包括する長方形のレ
イヤ情報を符号化制御部208に送る。 ステップ507: 動物体レイヤ探索部206と背景画
判定補償部207は、符号化制御部208からシーン終
了の信号を受けとるまで、 ステップ508: 動物体レイヤ探索部206は、符号
化制御部208から動物体レイヤに関する情報を受け、
フレームメモリ204から一連のシーンに属するフレー
ムを順番に読み出し、フレームごとに動物体レイヤを探
索していく。その際、フレームメモリ211からも動物
体レイヤとおなじ領域にあるDCTブロックデータを読
み出す。そして求まった動物体レイヤに関する情報を符
号化制御部208に送る。 ステップ509: また、背景画判定補償部207は、
動物体検出部205が受けとったシーンの切り替わるフ
レーム番号(ステップ505)と同じシーンの切り替わ
る先頭フレームの番号を符号化制御部208から受け、
フレームメモリ204から一連のシーンに属するフレー
ムを順番に読み出し、シーン内での背景画の動きを判定
し、背景画の動き情報を符号化制御部208に送る。 ステップ510: 符号化制御部208は、動物体検出
部205及び動物体レイヤ探索部206から受け取った
レイヤ情報をエンコーダ部209に送り、 ステップ511: エンコーダ部209はそのレイヤ情
報をもとに、データをフレームメモリ204から読み出
し、動物体レイヤのエンコードを行なう。 ステップ512: また、符号化制御部208は、背景
画の動き情報をエンコーダ部209に送り、 ステップ513: エンコーダ部はその背景の動き情報
をもとに、データをフレームメモリ204から読み出し
エンコードを行なう。 ステップ514: エンコーダ部209は、動物体レイ
ヤの符号化情報と背景画の動き符号化情報を多重し一つ
のストリームとする。 ステップ515: 出力手段210は、エンコーダ部2
09においてエンコードしたデータを、本装置外部へ出
力する。 ステップ516: 入力データがなくなるまで次のシー
ンに対して処理を繰り返す。
Next, the overall operation of the present apparatus will be described with reference to the flowchart of FIG. Step 501: First, the input unit 201 sequentially inputs an input image in the DV format, and Step 502: writes DCT coefficients in the frame memory 211 for each block. Step 503: The DV decoding unit 203 sequentially decodes the continuously input images, and
Write to 04. Step 504: The scene detection unit 202 detects a frame in which the scene changes greatly from the continuously input bv image, and transmits the frame number to the encoding control unit 208. Step 505: The moving object detection unit 205 receives the number of the first frame at which the scene is switched from the encoding control unit 208, and reads out the received number and the next numbered frame from the frame memory 204. Step 506: The moving object detecting unit 205 determines an object to be encoded as a moving object in a series of scenes from the read frame, and sends rectangular layer information including the object to the encoding control unit 208. Step 507: Until the moving object layer searching unit 206 and the background image determination compensating unit 207 receive the scene end signal from the encoding control unit 208, Step 508: The moving object layer searching unit 206 Receiving information about the body layer,
The frames belonging to a series of scenes are sequentially read from the frame memory 204, and a moving object layer is searched for each frame. At this time, DCT block data in the same area as the moving object layer is read from the frame memory 211 as well. Then, the obtained information about the moving object layer is sent to the encoding control unit 208. Step 509: Also, the background image determination compensation section 207
The same frame switching frame number (step 505) as the scene switching frame number received by the moving object detecting unit 205 is received from the encoding control unit 208,
The frames belonging to a series of scenes are sequentially read from the frame memory 204, the motion of the background image in the scene is determined, and the motion information of the background image is sent to the encoding control unit 208. Step 510: The encoding control unit 208 sends the layer information received from the moving object detection unit 205 and the moving object layer search unit 206 to the encoder unit 209. Step 511: The encoder unit 209 performs data conversion based on the layer information. From the frame memory 204, and encodes the moving object layer. Step 512: The encoding control unit 208 sends the motion information of the background image to the encoder unit 209. Step 513: The encoder unit reads out the data from the frame memory 204 and encodes the data based on the motion information of the background. . Step 514: The encoder unit 209 multiplexes the coding information of the moving object layer and the motion coding information of the background image into one stream. Step 515: The output unit 210 outputs the signal from the encoder unit 2
In step 09, the encoded data is output to the outside of the apparatus. Step 516: The process is repeated for the next scene until there is no more input data.

【0055】次に動物体レイヤ探索部206における動
物体レイヤ探索方法( ステップ508) について説明す
る。動物体レイヤ探索部206における動物体レイヤ探
索の基本的なプロセス( ステップ201からステップ2
04及びステップ206からステップ208) は、実施
の形態3の動物体レイヤ探索部106と同じである。
Next, a moving object layer searching method (step 508) in the moving object layer searching section 206 will be described. Basic Process of Moving Object Layer Search in Moving Object Layer Searching Section 206 (Steps 201 to 2
04 and steps 206 to 208) are the same as those of the moving object layer search unit 106 of the third embodiment.

【0056】動物体レイヤ探索部206は、符号化制御
部から動物体レイヤnに関する情報を受けとると、動物
体レイヤnと同位置、同サイズの領域をフレームメモリ
211から読み出す。そしてその中の領域中に含まれる
DCTブロックを、ブロックマッチングに有用なエッジ
を含んだブロックの検出に使う。DCTブロックは、画
像を周波数成分に分解したものであり、エッジを含むブ
ロックと含まないブロックでは成分分布が異り、この特
性を利用して動物体レイヤn内でエッジを含んだブロッ
クの検出を行なうことができる。
Upon receiving the information on the moving object layer n from the encoding control unit, the moving object layer search unit 206 reads out an area having the same position and the same size as the moving object layer n from the frame memory 211. Then, the DCT block included in the region therein is used for detecting a block including an edge useful for block matching. The DCT block is obtained by decomposing an image into frequency components, and the component distribution differs between the block including the edge and the block not including the edge. By using this characteristic, the detection of the block including the edge in the moving object layer n is performed. Can do it.

【0057】図9は、階段状のエッジを内部に含むブロ
ックの例である。これらのブロックをDCT変換する
と、図9下のようにある特定の領域に値が集中する。自
然画像では、普通低周波DCT成分に値が集中する。こ
の例でも、すべてのブロックで低周波部分には値が集中
しているので、エッジ検出には適さない。よって低周波
成分( 2×2) をとり除き、残った成分の絶対値をとっ
たものを順番に並べ値が小さい方から30番目までの成
分を0におきかえる。そして、0に置き換えられたピク
セルのブロック内での配置を見て、そのブロック内にエ
ッジが有るか否かの検出を行なう。具体的には、ゼロ成
分領域が図のエッジによる成分集中領域を侵しているか
どうかを数値化し判断する。ピクセルを0に置き換えた
後も図のようなエッジによる成分集中領域が残っていれ
ば、そのブロックにはエッジが含まれるということにな
る。
FIG. 9 is an example of a block including a stepwise edge therein. When these blocks are subjected to DCT conversion, values concentrate on a specific area as shown in the lower part of FIG. In a natural image, values are usually concentrated on low frequency DCT components. Also in this example, the values are concentrated in the low-frequency portion in all the blocks, so that they are not suitable for edge detection. Therefore, the low-frequency components (2 × 2) are removed, and the absolute values of the remaining components are arranged in order, and the components from the smallest value to the 30th component are replaced with 0. Then, by seeing the arrangement of the pixels replaced with 0 in the block, it is detected whether or not an edge exists in the block. Specifically, whether or not the zero component region invades the component concentration region due to the edge in the figure is numerically determined. If the component-concentrated region due to the edge as shown in the figure remains even after the pixel is replaced with 0, the block includes the edge.

【0058】動物体レイヤ探索部206は、このように
して選ばれたエッジを含んだブロックとフレームn+1
との間でブロックマッチングを行ない、フレームn+1
内でブロックのマッチした位置を求める。
The moving object layer search unit 206 compares the block including the edge thus selected with the frame n + 1.
And block matching between frame n + 1
Find the matched position of the block within.

【0059】以上のように、動物体レイヤ探索部206
は、動物体レイヤの探索時に必要となる動物体レイヤ内
のエッジを含むようなブロックをDCT画像から直接求
めることができる。そのため、入力にDVフォーマット
画像が用いられる場合に、動物体レイヤ探索部206
は、DOGフィルタなどによるエッジ検出を省くことが
でき処理が軽量化する。
As described above, the moving object layer search unit 206
Can directly obtain, from the DCT image, a block including an edge in the moving object layer that is required when searching for the moving object layer. Therefore, when a DV format image is used for input, the moving object layer search unit 206
In this case, edge detection by a DOG filter or the like can be omitted, and the processing can be reduced in weight.

【0060】(実施の形態5)第5の発明の実施の形態
である背景画判定補償部部は、デジタル入力画像を低ビ
ットレートの画像に変換して出力する低ビットレート動
画符号化装置の中で実施されている。低ビットレート動
画符号化装置は、実施の形態1の低ビットレート動画符
号化装置と全く同じものである。
(Embodiment 5) A background image decision compensator according to a fifth embodiment of the present invention is a low bit rate moving picture coding apparatus for converting a digital input image into a low bit rate image and outputting the converted image. It has been implemented in. The low bit rate video encoding device is exactly the same as the low bit rate video encoding device of the first embodiment.

【0061】背景画判定補償部107における背景画の
動き判定補償( ステップ108) について図を用いて詳
細に説明する。背景画判定補償部107は、フレーム中
の背景の動きをモデルベクトルを用いて判定し、前のフ
レームの背景を用いて現フレームの背景を補償するもの
である。モデルベクトルとは、以下で説明するが、カメ
ラが撮影している物体やカメラと物体との位置関係など
のパラメータが既知である場合に、カメラをパンした
り、ズームしたとき得られる動きベクトルのことであ
る。すなわち、モデルベクトルとの相関度から、背景画
の動きを近似的に得ることができる。背景画判定補償部
107は、背景の平行移動及び拡大縮小といった動きの
みを判定するものである。また、背景画判定補償部10
7による動き判定で得た情報から、動物体レイヤにより
隠されていた領域や背景画の動きによって新たに現れる
背景情報を補償する。
The motion judgment compensation of the background image (step 108) in the background image judgment compensation section 107 will be described in detail with reference to the drawings. The background image determination / compensation unit 107 determines the motion of the background in the frame using the model vector, and compensates for the background of the current frame using the background of the previous frame. The model vector is described below, but when parameters such as the object being photographed by the camera and the positional relationship between the camera and the object are known, the motion vector obtained when the camera is panned or zoomed is obtained. That is. That is, the motion of the background image can be approximately obtained from the degree of correlation with the model vector. The background image determination compensation unit 107 determines only a movement such as a parallel movement and an enlargement / reduction of the background. Also, the background image determination compensation unit 10
7, the background information newly appearing due to the movement of the area or the background image hidden by the moving object layer is compensated for.

【0062】以下、背景画の動きを平行移動及び拡大縮
小に限定近似し、背景画の動き補償を行なう理由を述べ
る。画像を決定する(作成する)ためには、 1) 物体の情報(色、形、大きさ)、 2) 物体とカメラの位置関係、 3) カメラの情報(焦点距離、CCDのセルの大きさな
ど) が必要となる。普通の撮影に限定(カメラの光軸方向の
回転は除く)した場合でも、パラメータとして物体の形
状(3次元)、カメラの位置(3次元)、カメラの姿勢
(2次元)、カメラ位置から画像面間での距離などが必
要となる。
Hereinafter, the reason why the motion of the background image is limitedly approximated to the parallel movement and the enlargement / reduction and the motion of the background image is compensated will be described. To determine (create) an image: 1) Object information (color, shape, size), 2) Positional relationship between object and camera, 3) Camera information (focal length, CCD cell size) Etc.) are required. Even when normal shooting is limited (excluding rotation in the direction of the optical axis of the camera), images are obtained from parameters such as the shape of the object (three-dimensional), camera position (three-dimensional), camera posture (two-dimensional), and camera position. The distance between the surfaces is required.

【0063】連続する2枚の画像をA,Bとし、Aの画
像を用いてBの画像を作成するとき必要となるものは、
1) 、Aを撮影したときの2) 及びAからBを撮影する
ためのカメラの変移量、3) である。つまり、すべての
被撮影物体が静止し形状も変化しないとして、エンコー
ダ側でAの1),2),3) 及び画像Aを符号化しデコ
ーダに送信してあった際に、Aを撮影したカメラ位置と
Bを撮影したカメラ位置の変移量が、Bの画像を作成す
るとき必要となる。
Assume that two continuous images are A and B, and when the image of A is used to create the image of B,
1), 2) when A is photographed, and the displacement of the camera for photographing B from A, 3). That is, assuming that all the objects to be photographed are stationary and the shape does not change, when the encoder 1 encodes A) 1), 2), 3) and the image A and transmits it to the decoder, the camera that photographs A The amount of displacement between the position and the camera position at which B was shot is required when the B image is created.

【0064】しかし、一般に画像を符号化する際にこれ
らのパラメータ(1, 2, 3)が既知であることは極め
て少ない。そこで、画像シーケンスのみからこれらのパ
ラメータを推定することになる。映っている物体が何で
あるか既知でありかつ物体とカメラの位置関係が既知で
あるような場合(物体は牛乳パックであり、カメラは牛
乳パックから一定の距離にしかありえないなど)を除い
て、画像のみからこれらのパラメータを推定するには情
報量が少な過ぎる。
However, it is very rare that these parameters (1, 2, 3) are generally known when encoding an image. Therefore, these parameters are estimated only from the image sequence. Only images, except where the object being imaged is known and the relationship between the object and the camera is known (the object is a milk pack and the camera can only be at a certain distance from the milk pack) The amount of information is too small to estimate these parameters from

【0065】すべてのパラメータが得られない限り、A
の画像を用いて正確にBの画像を作成することは不可能
である。しかし、ここでAとBの画像間隔が小さい
(1、2フレーム程度)と仮定すると、Aの画像を用い
て近似的なBの画像の作成が可能になる。
Unless all parameters are obtained, A
It is impossible to create an image of B accurately using the image of However, assuming that the image interval between A and B is small (about 1 or 2 frames), an approximate B image can be created using the A image.

【0066】簡単のため図10のような透視画像を考え
る。カメラ位置をAとし、ここを原点とする。カメラの
光軸方向にz 軸をとり、それに垂直に交わる方向にx軸
をとる。画像面までの距離をfとする。背景物体Bは、
z軸に垂直に交わるような平面からなるとする。画像面
上のX座標をxとすると、 X=f*x/z の関係が成り立つ。
For simplicity, consider a perspective image as shown in FIG. Let A be the camera position, and let this be the origin. The z axis is taken in the optical axis direction of the camera, and the x axis is taken in a direction perpendicular to the z axis. Let f be the distance to the image plane. The background object B is
It is assumed that the plane consists of a plane perpendicular to the z-axis. Assuming that the X coordinate on the image plane is x, the relationship X = f * x / z holds.

【0067】ここで、カメラがx軸に沿ってΔx だけ微
小に動いた場合を考える。このとき得られる動きベクト
ルは、フレーム内一率で、 f*Δx/z となる。この式からわかるように、背景の平行移動補償
では、背景のカメラ位置からの距離が問題になってく
る。ところが、背景物体の位置zは微小フレーム間隔で
のカメラの動きΔx に比べると極めて大きい。
Here, it is assumed that the camera has moved slightly along the x-axis by Δx. The motion vector obtained at this time is f * Δx / z at a rate within the frame. As can be seen from this equation, the distance from the camera position of the background becomes a problem in the background parallel movement compensation. However, the position z of the background object is much larger than the camera movement Δx at minute frame intervals.

【0068】よって、実際画像面で動きベクトルを検出
する場合、背景物体の位置や奥行き方向の変化は、画像
解像度やノイズの影響に比べると無視できるものであ
る。それゆえ、背景画像の補償の精度は映像に依存して
しまう一方で、背景の壁が斜めになっているとか、遠く
の山が前後に連なっているような画像面に対して背景が
平行でない場合も、背景の動きを平行移動及び拡大縮小
に限定したこの補償で十分吸収できるはずである。
Therefore, when detecting a motion vector on an actual image plane, changes in the position and the depth direction of the background object can be neglected compared to the effects of image resolution and noise. Therefore, while the accuracy of the compensation of the background image depends on the image, the background is not parallel to the image plane where the background wall is inclined or a distant mountain is connected to the front and back. In this case too, this compensation, which limited the background motion to translation and scaling, should be sufficient to absorb.

【0069】背景画判定補償部107は、シーンの切り
替わる先頭フレームの番号を符号化制御部108から受
け、フレームメモリ104から一連のシーンに属するフ
レームを順番に読み出す。まず最初に、背景画の動き判
定法について図11を用いて説明する。図11は、背景
画判定補償部における背景画の動きを検出するための方
法を説明する図である。図11において、シーンの先頭
のフレームをフレーム0とし以後のフレームは順番に番
号が加算されるものとする。
The background image determination compensation unit 107 receives the number of the first frame at which a scene is switched from the encoding control unit 108, and sequentially reads out frames belonging to a series of scenes from the frame memory 104. First, a method of determining a motion of a background image will be described with reference to FIG. FIG. 11 is a diagram illustrating a method for detecting the movement of the background image in the background image determination compensation unit. In FIG. 11, it is assumed that the first frame of the scene is frame 0, and the subsequent frames are sequentially numbered.

【0070】背景画判定補償部107では、背景の平行
移動および拡大縮小を判定する。フレーム1の中からい
くつかのブロックを定め、それらのブロックとフレーム
0との間でマッチングを行ない動きベクトルを求める。
このとき、判定に使うブロックを判定用動きベクトル検
出ブロックと呼び、得られる動きベクトルを背景画の動
き判定用動きベクトルと呼ぶことにする。
The background image determination compensation unit 107 determines parallel movement and enlargement / reduction of the background. Several blocks are determined from frame 1 and matching is performed between those blocks and frame 0 to obtain a motion vector.
At this time, the block used for the determination is referred to as a determination motion vector detection block, and the obtained motion vector is referred to as a background image motion determination motion vector.

【0071】次に、図12を用いて拡大縮小判定の検出
法について説明する。図12は背景画判定補償部におけ
る背景画の拡大縮小をモデルベクトルで判定する方法を
説明する図である。判定用動きベクトル検出ブロックと
対応する位置にベクトルはおかれ、ベクトルの向きは拡
大率10%でカメラをズームしたときのベクトル方向で
ある。ただし、ベクトルの大きさは拡大率10%でズー
ムしたときのものの逆数である。以下、拡大縮小判定時
の処理手順を述べる。図13は背景画判定補償部におけ
る背景画の拡大縮小をモデルベクトルで判定する処理動
作を説明するフローチャートである。 ステップ301: 背景画判定補償部は、動き判定用ベ
クトルを検出する。 ステップ302: 検出した動き判定用ベクトルと拡大
縮小モデルベクトルとの内積を計算する。 ステップ303: 判定用動きベクトル検出ブロックの
個数と等しい数の内積の値が得られるが、これらの内積
の値がにかよっているかどうかの判定を行う。判定には
分散の値を計算し、しきい値によって判別しても良い。
もし値が似ていなければ、拡大縮小ではないと判断し、
拡大縮小判定を終える。 ステップ304: 内積の値が似ていると判定されたと
きは、さらにそれらの平均値を計算する。 ステップ305: 平均値の符号により、 ステップ306: 正の値であるときは、拡大率を計算
する。平均値が1のとき拡大率は10%になる。それ以
外のときには、あらかじめ計算によって得た拡大縮小テ
ーブルによって拡大率を得る。 ステップ307: 負であるときも同様に、拡大縮小テ
ーブルを用いて縮小率を計算する。平均値が−1のとき
縮小率は10%になる。
Next, a method of detecting enlargement / reduction will be described with reference to FIG. FIG. 12 is a diagram for explaining a method of determining the enlargement / reduction of the background image using the model vector in the background image determination compensation unit. The vector is placed at a position corresponding to the determination motion vector detection block, and the direction of the vector is the vector direction when the camera is zoomed at a magnification of 10%. However, the magnitude of the vector is the reciprocal of that when zooming at a magnification of 10%. Hereinafter, a processing procedure at the time of enlargement / reduction determination will be described. FIG. 13 is a flowchart for explaining a processing operation in which the background image determination compensating unit determines the enlargement / reduction of the background image using the model vector. Step 301: The background image determination compensation unit detects a motion determination vector. Step 302: The inner product of the detected motion determination vector and the scaled model vector is calculated. Step 303: A number of inner product values equal to the number of determination motion vector detection blocks are obtained, and it is determined whether or not these inner product values are dependent on each other. For the determination, a variance value may be calculated, and the determination may be made based on a threshold value.
If the values are not similar, it is not a scaling
End the scaling determination. Step 304: When it is determined that the values of the inner products are similar, the average value is further calculated. Step 305: According to the sign of the average value, Step 306: If the value is a positive value, the enlargement ratio is calculated. When the average value is 1, the enlargement ratio is 10%. In other cases, the enlargement ratio is obtained from an enlargement / reduction table obtained in advance by calculation. Step 307: Similarly, when the value is negative, the reduction ratio is calculated using the enlargement / reduction table. When the average value is -1, the reduction ratio is 10%.

【0072】このようにして、拡大もしくは縮小率を得
ることができる。次に図14を用いて平行移動の検出法
を説明する。図14は背景画判定補償部における背景画
の平行移動をモデルベクトルで判定する方法を説明する
図である。モデルベクトルは、判定用動きベクトル検出
ブロックと同じ位置に置かれ、向きは水平右方向であ
る。ただし、大きさは単位長さとする。以下、平行移動
判定の処理手順を述べる。図15は背景画判定補償部に
おける背景画の平行移動をモデルベクトルで判定する処
理動作を説明するフローチャートである ステップ401: 背景画判定補償部は、動き判定用ベ
クトルを検出する。 ステップ402: 検出した動きベクトルの垂直成分に
注目し、垂直成分の符号にばらつきがあるかどうか判定
する。判定にはしきい値を設けて、ある割合以上別な符
号が含まれているか否かによって判別しても良い。もし
ばらつき有りと判定すれば、平行移動ではないと判断し
平行移動判定を終える。 ステップ403: ばらつき無しと判定したときは、垂
直成分が同じ(多数を占める方の)符号を持つベクトル
を抽出する。また以後の処理ではこの抽出したベクトル
のみを対象とする。 ステップ404: 抽出した各ベクトルを単位長さとな
るように正規化し、 ステップ405: モデルベクトルと内積を計算する。 ステップ406: 得られた内積の値がにかよっている
かどうかの判定を行う。お互いに単位長さのベクトルの
内積であるから値は−1から1までとなる。判定には分
散の値を計算し、しきい値によって判断しても良い。も
し値が似ていなければ、平行移動ではないと判断し、平
行移動判定を終える。 ステップ407: 値が似ているときは、ベクトルの向
きが揃っているので内積の値の平均値を計算する。平均
値をMとすると平行移動方向の単位ベクトルは、水平方
向M、垂直方向 ( 1−M^2) ^( 1/ 2) となる。ただし垂直方向の符号は、背景画の動き判定用
動きベクトルの垂直成分で多数を占めた符号(ステップ
403で抽出したベクトルの垂直成分の符号)である。 ステップ408: そして、正規化する以前の各ベクト
ルを平行移動方向に正射影し、平行移動方向の大きさを
得る。 ステップ409: 正射影ベクトルの大きさがにかよっ
ているかどうかの判定を行う。判定には分散の値を計算
し、しきい値によって判断しても良い。もし値が似てい
なければ、平行移動ではないと判断し、平行移動判定を
終える。 ステップ410: 値が似ているときは、さらに大きさ
の平均値を計算する。ベクトルの大きさを平行移動方向
の単位ベクトルと合わせることで、平行移動ベクトルを
得ることができる。
In this way, an enlargement or reduction ratio can be obtained. Next, a method of detecting a parallel movement will be described with reference to FIG. FIG. 14 is a diagram for explaining a method of determining the parallel movement of the background image using the model vector in the background image determination compensation unit. The model vector is placed at the same position as the determination motion vector detection block, and the direction is horizontal right. However, the size is the unit length. Hereinafter, the processing procedure of the parallel movement determination will be described. FIG. 15 is a flowchart illustrating the processing operation of the background image determination compensation unit for determining the parallel movement of the background image using the model vector. Step 401: The background image determination compensation unit detects a motion determination vector. Step 402: By paying attention to the vertical component of the detected motion vector, it is determined whether or not there is a variation in the sign of the vertical component. A threshold may be provided for the determination, and the determination may be made based on whether or not a different code is included in a certain ratio or more. If it is determined that there is variation, it is determined that the movement is not parallel movement, and the parallel movement determination is completed. Step 403: If it is determined that there is no variation, a vector whose vertical component has the same (largest) code is extracted. In the subsequent processing, only the extracted vector is targeted. Step 404: Normalize each extracted vector to have a unit length. Step 405: Calculate the model vector and the inner product. Step 406: It is determined whether or not the obtained value of the inner product depends. The values are from -1 to 1 because they are inner products of vectors of unit length. For the determination, a variance value may be calculated, and the determination may be made based on a threshold value. If the values are not similar, it is determined that the movement is not parallel movement, and the parallel movement determination ends. Step 407: When the values are similar, since the directions of the vectors are aligned, the average value of the values of the inner product is calculated. Assuming that the average value is M, the unit vector in the translation direction is M in the horizontal direction and (1-M ^ 2) ^ (1/2) in the vertical direction. However, the code in the vertical direction is a code that occupies a large number of vertical components of the motion vector for motion determination of the background image (the code of the vertical component of the vector extracted in step 403). Step 408: Then, the vectors before normalization are orthogonally projected in the parallel movement direction to obtain the magnitude in the parallel movement direction. Step 409: It is determined whether or not the magnitude of the orthogonal projection vector is fluctuating. For the determination, a variance value may be calculated, and the determination may be made based on a threshold value. If the values are not similar, it is determined that the movement is not parallel movement, and the parallel movement determination ends. Step 410: If the values are similar, calculate an average value of the magnitudes. By matching the magnitude of the vector with the unit vector in the translation direction, a translation vector can be obtained.

【0073】つづいて、上述のようにして得た背景画の
拡大縮小率及び平行移動ベクトルといった動き情報か
ら、背景判定補償部107における背景画の補償の仕方
について図16を用いて説明する。フレーム0に関して
はエンコーダ部109はすべての情報を符号化するた
め、背景画判定補償部107は何もしない。フレーム1
以降のフレームに対して前フレームとの差分を伝送する
必要がある。
Next, a method of compensating the background image in the background judgment compensation unit 107 based on the motion information such as the scaling ratio and the translation vector of the background image obtained as described above will be described with reference to FIG. As for the frame 0, the encoder 109 encodes all information, so the background image determination compensator 107 does nothing. Frame 1
It is necessary to transmit the difference between the subsequent frame and the previous frame.

【0074】わかりやすくするため図16( a) 背景が
静止している時、図16( b) 背景が平行移動している
時、図16(c)背景が縮小拡大している時の3つの場
合に分けて説明する。まず最初に図16( a) の時、フ
レーム1では動物体レイヤが右上に移動している。その
ためフレーム1の伝送では、矢印で示されたL字型の領
域を送らなければならない。次に、フレーム2では、今
度は動物体レイヤが右下に移動している。しかし、フレ
ーム1で動物体レイヤによって隠れていた領域はフレー
ム0では表面にでていた領域であるので送る必要はな
い。フレーム2の伝送で新たに送る必要のあるのは矢印
で示されたフレーム0の動物体レイヤで隠れていた領域
のみである。すなわち、背景画判定補償部107は、フ
レーム0で表面に出ている背景領域は常に使用可能で動
物体レイヤで隠れていた領域のみ必要なときに必要な大
きさを伝送する。
For the sake of simplicity, FIG. 16 (a) shows a case where the background is stationary, FIG. 16 (b) shows a case where the background is moving in parallel, and FIG. The description will be made in each case. First, at the time of FIG. 16A, in the frame 1, the moving object layer is moved to the upper right. Therefore, in the transmission of frame 1, an L-shaped area indicated by an arrow must be sent. Next, in frame 2, the moving object layer is now moving to the lower right. However, since the area hidden by the moving object layer in frame 1 is the area exposed on the surface in frame 0, there is no need to send the area. Only the area hidden by the moving object layer of the frame 0 indicated by the arrow needs to be newly transmitted in the transmission of the frame 2. That is, the background image determination / compensation unit 107 transmits the necessary size when the background area that appears on the surface in frame 0 is always available and only the area hidden by the moving object layer is needed.

【0075】次に、図16( b) の場合を考えてみる。
動物体レイヤの動きは図16( a)の時と同じであると
する。フレーム1は、背景が左上に動いた場合である。
背景判定補償部107はフレーム1の上部及び左部の矢
印で示された領域を送らなければならない。デコーダ側
では残りの領域はフレーム0のものをずらして使うこと
ができる。フレーム2は、今度は背景が左下に動いた場
合である。このとき、背景判定補償部107はフレーム
2の下部及び左部の矢印で示された領域を送らなければ
ならない。ただし、このときフレーム0で表面に出てい
る背景領域は送る必要がない。
Next, consider the case of FIG. 16 (b).
It is assumed that the motion of the moving object layer is the same as that in FIG. Frame 1 is when the background moves to the upper left.
The background determination compensator 107 has to send the area indicated by the upper and left arrows of the frame 1. On the decoder side, the remaining area can be shifted from the frame 0. Frame 2 is the case where the background has moved to the lower left. At this time, the background determination compensator 107 has to send the area indicated by the lower and left arrows of the frame 2. However, at this time, it is not necessary to send the background area appearing on the front surface in frame 0.

【0076】最後に図16(c) の場合を考えてみる。た
だし、簡単のため動物体レイヤは動かないものとする。
フレーム1は、背景が縮小したものである。この時、背
景画判定補償部はフレーム1の上下左右の矢印で示され
た領域を送らなければならない。デコーダ側では、縮小
した領域はフレーム0の表面に出ている背景領域を縮小
し使うことができる。フレーム2は、背景が拡大したも
のである。この時は、背景画判定補償部107はフレー
ム2から全くデータを送る必要はない。また、デコード
側では再生したフレーム1を拡大処理するのではなく、
フレーム0の表面に出ている背景領域をそのまま使う。
Finally, consider the case of FIG. 16 (c). However, it is assumed that the moving object layer does not move for simplicity.
Frame 1 has a reduced background. At this time, the background image determination compensator must send the area indicated by the up, down, left, and right arrows of the frame 1. On the decoder side, the reduced area can be used by reducing the background area on the surface of frame 0. The frame 2 has an enlarged background. At this time, the background image determination / compensation unit 107 does not need to send any data from frame 2. On the decoding side, instead of enlarging the reproduced frame 1,
The background area on the surface of frame 0 is used as it is.

【0077】なお本実施例では、背景画補償のためのフ
レーム間隔は1フレームとしたが、2あるいは3といっ
た微小フレーム間隔であればよい。
In this embodiment, the frame interval for background image compensation is one frame. However, any frame interval of 2 or 3 may be used.

【0078】つづいて、この背景補償法によると補償さ
れた背景画像上に動物体レイヤを重ね合わせた際に、境
界部にノイズが発生しないことを数式を用いて説明す
る。フレームをF(x,y,t)とする。 x,y(0≦x≦M, 0≦y ≦N) はフレーム内の座標であり、M,Nはフレームサイズの
縦横のサイズである。tはフレームナンバを示す。同物
体レイヤをL(x,y,t)とする。x,y座標に関し
ては、フレームと同じものを用いることにする。ここ
で、x,yの値が x1 (t)≦x≦x2 ( t) かつ y 1 (t)≦ y≦y 2 (t) のとき1となり、逆にそれ以外のとき値はゼロとなる窓
関数Wを考える。ただし、 0≦x1 (t)≦x2 ( t)≦M 0≦y 1 (t)≦y 2 (t)≦N とする。
Next, the fact that no noise is generated at the boundary when the moving object layer is superimposed on the compensated background image according to the background compensation method will be described using mathematical expressions. Let the frame be F (x, y, t). x and y (0 ≦ x ≦ M, 0 ≦ y ≦ N) are coordinates in the frame, and M and N are the vertical and horizontal sizes of the frame size. t indicates a frame number. Let the object layer be L (x, y, t). Regarding the x and y coordinates, the same coordinates as in the frame are used. Here, when the value of x and y is x 1 (t) ≦ x ≦ x 2 (t) and y 1 (t) ≦ y ≦ y 2 (t), the value is 1; Consider a window function W such that Here, 0 ≦ x 1 (t) ≦ x 2 (t) ≦ M 0 ≦ y 1 (t) ≦ y 2 (t) ≦ N.

【0079】すなわちW(x,y,t)はフレーム内に
取り得る長方形内部で値1を長方形外部で0を取る。L
は、このWをFにかぶせたものであるといえる。すなわ
ちL=W*Fとなる。ただし、実際には長方形外部では
L は定義されていないものとする。
That is, W (x, y, t) takes a value of 1 inside a rectangle that can be taken in a frame and takes a value of 0 outside the rectangle. L
Can be said to be obtained by covering this W with F. That is, L = W * F. However, actually outside the rectangle
L shall not be defined.

【0080】背景画補償の際には、連続したフレームか
ら動き判定及び補償は行なわれる。また、動物体レイヤ
LはフレームFから切り出すので、Lが定義されている
範囲内で F(x,y,t)=L(x,y,t) の関係は必ず成り立つ。実際には背景判定補償部107
では、同時に拡大縮小及び平行移動を検出することはで
きないが、ここで背景が膨張率kで拡大しかつx方向に
α、y方向にβだけ平行移動した場合について考えてみ
る。
At the time of background image compensation, motion judgment and compensation are performed from consecutive frames. Further, since the moving object layer L is cut out from the frame F, the relationship of F (x, y, t) = L (x, y, t) always holds within the range where L is defined. Actually, the background judgment compensation unit 107
Then, it is impossible to detect the enlargement / reduction and translation at the same time. However, here, consider the case where the background is enlarged by the expansion rate k and translated by α in the x direction and β in the y direction.

【0081】このとき背景画の関係は、 F(x,y,t)=F((x−α)/k,(y−β)/
k,t+1) となる。そして、動物体レイヤの境界の画素値はL
(x,y,t+1)で示される。ただし( x, y)は、
境界の座標を示すものとする。次に補償した背景画の境
界の画素値であるが、 F(k(x+α),k(y+β),t) となる。背景画の関係を利用すると、 F(k(x+α),k(y+β),t)=F(x,y,
t+ 1) であり、さらにレイヤとフレームの関係から F(k(x+α),k(y+β),t)=L(x,y,
t+ 1) となり境界で背景及び動物体レイヤが同じ画素値をとり
滑らかに見えることがわかる。同様にして動物体レイヤ
に隠れていた背景画領域の補償に関しても説明できる。
以上から、正確に拡大縮小率もしくは平行移動ベクトル
が検出できれば境界のノイズは目立たない位に押えられ
る。
At this time, the relationship between the background images is as follows: F (x, y, t) = F ((x−α) / k, (y−β) /
k, t + 1). Then, the pixel value at the boundary of the moving object layer is L
(X, y, t + 1). Where (x, y) is
It indicates the coordinates of the boundary. Next, the pixel value at the boundary of the compensated background image is F (k (x + α), k (y + β), t). Using the relationship of the background image, F (k (x + α), k (y + β), t) = F (x, y,
t + 1), and F (k (x + α), k (y + β), t) = L (x, y,
t + 1), and it can be seen that the background and the moving object layer have the same pixel value at the boundary and look smooth. Similarly, the compensation of the background image area hidden by the moving object layer can be described.
As described above, if the enlargement / reduction ratio or the translation vector can be accurately detected, the noise at the boundary can be suppressed to an inconspicuous level.

【0082】結局、背景画判定補償部107はベースと
なるフレーム0の表面に出ている背景領域をメモリに記
憶し、フレームメモリ104から読み出すフレームが変
化した場合のみメモリに領域をつけたしていく。そし
て、以前表面にでたことのある領域は以後そのシーンが
終るまで有効に使えるものとする。背景画判定補償部1
07が領域を符号化制御部108に送るという際には、
画像そのものではなく画像中のどの位置のどういった形
状の画像を送るかといった領域情報を送ることである。
また、この領域情報には、フレームnが以前のどのフレ
ームのどの領域を使うことで再生できるかといった情報
も含んでいるものとする。
Eventually, the background image determination compensating section 107 stores the background area on the surface of the base frame 0 in the memory, and adds the area to the memory only when the frame read from the frame memory 104 changes. Then, it is assumed that the area which has been exposed on the surface can be effectively used until the end of the scene thereafter. Background image judgment compensation unit 1
07 sends the region to the encoding control unit 108,
This is to send not the image itself but area information such as which position and shape of the image to send in the image.
It is also assumed that this area information includes information such as which frame of which previous frame n can be used for reproduction.

【0083】次に、エンコーダ部109における背景画
判定補償部107で得られた背景動き情報に基づく背景
画補償( ステップ112) について説明する。エンコー
ダ部109は、符号化制御部108よりフレーム毎に背
景静止画の動き・領域情報を受けとる。その情報を基に
フレームメモリから背景情報として送らなければならな
い領域の画像を読み出し符号化する。また、デコーダ側
で背景画像を再生できるように、再生に関わる領域情報
も合わせて符号化する。
Next, the background image compensation (step 112) based on the background motion information obtained by the background image judgment / compensation unit 107 in the encoder unit 109 will be described. The encoder unit 109 receives the motion / region information of the background still image for each frame from the encoding control unit 108. Based on the information, an image in an area that must be sent as background information from the frame memory is read and encoded. Also, region information related to reproduction is encoded together so that the background image can be reproduced on the decoder side.

【0084】最後に具体例として、一般的な背景をもつ
画像が本装置に入力されたときの処理について図17を
用いて説明する。入力画像は、山の麓を車が走るシーン
1、林の中を人が歩くシーン2、以後シーン3、シーン
4と続くものである。
Finally, as a specific example, processing when an image having a general background is input to the present apparatus will be described with reference to FIG. The input image is a scene 1 in which a car runs at the foot of the mountain, a scene 2 in which a person walks in the forest, and thereafter scene 3 and scene 4.

【0085】シーン1では、車は走っており動き物体と
して検出される。カメラは、この車を追ってゆっくり左
にパンしている。シーンの先頭のフレームでは、背景画
及び動物体レイヤが圧縮して送られる。2フレーム目
は、平行移動動き補償した背景画と動物体レイヤ及び位
置が圧縮して送られる。
In scene 1, the car is running and is detected as a moving object. The camera is slowly panning left following this car. In the first frame of the scene, the background image and the moving object layer are compressed and sent. In the second frame, the background image, the moving object layer, and the position where the translational motion has been compensated are compressed and sent.

【0086】シーン2では、動物体である人間より手前
に木が立っており、カメラは人間に対してズームを行な
っている。シーンの先頭のフレームでは、シーン1と同
様に、背景画及び動物体レイヤが圧縮して送られる。そ
して、2フレーム目は背景の拡大率と動物体レイヤ及び
位置が圧縮して送られることになる。
In scene 2, a tree stands before a human being, which is a moving object, and the camera performs zooming on the human. In the first frame of the scene, as in scene 1, the background image and the moving object layer are compressed and sent. In the second frame, the background enlargement ratio, the moving object layer, and the position are compressed and sent.

【0087】以上のように、本装置ではシーン検出部1
02によりシーンの変わり目を検出することで背景の有
用性を保証した上で、背景画判定補償部107が背景の
動きを判定補償することで、動物体レイヤとの境界の画
素値を等しくし、動物体レイヤを重ねたことによる境目
の汚さを減少することができる。さらに、背景画の全体
の情報を送るのは1シーンに1回だけでよいのでビット
レートを低く抑えることが可能である。
As described above, in the present apparatus, the scene detector 1
02, the usefulness of the background is ensured by detecting a scene change, and the background image determination compensation unit 107 determines and compensates for the movement of the background, so that the pixel values at the boundary with the moving object layer are equalized. It is possible to reduce the contamination of the boundary caused by the overlapping of the moving object layers. Further, the entire information of the background image needs to be sent only once per scene, so that the bit rate can be kept low.

【0088】[0088]

【発明の効果】以上のように、本発明における低ビット
レート動画符号化装置では、動物体領域検出部105が
シーンの最初にブロック単位で動きある無し判定を行な
い、つづけて色情報を用いたブロックベースでの領域統
合を行ない動領域を検出することで、フレーム内の動き
物体の検出を高速に行なうことが可能になる。
As described above, in the low bit rate moving image encoding apparatus according to the present invention, the moving object region detecting unit 105 determines whether or not there is a motion at the beginning of a scene in units of blocks, and continuously uses color information. By detecting a moving region by performing block-based region integration, a moving object in a frame can be detected at high speed.

【0089】また、動物体レイヤ探索部106は動物体
レイヤの形状を大きさ可変の長方形とし、次のフレーム
の動物体レイヤを現フレームの動物体レイヤ内に含まれ
る動物体の外周エッジを含むブロックのみを動き予測に
用い、予測で得られたブロックを包括するような長方形
を次の動物体レイヤとすることで、確実に動物体を追跡
していくことが可能になる。その結果、動物体は非圧縮
時の動きと全く同じように振舞う。
The moving object layer searching unit 106 sets the shape of the moving object layer to a rectangle of variable size, and includes the moving object layer of the next frame including the outer peripheral edge of the moving object included in the moving object layer of the current frame. By using only a block for motion prediction and setting a rectangle that includes the block obtained by the prediction as the next moving object layer, the moving object can be reliably tracked. As a result, the moving object behaves exactly like uncompressed movement.

【0090】動物体レイヤ探索部106によって切り出
された動物体レイヤは背景画像情報を含み、一般に背景
や別レイヤと重ね合わせると境界が目立ってしまう。し
かし本発明の背景画判定補償部107では、撮影時によ
く行なわれるカメラのパンやズームを考慮し、動きベク
トルを用いて、背景画の平行移動、拡大縮小を補償する
ことで、動物体レイヤを重ね合わせる際の境界を目立た
なくさせることが可能である。
The moving object layer cut out by the moving object layer search unit 106 contains background image information, and generally, when the moving object layer is overlapped with the background or another layer, the boundary becomes conspicuous. However, the background image determination / compensation unit 107 of the present invention considers the pan and zoom of the camera, which is often performed at the time of shooting, and compensates for the parallel movement and enlargement / reduction of the background image by using a motion vector, thereby moving the moving object layer. It is possible to make the boundary at the time of superposition inconspicuous.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態における動画符号化
装置の構成を示すブロック図
FIG. 1 is a block diagram illustrating a configuration of a moving image encoding device according to a first embodiment of the present invention.

【図2】本発明の第1の実施の形態における動画符号化
装置全体の動作を示す流れ図
FIG. 2 is a flowchart showing the operation of the entire moving picture encoding apparatus according to the first embodiment of the present invention;

【図3】動物体検出部における動物体検出方法を説明す
る図
FIG. 3 is a diagram illustrating a moving object detection method in a moving object detection unit.

【図4】動物体領域検出部における動物体検出の例を示
す図
FIG. 4 is a diagram illustrating an example of moving object detection in a moving object region detection unit.

【図5】動物体レイヤ探索部における動物体レイヤの探
索処理の流れを示す流れ図
FIG. 5 is a flowchart showing a flow of a moving object layer search process in a moving object layer search unit.

【図6】動物体レイヤ探索部における動物体レイヤの探
索の例を示す図
FIG. 6 is a diagram showing an example of searching for a moving object layer in a moving object layer search unit.

【図7】本発明の第4の実施の形態における動画符号化
装置の構成図
FIG. 7 is a configuration diagram of a moving image encoding device according to a fourth embodiment of the present invention.

【図8】本発明の第4の実施の形態における動画符号化
装置全体の動作を示す流れ図
FIG. 8 is a flowchart showing an operation of the entire moving picture encoding apparatus according to the fourth embodiment of the present invention.

【図9】DCTブロックの成分によるエッジ検出法を説
明する図
FIG. 9 is a view for explaining an edge detection method using DCT block components.

【図10】透視画像におけるカメラの動きと画像の関係
の例を示す図
FIG. 10 is a diagram illustrating an example of a relationship between a camera movement and an image in a perspective image;

【図11】背景画判定補償部における背景画の動きを検
出するための方法を説明する図
FIG. 11 is a view for explaining a method for detecting a motion of a background image in a background image determination compensation unit.

【図12】背景画判定補償部における背景画の拡大縮小
の検出法示す図
FIG. 12 is a diagram showing a method of detecting the enlargement / reduction of a background image in a background image determination compensation unit.

【図13】図12に示された背景画判定補償部における
背景画の拡大縮小の検出法に基づく処理の流れを示す図
13 is a diagram showing a flow of processing based on a method of detecting the enlargement / reduction of a background image in the background image determination / compensation unit shown in FIG.

【図14】背景画判定補償部における背景画の平行移動
の検出法を示す図
FIG. 14 is a diagram illustrating a method of detecting a parallel movement of a background image in a background image determination compensation unit.

【図15】図14に示された背景画判定補償部における
背景画の平行移動の検出法に基づく処理の流れを示す図
15 is a diagram showing a flow of processing based on a method of detecting a parallel movement of a background image in the background image determination compensation unit shown in FIG.

【図16】背景画判定補償部における背景補償方法を説
明する図
FIG. 16 is a diagram illustrating a background compensation method in a background image determination compensation unit.

【図17】一般的な画像入力に対する処理の例を示す図FIG. 17 is a diagram illustrating an example of processing for general image input;

【図18】従来例の画像符号化装置の概略を示す構成図FIG. 18 is a configuration diagram schematically showing a conventional image encoding apparatus.

【符号の説明】[Explanation of symbols]

101, 201, 1001 入力手段 102, 202 シーン検出部 104, 204, 211 フレームメモリ 105, 205 動物体検出部 106, 206 動物体レイヤ探索部 107, 207 背景画判定補償部 108, 208 符号化制御部 108, 208 エンコーダ部 110, 210, 1007 出力手段 203 DVデコード部 100m 信号処理部 1003 背景プレーンフレームメモリ 1004 動物体プレーンフレームメモリ 1005 静止画エンコーダ 1006 動き情報エンコーダ 101, 201, 1001 Input means 102, 202 Scene detecting unit 104, 204, 211 Frame memory 105, 205 Moving object detecting unit 106, 206 Moving object layer searching unit 107, 207 Background image determination compensating unit 108, 208 Encoding control unit 108, 208 Encoder unit 110, 210, 1007 Output means 203 DV decoding unit 100m Signal processing unit 1003 Background plane frame memory 1004 Moving object plane frame memory 1005 Still image encoder 1006 Motion information encoder

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 外部からデジタル画像を取り込む入力手
段と、入力した画像を蓄積するフレームメモリと、シー
ン検出部と、動物体検出部と、動物体レイヤ探索部と、
背景画判定補償部と、符号化制御部と、エンコーダ部
と、さらに出力手段とを備えることを特徴とする低ビッ
トレート動画符号化装置。
An input unit for receiving a digital image from outside, a frame memory for storing the input image, a scene detecting unit, a moving object detecting unit, a moving object layer searching unit,
A low-bit-rate moving image encoding apparatus, comprising: a background image determination compensation unit; an encoding control unit; an encoder unit; and an output unit.
【請求項2】 動物体領域検出部が、シーンの最初にブ
ロック単位の動領域を検出し、初めの動物体レイヤを出
力することを特徴とする請求項1に記載の低ビットレー
ト動画符号化方式。
2. The low bit rate moving image encoding according to claim 1, wherein the moving object region detection unit detects a moving region in block units at the beginning of the scene and outputs the first moving object layer. method.
【請求項3】 動物体領域検出部は、ブロックごとに動
きの有る無しを判断し、さらに色情報を用い領域統合を
行なうことを特徴とする請求項1に記載の動画符号化方
式。
3. The moving image coding method according to claim 1, wherein the moving object region detection unit determines whether or not there is a motion for each block, and further performs region integration using color information.
【請求項4】 動物体レイヤ探索部は、動物体レイヤの
形状を長方形とし、次のフレームのレイヤを現フレーム
のレイヤ内のブロックの動きから作成することを特徴と
する請求項1に記載の低ビットレート動画符号化装置。
4. The moving object layer searching unit according to claim 1, wherein the moving object layer has a rectangular shape, and a next frame layer is created from a motion of a block in the current frame layer. Low bit rate video encoding device.
【請求項5】 動物体レイヤ探索部は、長方形の動物体
レイヤ内のブロックのDCT係数から、次のフレームの
レイヤを探索するためのブロックを選択することを特徴
とする請求項1に記載の動画符号化装置。
5. The moving object layer searching unit according to claim 1, wherein a block for searching for a layer of a next frame is selected from DCT coefficients of blocks in the rectangular moving object layer. Video encoding device.
【請求項6】 背景画判定補償部は、内部にメモリを有
し、デコーダ側の持っている背景情報を記憶し、新しく
背景を更新するのに必要な情報のみを出力することを特
徴とする請求項1に記載の低ビットレート動画符号化装
置。
6. The background image determination / compensation unit has a memory therein, stores background information held by a decoder side, and outputs only information necessary for updating a new background. The low bit rate video encoding device according to claim 1.
【請求項7】 背景画判定補償部は、背景画像の動きベ
クトルを解析し、背景の平行移動、拡大、縮小といった
動きを検出することを特徴とする請求項1に記載の動画
符号化装置。
7. The moving image encoding apparatus according to claim 1, wherein the background image determination / compensation unit analyzes a motion vector of the background image and detects a motion of the background such as translation, enlargement, or reduction.
【請求項8】 動物体レイヤ探索部によって切り出され
た長方形レイヤには背景情報が含まれており、背景画判
定補償部は、背景の平行移動及び拡大縮小を検出し補償
することによって、再生時に動物体レイヤと補償した背
景画像との境界のノイズを発生させない特徴をもつこと
を特徴とする請求項1に記載の動画符号化装置。
8. The rectangular layer cut out by the moving object layer searching unit includes background information, and the background image determination compensating unit detects and compensates for parallel movement and enlargement / reduction of the background so that it can be reproduced at the time of reproduction. 2. The moving picture coding apparatus according to claim 1, wherein the moving picture coding apparatus has a feature that does not generate noise at a boundary between a moving object layer and a compensated background image.
【請求項9】 シーン検出部が、シーンの変わり目を検
出し、シーンをピクチャグループ単位として符号化処理
を行なうことを特徴とする請求項1に記載の低ビットレ
ート動画符号化装置。
9. The low bit rate moving image encoding apparatus according to claim 1, wherein the scene detecting unit detects a transition of the scene and performs the encoding process on a per picture group basis.
JP13046598A 1998-05-13 1998-05-13 Low bit rate dynamic image coder Pending JPH11331851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13046598A JPH11331851A (en) 1998-05-13 1998-05-13 Low bit rate dynamic image coder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13046598A JPH11331851A (en) 1998-05-13 1998-05-13 Low bit rate dynamic image coder

Publications (1)

Publication Number Publication Date
JPH11331851A true JPH11331851A (en) 1999-11-30

Family

ID=15034898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13046598A Pending JPH11331851A (en) 1998-05-13 1998-05-13 Low bit rate dynamic image coder

Country Status (1)

Country Link
JP (1) JPH11331851A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965642B2 (en) 2000-10-31 2005-11-15 Nec Corporation Method and device for compressing and decompressing moving image data and information recording medium
JP2006350618A (en) * 2005-06-15 2006-12-28 Kddi Corp Moving image processor
JP2008542896A (en) * 2005-05-31 2008-11-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Calculation of conversion parameters for image processing
JP2011199525A (en) * 2010-03-18 2011-10-06 Canon Inc Chapter information creation apparatus and control method therefor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965642B2 (en) 2000-10-31 2005-11-15 Nec Corporation Method and device for compressing and decompressing moving image data and information recording medium
JP2008542896A (en) * 2005-05-31 2008-11-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Calculation of conversion parameters for image processing
US8442118B2 (en) 2005-05-31 2013-05-14 Entropic Communications, Inc. Calculating transformation parameters for image processing
JP2006350618A (en) * 2005-06-15 2006-12-28 Kddi Corp Moving image processor
JP4688147B2 (en) * 2005-06-15 2011-05-25 Kddi株式会社 Moving image processing device
JP2011199525A (en) * 2010-03-18 2011-10-06 Canon Inc Chapter information creation apparatus and control method therefor

Similar Documents

Publication Publication Date Title
US7616782B2 (en) Mesh based frame processing and applications
Rongfu et al. Content-adaptive spatial error concealment for video communication
US20070030896A1 (en) Real-time video object generation for smart cameras
JP2003018604A (en) Image signal encoding method, device thereof and recording medium
JPH03253190A (en) Method and apparatus for hybrid coding for moving picture
JP2001086507A (en) Image coder, image coding method, image decoder, image decoding method, medium and image processor
US7295711B1 (en) Method and apparatus for merging related image segments
US20110187924A1 (en) Frame rate conversion device, corresponding point estimation device, corresponding point estimation method and corresponding point estimation program
JP2000050258A (en) Video retrieval method and video retrieval device
Malassiotis et al. Object-based coding of stereo image sequences using three-dimensional models
JPH08205149A (en) Video signal coding method
Wang et al. Evaluation of mesh-based motion estimation in H. 263-like coders
US20070047643A1 (en) Video data compression
JPH11331851A (en) Low bit rate dynamic image coder
JP2003203237A (en) Image matching method and device, and image coding method and device
Chen True motion estimation: Theory, application, and the implementation
Gu et al. Morphological moving object segmentation and tracking for content-based video coding
Chu et al. Hierarchical global motion estimation/compensation in low bitrate video coding
JP4321468B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
Chan et al. On block motion estimation using a novel search strategy for an improved adaptive pixel decimation
Nayak et al. Evaluation and comparison of motion estimation algorithms for video compression
KR100421208B1 (en) Wethod for synthesizing three-dimensional image
JPH11261983A (en) Moving image decoding device and moving image encoding/ decoding device
Echigo et al. Ghost error elimination and superimposition of moving objects in video mosaicing
Kim et al. Stochastic approach for motion vector estimation in video coding