JP2000078583A - Device for estimating adaptive movement - Google Patents

Device for estimating adaptive movement

Info

Publication number
JP2000078583A
JP2000078583A JP33030098A JP33030098A JP2000078583A JP 2000078583 A JP2000078583 A JP 2000078583A JP 33030098 A JP33030098 A JP 33030098A JP 33030098 A JP33030098 A JP 33030098A JP 2000078583 A JP2000078583 A JP 2000078583A
Authority
JP
Japan
Prior art keywords
block
search
matching
error function
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33030098A
Other languages
Japanese (ja)
Inventor
Sang-Hoon Lee
尚勲 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WiniaDaewoo Co Ltd
Original Assignee
Daewoo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daewoo Electronics Co Ltd filed Critical Daewoo Electronics Co Ltd
Publication of JP2000078583A publication Critical patent/JP2000078583A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/238Analysis of motion using block-matching using non-full search, e.g. three-step search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

PROBLEM TO BE SOLVED: To obtain a movement estimating device for adaptively deciding a movement vector through the use of a reduced calculating quantity by supplying the movement vector of each location block through the use of outputs from a boundary match movement estimating means and a block match movement estimating means based on a control signal. SOLUTION: A block match ME part 420 and a boundary match ME part 430 receive location area data from a location area forming part 410, location block data from a location block forming part and a control signal from an ME mode selecting part 440. When the block match ME part 420 is enabled by the first level control signal, the movement vector corresponding to the location block is supplied to MUX 450. When the boundary match ME part 430 is enabled by the second level control signal, a boundary match process is executed as against the location block and the movement vector corresponding to the location block is supplied to MUX 450.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動き推定装置に関
し、特に、減少された計算量で動きベクトルを適応的に
決定する動き推定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion estimation apparatus, and more particularly to a motion estimation apparatus that adaptively determines a motion vector with a reduced amount of calculation.

【0002】[0002]

【従来の技術】テレビ電話、電子会議及び高精細度テレ
ビジョンのようなディジタルテレビジョンシステムにお
いて、ビデオフレーム信号におけるビデオライン信号が
「画素」と呼ばれる一連のディジタルデータからなって
いるため、各ビデオフレーム信号を表現するのには大量
のディジタルデータが必要である。しかしながら、従来
の伝送チャネル上の利用可能な周波数帯域幅は制限され
ているので、そのチャネルを通じて大量のディジタルデ
ータを伝送するためには、とりわけ、テレビ電話及び電
子会議のような低ビットレートの映像信号エンコーダの
場合、様々なデータ圧縮技法を用いて伝送すべきデータ
の量を圧縮するか減らさなければならない。
2. Description of the Related Art In digital television systems such as videophones, teleconferencing and high definition television, each video line signal in a video frame signal consists of a series of digital data called "pixels". A large amount of digital data is required to represent a frame signal. However, the available frequency bandwidth on conventional transmission channels is limited, so transmitting large amounts of digital data over that channel requires, among other things, low bit rate video such as video telephony and teleconferencing. For signal encoders, various data compression techniques must be used to compress or reduce the amount of data to be transmitted.

【0003】低ビットレートの映像信号符号化システム
において、映像信号を符号化する方法の1つに、いわゆ
る物体(オブジェクト)指向分析/合成符号化方法(O
bject−Oriented Analysis−S
ynthesis coding techniqu
e)がある。この方法によれば、入力映像信号は複数の
物体に分けられ、各物体の動き、輪郭線及び画素データ
を規定する三つの組よりなるパラメータが異なる符号化
チャネルを通じて取り扱われる。
In a low bit rate video signal encoding system, one of the methods for encoding a video signal is a so-called object-oriented analysis / synthesis encoding method (O).
object-Oriented Analysis-S
ynthesis coding technology
e). According to this method, an input video signal is divided into a plurality of objects, and three sets of parameters defining the motion, contour, and pixel data of each object are handled through different encoding channels.

【0004】そのような物体指向分析/合成符号化方法
の一例として、所謂、MPEG−4(Moving P
icture Expert Group phase
−4)があるが、このMPEG−4は、低ビットレート
通信、対話型マルチメディア(例えば、ゲーム、対話型
テレビ、等々)及び領域監視用機部のような応用分野に
おいて内容ベースインタアクティビティ、改善された符
号化効率及び/または汎用アクセシビリティを可能とす
る視聴覚符号化標準案を提供する(例えば、MPEG−
4 Video Verification Mode
l Version 7.0,Internation
al Organization for Stand
ardization, ISO/IEC JTC1/
SC29/WG11 MPEG97/N1642, A
pril 1997、参照)。
As an example of such an object-oriented analysis / synthesis coding method, a so-called MPEG-4 (Moving P
icture Expert Group phase
-4), but MPEG-4 is a content-based interactivity in applications such as low bit rate communications, interactive multimedia (eg, games, interactive television, etc.) and area surveillance. Provide audiovisual coding standards that allow for improved coding efficiency and / or universal accessibility (e.g., MPEG-
4 Video Verification Mode
l Version 7.0, International
al Organization for Stand
ardization, ISO / IEC JTC1 /
SC29 / WG11 MPEG97 / N1642, A
pril 1997).

【0005】このMPEG−4によれば、入力ビデオ映
像は、使用者がアクセス可能で操作できるビットストリ
ーム内のエンティティに相応する、複数のビデオ物体平
面(Video Object Plane;VOP)
に分けられる。VOPは物体としても定義され、その幅
及び高さが各物体を取り囲む16画素(マクロブロック
の大きさ)の最小倍数になる四角形で表され得る。よっ
て、エンコーダはVOP単位、即ち、物体単位に入力ビ
デオ映像を取り扱うことになる。
According to MPEG-4, an input video image is composed of a plurality of video object planes (VOPs) corresponding to entities in a bit stream that can be accessed and operated by a user.
Divided into A VOP is also defined as an object and may be represented by a rectangle whose width and height are the smallest multiple of 16 pixels (the size of a macroblock) surrounding each object. Therefore, the encoder handles the input video image on a VOP basis, that is, on an object basis.

【0006】MPEG−4に開示されたVOPは、VO
Pにおける物体に対する形状情報及びテキスチャー情報
を有し、物体はVOP上で、各々が例えば、16×16
画素よりなる複数のマクロブロックに表現され、形状情
報は2値形状信号によって表示され、テキスチャー情報
はルミナンスデータ及びクロミナンスデータよりなる。
The VOP disclosed in MPEG-4 is called VO
P has shape information and texture information for the object in P, and the object is, for example, 16 × 16 on the VOP.
It is represented by a plurality of macroblocks composed of pixels, the shape information is represented by a binary shape signal, and the texture information is composed of luminance data and chrominance data.

【0007】順序的に入力される2つの入力ビデオ映像
に対するテキスチャー情報には時間的な冗長度が内在す
るので、テキスチャー情報を効果的に符号化するために
は、動き推定及び補償技法を用いてその時間的な冗長度
を取除く必要がある。
[0007] Since texture information for two input video images that are input in sequence has a temporal redundancy, in order to effectively encode the texture information, a motion estimation and compensation technique is used. It is necessary to remove the temporal redundancy.

【0008】動き推定及び補償、離散的コサイン変換を
行うためには、基準VOP(例えば、前VOP)はプロ
グレッシブ映像パディング技法(progressiv
eimage padding techniqu
e)、即ち、従来の反復的パディング技法(repet
itive padding technique)に
よってパディングされるべきである。従来の反復的パデ
ィング技法は通常、物体の輪郭線に位置する境界画素を
反復することによって、VOPの物体の外側にある透明
エリアを満たすものである。物体の外側における透明エ
リアにある透明画素が1つまたは複数の境界画素の反復
によって満たされ得る場合、境界画素の反復値を平均し
てパディング値として取る。プログレッシブパディング
プロセスは通常、3段階、即ち、水平反復パディング、
垂直反復パディング及び外部パディングに分けられる
(MPEG−4 VM 7.0参照)。
[0008] To perform motion estimation and compensation, and discrete cosine transform, a reference VOP (eg, a previous VOP) is a progressive video padding technique.
image padding technology
e), ie, the conventional iterative padding technique (repet
It should be padded by an active padding technique. Conventional iterative padding techniques typically fill a transparent area outside the object of the VOP by repeating boundary pixels located at the contour of the object. If the transparent pixels in the transparent area outside the object can be filled by one or more boundary pixel repetitions, the repetition values of the boundary pixels are averaged and taken as padding values. The progressive padding process usually has three stages: horizontal iterative padding,
It is divided into vertical repeat padding and outer padding (see MPEG-4 VM 7.0).

【0009】一方、従来のブロック整合アルゴリズムに
よると、現VOPは複数の探索ブロックに分けられる。
典型的に、探索ブロックの大きさは8×8画素から32
×32画素よりなる。現VOP内の探索ブロックに対す
る動きベクトルを決定するためには、探索ブロックと。
前VOPにおける、一般により大きい探索領域内に含ま
れた各複数の同一の大きさの候補ブロックとの間の類似
度を測定する。探索ブロックと各候補ブロックとの間の
類似度を計算するには、平均絶対誤差または平均二乗誤
差のような誤差関数を用いる。ここで、動きベクトルと
は、探索ブロックと最小の誤差関数をもたらす候補ブロ
ックとの間の変位を表す。
On the other hand, according to the conventional block matching algorithm, the current VOP is divided into a plurality of search blocks.
Typically, the size of the search block is from 8 × 8 pixels to 32
× 32 pixels. To determine a motion vector for a search block in the current VOP, a search block is used.
In the previous VOP, the similarity between each of a plurality of candidate blocks of the same size included in a generally larger search area is measured. To calculate the similarity between the search block and each candidate block, an error function such as a mean absolute error or a mean square error is used. Here, the motion vector represents a displacement between the search block and the candidate block that yields the minimum error function.

【0010】しかし、従来のブロック整合アルゴリズム
においては、誤差関数が1つの探索ブロックにおける全
ての画素に対して計算されるため、計算の過程が非常に
複雑である。リアルタイムの処理を効果的に具現するた
めには、従来のブロック整合アルゴリズムで発生する計
算の複雑さを減少させる必要がある。
However, in the conventional block matching algorithm, since the error function is calculated for all pixels in one search block, the calculation process is very complicated. In order to effectively implement real-time processing, it is necessary to reduce computational complexity generated by a conventional block matching algorithm.

【0011】[0011]

【発明が解決しようとする課題】従って、本発明の主な
目的は、減少された計算量をもって動きベクトルを適応
的に決定する動き推定装置を提供することにある。
SUMMARY OF THE INVENTION Accordingly, it is a primary object of the present invention to provide a motion estimating apparatus for adaptively determining a motion vector with a reduced amount of calculation.

【0012】[0012]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明によれば、現フレームのテキスチャーデー
タ、前フレームのテキスチャーデータ及び前記現フレー
ムの形状データが供給されるエンコーダに用いられ、映
像信号の前記前フレームと前記現フレームとの間の動き
を推定する動き推定装置であって、前記現フレームを複
数の同一の大きさの探索ブロックに分割する分割手段
と、前記前フレーム内に、1つの探索ブロックに相応す
る複数の探索領域を形成する探索領域形成手段と、前記
現フレームの形状データに基づいて、各探索ブロックが
背景画素及び物体画素を有する境界ブロックであるか、
または、物体画素のみを有する内部ブロックであるかを
決定して、制御信号を供給する探索ブロック決定手段
と、前記制御信号に基づいて、境界整合動き推定を行う
境界整合動き推定手段と、前記制御信号に基づいて、ブ
ロック整合動き推定を行うブロック整合動き推定手段
と、前記制御信号に基づいて前記境界整合動き推定手段
及びブロック整合動き推定手段からの出力を用いて、各
探索ブロックの動きベクトルを供給する動きベクトル供
給手段とを含むことを特徴とする動き推定装置が提供さ
れる。
According to the present invention, there is provided an encoder for supplying texture data of a current frame, texture data of a previous frame and shape data of the current frame. A motion estimating device for estimating a motion between the previous frame of the video signal and the current frame, wherein the dividing unit divides the current frame into a plurality of search blocks of the same size; A search area forming means for forming a plurality of search areas corresponding to one search block; and, based on the shape data of the current frame, whether each search block is a boundary block having a background pixel and an object pixel,
A search block determining unit that determines whether the block is an internal block having only object pixels and supplies a control signal; a boundary matching motion estimating unit that performs a boundary matching motion estimation based on the control signal; A block matching motion estimating means for performing block matching motion estimation based on the signal, and a motion vector of each search block, And a motion vector supply unit for supplying the motion vector.

【0013】[0013]

【発明の実施の形態】以下、本発明の好適実施例につい
て図面を参照しながらより詳しく説明する。
Preferred embodiments of the present invention will be described below in detail with reference to the drawings.

【0014】図1を参照すると、本発明による符号化装
置1のブロック図が示されている。
Referring to FIG. 1, a block diagram of an encoding device 1 according to the present invention is shown.

【0015】1つまたはそれ以上の現VOPを有する現
フレームのテキスチャーデータは、探索ブロック形成部
100に供給される。探索ブロック形成部100は、現
フレームにおける現VOPを複数の同一の大きさ(例え
ば、16×16個の画素)の探索ブロックに分割して、
該探索ブロックデータを減算部200及び動き推定(M
E)部400に各々供給する。
The texture data of the current frame having one or more current VOPs is supplied to a search block forming unit 100. The search block forming unit 100 divides the current VOP in the current frame into a plurality of search blocks of the same size (for example, 16 × 16 pixels),
The search block data is subtracted from the subtraction unit 200 and the motion estimation (M
E) Supply each to the section 400.

【0016】ME部400は、フレームメモリ300か
ら1つまたはそれ以上の前VOPを有する前フレームの
テキスチャーデータを受取る。ここで、前フレームにお
ける境界ブロックは、加算部1000にて再構成された
後、パディング部1100によってパディングされてい
る。
The ME unit 400 receives the texture data of the previous frame having one or more previous VOPs from the frame memory 300. Here, the boundary block in the previous frame is padded by the padding unit 1100 after being reconstructed by the adding unit 1000.

【0017】その後、ME部400は、1つの探索ブロ
ックに相応する複数の探索領域を前VOP内に生成す
る。一方、ME部400は現フレームの形状データを受
取る。ここで、現フレームにおける各画素は、各画素の
属する領域を表すラベルを有する。例えば、背景画素
は、「0」として、物体画素は「0」でない値として表
示される。
After that, the ME unit 400 generates a plurality of search areas corresponding to one search block in the previous VOP. On the other hand, the ME unit 400 receives the shape data of the current frame. Here, each pixel in the current frame has a label indicating a region to which each pixel belongs. For example, the background pixel is displayed as “0”, and the object pixel is displayed as a value other than “0”.

【0018】ME部400は、各探索ブロックに対して
適応的動き推定を行うことによって、探索ブロックに相
応する動きベクトルを決定する。即ち、探索ブロックが
境界ブロックである場合は、その探索ブロックに相応す
る動きベクトルは、従来のブロック整合動き推定技法に
よって決定され、探索ブロックが内部ブロックである場
合には、その探索ブロックに相当する動きベクトルは、
境界整合動き推定技法によって決定される。ここで、境
界ブロックは背景及び物体に属する画素より構成され、
内部ブロックは物体に属する画素のみより構成される。
本発明による詳細な動き推定技法は、図2〜図4を参照
して後述する。動きベクトルは、動き補償(MC)部5
00及び伝送器(図示せず)に供給される。
The ME unit 400 determines a motion vector corresponding to a search block by performing adaptive motion estimation on each search block. That is, when the search block is a boundary block, a motion vector corresponding to the search block is determined by a conventional block matching motion estimation technique, and when the search block is an inner block, it corresponds to the search block. The motion vector is
It is determined by a boundary matching motion estimation technique. Here, the boundary block is composed of pixels belonging to the background and the object,
The inner block is composed of only pixels belonging to the object.
The detailed motion estimation technique according to the present invention will be described later with reference to FIGS. The motion vector is calculated by a motion compensation (MC) unit 5.
00 and a transmitter (not shown).

【0019】MC部500は、ME部400から動きベ
クトルを受取り、フレームメモリ300から相応する各
最適の候補ブロックの画素データを受取る。その後、M
C部500は、相応する動きベクトルを用いて、各最適
の候補ブロックに対して動き補償の過程を行って、動き
補償された最適の候補ブロックを生成し、これを減算部
200及び加算部1000に各々供給する。
The MC unit 500 receives the motion vector from the ME unit 400 and receives the pixel data of the corresponding optimal candidate block from the frame memory 300. Then M
The C unit 500 performs a motion compensation process on each optimal candidate block using the corresponding motion vector to generate a motion-compensated optimal candidate block. Respectively.

【0020】減算部200は、相応する探索ブロックか
ら動き補償された最適の候補ブロックを減算し、その減
算結果(即ち、誤差信号)をパディング部600に供給
する。このパディング部600は、現フレームの形状デ
ータを受取る。誤差信号は、従来のマクロブロックベー
スパディング技法に基づいて、現フレームの形状データ
によってパディングされる。パディング誤差信号は、離
散的コサイン変換及び量子化(DCT&Q)部700に
供給される。
The subtraction unit 200 subtracts the optimal motion-compensated candidate block from the corresponding search block, and supplies the result of the subtraction (ie, an error signal) to the padding unit 600. This padding unit 600 receives the shape data of the current frame. The error signal is padded with shape data of the current frame based on a conventional macroblock-based padding technique. The padding error signal is supplied to a discrete cosine transform and quantization (DCT & Q) unit 700.

【0021】DCT&Q部700は、パディング済みの
誤差信号に対して離散的コサイン変換及び量子化を行っ
て、量子化された離散的コサイン変換係数の組を、統計
的符号化部800と逆離散的コサイン変換及び逆量子化
(IDCT&IQ)部900とに各々供給する。統計的
符号化部800は、量子化された離散的コサイン変換係
数の組を統計的に符号化して、統計的符号化信号を伝送
器に供給する。
The DCT & Q section 700 performs a discrete cosine transform and quantization on the padded error signal, and outputs a set of quantized discrete cosine transform coefficients to the statistical encoding section 800 and the inverse discrete It is supplied to a cosine transform and inverse quantization (IDCT & IQ) section 900, respectively. The statistical encoding unit 800 statistically encodes the quantized set of discrete cosine transform coefficients, and supplies a statistically encoded signal to the transmitter.

【0022】IDCT&IQ部900は、量子化された
離散的コサイン変換係数の組に対して逆離散的コサイン
変換及び逆量子化を行って、その復元された誤差信号を
加算部1000に供給する。加算部1000は、復元誤
差信号とMC部500からの動き補償された最適の候補
ブロックとを加算して、再構成された探索ブロック(再
構成探索ブロック)を発生する。
IDCT & IQ section 900 performs inverse discrete cosine transform and inverse quantization on the quantized set of discrete cosine transform coefficients, and supplies the restored error signal to adder 1000. The adding section 1000 adds the restoration error signal and the motion-compensated optimal candidate block from the MC section 500 to generate a reconstructed search block (reconstruction search block).

【0023】パディング部1100は、再構成探索ブロ
ック及び現フレームの形状データを受取って、従来のマ
クロブロックベースパディング技法に基づいて復元され
た探索ブロックをパディングする。このパディングされ
再構成された探索ブロックは、次のフレームのために前
フレームのテキスチャーデータとしてフレームメモリ3
00に格納される。
The padding unit 1100 receives the reconstructed search block and the shape data of the current frame, and pads the reconstructed search block based on a conventional macroblock-based padding technique. This padded and reconstructed search block is stored in the frame memory 3 as texture data of the previous frame for the next frame.
00 is stored.

【0024】図2を参照すると、図1に示したME部4
00の詳細なブロック図が示されている。ME部400
は、探索領域形成部410、ブロック整合動き推定(M
E)部420、境界整合動き推定(ME)部430、動
き推定(ME)モード選択部440及びMUX450を
含む。
Referring to FIG. 2, ME section 4 shown in FIG.
A detailed block diagram of 00 is shown. ME section 400
Are the search area forming unit 410 and the block matching motion estimation (M
E) unit 420, boundary matching motion estimation (ME) unit 430, motion estimation (ME) mode selection unit 440, and MUX 450.

【0025】前フレームのテキスチャーデータは、フレ
ームメモリ300から探索領域形成部410に供給され
る。探索領域形成部410は、一定の大きさ、形態及び
探索パターンを有する探索ブロックに相応する探索領域
を定義する。これによって、探索ブロックに対する動き
推定が行われる。探索領域が探索領域形成部410にて
決定された後、探索領域データはブロック整合ME部4
20及び境界整合ME部430に各々供給される。
The texture data of the previous frame is supplied from the frame memory 300 to the search area forming section 410. The search area forming unit 410 defines a search area corresponding to a search block having a certain size, shape, and search pattern. As a result, motion estimation for the search block is performed. After the search area is determined by the search area forming section 410, the search area data is stored in the block matching ME section 4.
20 and the boundary matching ME unit 430.

【0026】一方、現フレームの形状データは、MEモ
ード選択部440に供給される。MEモード選択部44
0は現フレームの形状データに基づいて、探索ブロック
が境界ブロックであるかまたは内部ブロックであるかを
判定する。即ち、現フレームの形状データにおける領域
が探索ブロックと同一の位置にあり、境界画素及び物体
画素を有する探索ブロックと同一の大きさである場合
は、その探索ブロックは境界ブロックとして決定され、
該領域が物体画素のみを有する場合には、その探索ブロ
ックは内部ブロックとして決定される。
On the other hand, the shape data of the current frame is supplied to the ME mode selector 440. ME mode selection unit 44
0 determines whether the search block is a boundary block or an internal block based on the shape data of the current frame. That is, if the area in the shape data of the current frame is at the same position as the search block and is the same size as the search block having the boundary pixels and the object pixels, the search block is determined as a boundary block,
If the region has only object pixels, the search block is determined as an inner block.

【0027】探索ブロックが境界ブロックとして決定さ
れる場合は、MEモード選択部440は、第1レベルの
制御信号をブロック整合ME部420、境界整合ME部
430及びMUX450に各々供給する。この第1レベ
ルの制御信号は、ブロック整合ME部420をイネーブ
ルさせ、境界整合ME部430をディスエーブルさせ、
MUX450にしてブロック整合ME部420から供給
される入力を選択して、MC部500及び伝送器に供給
するようにする。探索ブロックが内部ブロックとして決
定される場合には、MEモード選択部440は、第2レ
ベルの制御信号をブロック整合ME部420、境界整合
ME部430及びMUX450に各々供給する。この第
2レベルの制御信号は、境界整合ME部430をイネー
ブルさせ、ブロック整合ME部420をディスエーブル
させ、MUX450にして境界整合ME部430から供
給される入力を選択して、MC部500及び伝送器に各
々供給するようにする。
When the search block is determined as a boundary block, the ME mode selection unit 440 supplies the first level control signal to the block matching ME unit 420, the boundary matching ME unit 430, and the MUX 450, respectively. The first level control signal enables the block matching ME unit 420, disables the boundary matching ME unit 430,
The input supplied from the block matching ME unit 420 is selected as the MUX 450 and supplied to the MC unit 500 and the transmitter. When the search block is determined as an internal block, the ME mode selection unit 440 supplies the second level control signal to the block matching ME unit 420, the boundary matching ME unit 430, and the MUX 450, respectively. The second level control signal enables the boundary matching ME unit 430, disables the block matching ME unit 420, sets the MUX 450 to the input supplied from the boundary matching ME unit 430, and selects the MC unit 500 and Each is supplied to the transmitter.

【0028】ブロック整合ME部420及び境界整合M
E部430は、探索領域形成部410からの探索領域デ
ータと、探索ブロック形成部100からの探索ブロック
データと、MEモード選択部440からの制御信号とを
受取る。ブロック整合ME部420が第1レベルの制御
信号によってイネーブルされる場合は、探索ブロックに
対して従来のブロック整合の過程を行って、その探索ブ
ロックに相応する動きベクトルをMUX450に供給
し、境界整合ME部430が第2のレベルの制御信号に
よってイネーブルされる場合には、探索ブロックに対し
て境界整合の過程を行って、その探索ブロックに相応す
る動きベクトルをMUX450に供給する。ブロック整
合ME部420及び境界整合ME部430の詳細な動作
は、図3及び図4を参照して各々説明する。
Block matching ME section 420 and boundary matching M
E section 430 receives search area data from search area forming section 410, search block data from search block forming section 100, and a control signal from ME mode selecting section 440. When the block matching ME unit 420 is enabled by the first level control signal, a conventional block matching process is performed on the search block, and a motion vector corresponding to the search block is supplied to the MUX 450, and the boundary matching is performed. When the ME unit 430 is enabled by the second level control signal, the search unit performs a boundary matching process on the search block and supplies a motion vector corresponding to the search block to the MUX 450. Detailed operations of the block matching ME unit 420 and the boundary matching ME unit 430 will be described with reference to FIGS. 3 and 4, respectively.

【0029】図3を参照すると、ブロック整合ME部4
20の詳細なブロック図が示されている。MEモード選
択部440からの第1レベルの制御信号によってイネー
ブルされた候補ブロック形成部422は、複数(例え
ば、M個)の同一の大きさの候補ブロックを探索領域内
に形成する。ここで、探索領域データは、図2中の探索
領域形成部410から供給され、候補ブロックの大きさ
は探索ブロックの大きさと同一であり、Mは形成された
候補ブロックの総数を表す正の整数である。i番目の候
補ブロックの画素データは、i番目のブロック整合誤差
関数計算部424−i(iは1〜Mの範囲を有する正の
整数)に供給される。
Referring to FIG. 3, the block matching ME unit 4
A detailed block diagram of 20 is shown. The candidate block forming unit 422 enabled by the first level control signal from the ME mode selecting unit 440 forms a plurality of (for example, M) candidate blocks of the same size in the search area. Here, the search area data is supplied from the search area forming unit 410 in FIG. 2, the size of the candidate block is the same as the size of the search block, and M is a positive integer representing the total number of formed candidate blocks. It is. The pixel data of the i-th candidate block is supplied to the i-th block matching error function calculator 424-i (i is a positive integer having a range of 1 to M).

【0030】さらに、候補ブロック形成部422は、探
索ブロックから各候補ブロックまでの変位ベクトル(即
ち、DV1〜DVM)を決定して、第1選択部428に供
給する。そして、探索ブロックデータはブロック整合誤
差関数計算部424−1〜424−Mに各々供給され
る。ここでは、説明の便宜上、3つのブロックのみを示
した。i番目のブロック整合誤差関数計算部424−i
においては、探索ブロックとi番目の候補ブロックとの
間のブロック整合誤差関数(例えば、平均絶対誤差また
は平均二乗誤差)が計算される。ブロック整合誤差関数
は、例えば、探索ブロックにおける物体画素とi番目の
候補ブロックにおける相応する画素との間の平均絶対誤
差または平均二乗誤差である。ここで、探索ブロックに
おける物体画素は現フレームの形状データに基づいて決
定される。この計算された誤差関数は第1比較部426
に供給される。
Further, the candidate block forming section 422 determines a displacement vector (ie, DV 1 to DV M ) from the search block to each candidate block, and supplies it to the first selecting section 428. Then, the search block data is supplied to the block matching error function calculation units 424-1 to 424-M, respectively. Here, only three blocks are shown for convenience of explanation. i-th block matching error function calculator 424-i
In, a block matching error function (eg, mean absolute error or mean square error) between the search block and the i-th candidate block is calculated. The block matching error function is, for example, the average absolute error or the mean square error between the object pixel in the search block and the corresponding pixel in the i-th candidate block. Here, the object pixel in the search block is determined based on the shape data of the current frame. The calculated error function is calculated by the first comparing unit 426.
Supplied to

【0031】第1比較部426は、ブロック整合誤差関
数を互いに比較して、その誤差関数のうちの最小ブロッ
ク整合誤差関数を選択することによって、該当最小ブロ
ック整合誤差関数を表す第1指示信号を第1選択部42
8に供給する。第1選択部428は第1指示信号に応じ
て、最小ブロック整合誤差関数に相応する変位ベクトル
を探索ブロックの動きベクトルとしてMUX450に供
給する。
The first comparing section 426 compares the block matching error functions with each other and selects a minimum block matching error function from the error functions, thereby generating a first instruction signal representing the corresponding minimum block matching error function. First selection unit 42
8 The first selector 428 supplies a displacement vector corresponding to the minimum block matching error function to the MUX 450 as a motion vector of the search block according to the first instruction signal.

【0032】図4は、図2中の境界整合ME部430の
詳細なブロック図である。映像信号における隣接する画
素値は互いに連関性が非常に高いので、内部ブロックに
対しては境界整合技法が有用である。
FIG. 4 is a detailed block diagram of the boundary matching ME unit 430 in FIG. Since adjacent pixel values in a video signal are very highly related to each other, a boundary matching technique is useful for internal blocks.

【0033】MEモード選択部440からの第2レベル
の制御信号によってイネーブルされた拡張済み候補ブロ
ック形成部432は、探索領域内に、複数(例えば、M
個)の同一の大きさの拡張された候補ブロックを形成す
る。ここで、探索領域データは、図2中の探索領域形成
部410から供給され、拡張済みの候補ブロックは候補
ブロックと該候補ブロックの周りに1画素の広さを有す
る境界とから構成される。即ち、探索ブロック及び拡張
ブロックの大きさが16×16個の画素であるため、拡
張された候補ブロックの大きさは18×18個の画素で
ある。
The extended candidate block forming section 432 enabled by the second level control signal from the ME mode selecting section 440 has a plurality (for example, M
) Extended candidate blocks of the same size. Here, the search area data is supplied from the search area forming unit 410 in FIG. 2, and the extended candidate block includes a candidate block and a boundary having a size of one pixel around the candidate block. That is, since the size of the search block and the extension block is 16 × 16 pixels, the size of the extended candidate block is 18 × 18 pixels.

【0034】さらに、拡張済みブロック整合ME部43
2は、探索ブロックから各拡張済みの候補ブロックまで
の変位ベクトル(即ち、DV1〜DVM)を決定して、第
2選択部438に供給する。そして、探索ブロックデー
タは、各境界整合誤差関数計算部434−1〜434−
Mに供給される。ここでは、説明の便宜上、3つのブロ
ックのみを示す。各境界整合誤差関数計算部434−1
〜434−Mにおいては境界整合誤差関数が計算され
る。境界整合誤差関数計算の過程は、図5を参照して説
明する。
Further, the expanded block matching ME unit 43
2 determines a displacement vector (ie, DV 1 to DV M ) from the search block to each extended candidate block, and supplies the displacement vector to the second selection unit 438. Then, the search block data is stored in each of the boundary matching error function calculation units 434-1 to 434-.
M. Here, only three blocks are shown for convenience of explanation. Each boundary matching error function calculator 434-1
In 43434-M, the boundary matching error function is calculated. The process of calculating the boundary matching error function will be described with reference to FIG.

【0035】図5に示すように、探索ブロックSBは拡
張された候補ブロックと重なって、探索ブロックの位置
と拡張された候補ブロック内に含まれた候補ブロックの
位置とが完全に一致するようになる。本発明の実施例に
おいては、探索ブロックSBが16×16個の画素を有
するが、便宜上16個の画素のみを示す。
As shown in FIG. 5, the search block SB overlaps with the extended candidate block so that the position of the search block and the position of the candidate block included in the extended candidate block completely match. Become. In the embodiment of the present invention, the search block SB has 16 × 16 pixels, but only 16 pixels are shown for convenience.

【0036】その後、本発明の好適実施例によれば、探
索ブロックと拡張済みの候補ブロックの画素値との間の
差分は、最上行及び最左列に対して検出され、境界整合
誤差関数は下記のように計算される。
Thereafter, according to the preferred embodiment of the present invention, the difference between the pixel value of the search block and the pixel value of the expanded candidate block is detected for the top row and the leftmost column, and the boundary matching error function is It is calculated as follows.

【0037】[0037]

【数1】 (Equation 1)

【0038】ここで、E:探索ブロックと拡張済みの候
補ブロックとの間の境界整合誤差関数 P1 i:探索ブロックの最上行におけるi番目の画素の
画素値 Ti:拡張済みの候補ブロックの最上行におけるi番目
の画素の画素値 Pi 1:探索ブロックの最左列におけるi番目の画素の
画素値 Li:拡張済みの候補ブロックの最左列におけるi番目
の画素の画素値 本発明の他の実施例によれば、探索ブロックの画素値と
拡張済みの候補ブロックの画素値との間の差分が最上
行、最下行、最左列及び最右列に対して検出され、境界
整合誤差関数がより正確になる。境界整合誤差関数は、
下記のように計算される。
Here, E: the boundary matching error function between the search block and the extended candidate block P 1 , i : the pixel value of the i-th pixel in the top row of the search block T i : the extended candidate block pixel values P i, the i th pixel in the top row of 1: pixel value L i of the i-th pixel in the leftmost column of a search block: the pixel value of the i th pixel in the leftmost column of the packed and extended candidate blocks According to another embodiment of the present invention, a difference between the pixel value of the search block and the pixel value of the expanded candidate block is detected for the top row, the bottom row, the leftmost column and the rightmost column, Boundary matching error function becomes more accurate. The boundary matching error function is
It is calculated as follows.

【0039】[0039]

【数2】 (Equation 2)

【0040】ここで、P16 i:探索ブロックの最下行に
おけるi番目の画素の画素値 Bi:拡張済みの候補ブロックの最下行におけるi番目
の画素の画素値 Pi 16:探索ブロックの最右列におけるi番目の画素の
画素値 Ri:拡張済みの候補ブロックの最右列におけるi番目
の画素の画素値 計算された境界整合誤差関数は、第2比較部436に供
給される。
Here, P 16 , i : the pixel value of the ith pixel in the bottom row of the search block B i : the pixel value of the ith pixel in the bottom row of the expanded candidate block P i , 16 : the search block The pixel value of the ith pixel in the rightmost column of R i : the pixel value of the ith pixel in the rightmost column of the expanded candidate block The calculated boundary matching error function is supplied to the second comparing unit 436 .

【0041】第2比較部436は、各々の境界整合誤差
関数を互いに比較して、境界整合誤差関数のうちの最小
境界整合誤差関数を選択した後、その最小境界整合誤差
関数を表す第2指示信号を第2選択部438に供給す
る。この場合、最適の候補ブロックは、最小境界整合誤
差関数に相応する拡張済みの候補ブロックにおける候補
ブロックである。第2選択部438は第2指示信号に応
じて、最小境界整合誤差関数に相応する変位ベクトルを
探索ブロックの動きベクトルとしてMUX450に供給
する。
The second comparing section 436 compares the respective boundary matching error functions with each other, selects a minimum boundary matching error function among the boundary matching error functions, and then generates a second instruction representing the minimum boundary matching error function. The signal is supplied to the second selector 438. In this case, the optimal candidate block is the candidate block in the extended candidate block corresponding to the minimum boundary matching error function. The second selector 438 supplies a displacement vector corresponding to the minimum boundary matching error function to the MUX 450 as a motion vector of the search block according to the second instruction signal.

【0042】上述したように、ブロック整合または境界
整合の過程は各探索ブロックに選択的に適用されること
によって、計算の複雑さをずいぶん減少させる。例え
ば、探索ブロックの大きさが16×16である場合、ブ
ロック整合技法において差分は16×16個の対の画素
に対して計算される。しかし、本発明の第1実施例によ
る境界整合技法においては、16×2個の対の画素に対
してのみ差分が計算され、その計算量が1/8だけ減ら
される。
As mentioned above, the process of block matching or boundary matching is applied selectively to each search block, thereby significantly reducing the computational complexity. For example, if the size of the search block is 16 × 16, the difference is calculated for 16 × 16 pairs of pixels in a block matching technique. However, in the boundary matching technique according to the first embodiment of the present invention, the difference is calculated only for 16 × 2 pairs of pixels, and the calculation amount is reduced by 8.

【0043】上記において、本発明の好適な実施の形態
について説明したが、本発明の請求範囲を逸脱すること
なく、当業者は種々の改変をなし得るであろう。
Although the preferred embodiments of the present invention have been described above, those skilled in the art will be able to make various modifications without departing from the scope of the present invention.

【0044】[0044]

【発明の効果】従って、本発明によれば、ブロック整合
または境界整合を各探索ブロックに対して選択的に適用
可能であり、動きベクトルの計算の際、計算量の複雑さ
をより一層減らすことができる。
Thus, according to the present invention, block matching or boundary matching can be selectively applied to each search block, and the complexity of the calculation of the motion vector can be further reduced. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による符号化装置のブロック図である。FIG. 1 is a block diagram of an encoding device according to the present invention.

【図2】図1中の動き推定部の詳細なブロック図であ
る。
FIG. 2 is a detailed block diagram of a motion estimator in FIG. 1;

【図3】図2中のブロック整合動き推定部の詳細なブロ
ック図である。
FIG. 3 is a detailed block diagram of a block matching motion estimator in FIG. 2;

【図4】図2中の境界整合動き推定部の詳細なブロック
図である。
FIG. 4 is a detailed block diagram of a boundary matching motion estimator in FIG. 2;

【図5】本発明の好適実施例による境界整合過程を示す
模式図である。
FIG. 5 is a schematic diagram illustrating a boundary matching process according to a preferred embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 探索ブロック形成部 200 減算部 300 フレームメモリ 400 動き推定(ME)部 410 探索領域形成部 420 ブロック整合動き推定(ME)部 422 候補ブロック形成部 424−1〜424−M 誤差関数計算部 426 第1比較部 428 第1選択部 430 境界整合動き推定(ME)部 432 拡張済みブロック整合ME部 434−1〜434−M 誤差関数計算部 436 第2比較部 438 第2選択部 440 動き推定(ME)モード選択部 450 MUX 500 動き補償(MC)部 600、1100 パディング部 700 DCT&Q部 800 統計的符号化部 900 IDCT&IQ部 1000 加算部 DESCRIPTION OF SYMBOLS 100 Search block formation part 200 Subtraction part 300 Frame memory 400 Motion estimation (ME) part 410 Search area formation part 420 Block matching motion estimation (ME) part 422 Candidate block formation part 424-1 to 424-M Error function calculation part 426 1 comparison unit 428 first selection unit 430 boundary matching motion estimation (ME) unit 432 extended block matching ME unit 434-1 to 434-M error function calculation unit 436 second comparison unit 438 second selection unit 440 motion estimation (ME) ) Mode selection unit 450 MUX 500 Motion compensation (MC) unit 600, 1100 Padding unit 700 DCT & Q unit 800 Statistical coding unit 900 IDCT & IQ unit 1000 Addition unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 現フレームのテキスチャーデータ、前
フレームのテキスチャーデータ及び前記現フレームの形
状データが供給されるエンコーダに用いられ、映像信号
の前記前フレームと前記現フレームとの間の動きを推定
する動き推定装置であって、 前記現フレームを複数の同一の大きさの探索ブロックに
分割する分割手段と、 前記前フレーム内に、1つの探索ブロックに相応する複
数の探索領域を形成する探索領域形成手段と、 前記現フレームの形状データに基づいて、各探索ブロッ
クが背景画素及び物体画素を有する境界ブロックである
か、または、物体画素のみを有する内部ブロックである
かを決定して、制御信号を供給する探索ブロック決定手
段と、 前記制御信号に基づいて、境界整合動き推定を行う境界
整合動き推定手段と、 前記制御信号に基づいて、ブロック整合動き推定を行う
ブロック整合動き推定手段と、 前記制御信号に基づいて前記境界整合動き推定手段及び
ブロック整合動き推定手段からの出力を用いて、各探索
ブロックの動きベクトルを供給する動きベクトル供給手
段とを含むことを特徴とする動き推定装置。
1. An encoder to which texture data of a current frame, texture data of a previous frame and shape data of the current frame are supplied, and estimates a motion between the previous frame and the current frame of a video signal. A motion estimating device, comprising: a dividing unit configured to divide the current frame into a plurality of search blocks of the same size; and a search area forming a plurality of search areas corresponding to one search block in the previous frame. Means, based on the shape data of the current frame, determines whether each search block is a boundary block having a background pixel and an object pixel, or an internal block having only an object pixel, and outputs a control signal. A search block determining means to be supplied; a boundary matching motion estimating means for performing a boundary matching motion estimation based on the control signal; A block matching motion estimating means for performing block matching motion estimation based on a control signal; and a motion vector of each search block using outputs from the boundary matching motion estimating means and block matching motion estimating means based on the control signal. And a motion vector supply unit for supplying a motion vector.
【請求項2】 前記探索ブロック決定手段が、探索ブ
ロックが内部ブロックである場合は、第1レベルの制御
信号を発生し、前記探索ブロックが境界ブロックである
場合には、第2レベルの制御信号を発生することを特徴
とする請求項1に記載の動き推定装置。
2. The search block determining means generates a first level control signal when the search block is an internal block, and generates a second level control signal when the search block is a boundary block. The motion estimation device according to claim 1, wherein
【請求項3】 前記第1レベルの制御信号は、前記境
界整合動き推定手段をイネーブルさせ、前記ブロック整
合動き推定手段をディスエーブルさせて、前記動きベク
トル供給手段にして前記境界整合動き推定手段からの出
力を供給するようにし、前記第2レベルの制御信号は、
前記境界整合動き推定手段をディスエーブルさせ、前記
ブロック整合動き推定手段をイネーブルさせて、前記動
きベクトル供給手段にしてブロック整合動き推定手段か
らの出力を供給するようにすることを特徴とする請求項
2に記載の動き推定装置。
3. The control signal of the first level enables the boundary matching motion estimating means, disables the block matching motion estimating means, and sets the motion vector supply means as the motion vector supplying means. And the second level control signal comprises:
2. The method according to claim 1, further comprising: disabling said boundary matching motion estimating means, enabling said block matching motion estimating means, and supplying an output from said block matching motion estimating means as said motion vector supplying means. 3. The motion estimation device according to 2.
【請求項4】 前記境界整合動き推定手段が、 前記候補ブロックと同一の大きさを有する前記探索ブロ
ックに相応する探索領域内に、1つの候補ブロックと該
候補ブロックの周りに1画素の広さを有する境界とより
構成される複数の拡張済みの候補ブロックを形成する拡
張候補ブロック形成手段と、 前記各拡張済みの候補ブロックから前記探索ブロックま
での変位を、前記各拡張済みの候補ブロックの変位ベク
トルとして供給する変位供給手段と、 前記探索ブロックと相応する拡張済みの候補ブロックと
の間の境界整合誤差関数を計算する境界整合誤差関数計
算手段と、 各境界整合誤差関数を互いに比較して、最小境界整合誤
差関数を選択する最小誤差関数選択手段と、 最小境界整合誤差関数に相応する変位ベクトルを前記探
索ブロックの動きベクトルとして供給する変位ベクトル
供給手段とを有することを特徴とする請求項3に記載の
動き推定装置。
4. The method according to claim 1, wherein the boundary matching motion estimating means includes: a search block corresponding to the search block having the same size as the candidate block; Extended candidate block forming means for forming a plurality of extended candidate blocks composed of a boundary having: a displacement from each of the extended candidate blocks to the search block; and a displacement of each of the extended candidate blocks. Displacement supply means for supplying as a vector, boundary matching error function calculating means for calculating a boundary matching error function between the search block and the corresponding extended candidate block, and comparing each boundary matching error function with each other, A minimum error function selecting means for selecting a minimum boundary matching error function; and a displacement vector corresponding to the minimum boundary matching error function, Motion estimation apparatus as claimed in claim 3, characterized in that it comprises a displacement vector supply means for supplying as can vector.
【請求項5】 前記最小境界整合誤差関数計算手段
が、 前記探索ブロックの位置が前記拡張済みの候補ブロック
に含まれた前記候補ブロックの位置と完全に一致するよ
うに、前記探索ブロックを拡張された候補ブロックに重
ねる重複手段と、 前記探索ブロックにおける予め定められた領域の画素と
前記拡張済みの候補ブロックにおける該当領域の該当画
素との間の差分を計算する差分計算手段と、 前記計算された各差分を和して、前記探索ブロックと前
記拡張済みの候補ブロックとの間の誤差関数を供給する
誤差関数供給手段とを含むことを特徴とする請求項4に
記載の動き推定装置。
5. The minimum boundary matching error function calculating means expands the search block so that the position of the search block completely matches the position of the candidate block included in the expanded candidate block. Overlapping means for superimposing on the candidate block, difference calculating means for calculating a difference between a pixel of a predetermined area in the search block and a corresponding pixel of the corresponding area in the expanded candidate block, 5. The motion estimation apparatus according to claim 4, further comprising: an error function supply unit that sums the differences and supplies an error function between the search block and the extended candidate block.
【請求項6】 前記探索ブロックにおける予め定めら
れた領域は、前記探索ブロックの最上行及び最左列であ
り、前記拡張された候補ブロックにおける相応する領域
は、前記拡張済みの候補ブロックの最上行及び最左列で
あることを特徴とする請求項5に記載の動き推定装置。
6. The predetermined area in the search block is a top row and a leftmost column of the search block, and a corresponding area in the expanded candidate block is a top row and a top row of the expanded candidate block. The motion estimating device according to claim 5, wherein the left and right columns are arranged.
【請求項7】 前記探索ブロックにおける予め定めら
れた領域は、前記探索ブロックの最上行、最下行、最左
列及び最右列であり、前記拡張された候補ブロックにお
ける相応する領域は、前記拡張済みの候補ブロックの最
上行、最下行、最左列及び最右列であることを特徴とす
る請求項5に記載の動き推定装置。
7. The predetermined area in the search block is an uppermost row, a lowermost row, a leftmost column, and a rightmost column of the search block, and a corresponding area in the extended candidate block is the extended area. The motion estimation device according to claim 5, wherein the top row, the bottom row, the leftmost column, and the rightmost column of the completed candidate blocks.
【請求項8】 前記ブロック整合動き推定手段が、 前記探索ブロックに相応する探索領域内に複数の候補ブ
ロックを形成する候補ブロック形成手段と、 各候補ブロックから前記探索ブロックまでの変位を、前
記各候補ブロックの変位ベクトルとして発生する変位ベ
クトル発生手段と、 前記探索ブロックと相応する候補ブロックとの間のブロ
ック整合誤差関数を計算する誤差関数計算手段と、 ブロック整合誤差関数を互いに比較して、最小ブロック
整合誤差関数を選択する最小ブロック整合誤差関数選択
手段と、 最小ブロック整合誤差関数に相応する変位ベクトルを前
記探索の動きベクトルとして供給する変位ベクトル供給
手段とを有することを特徴とする請求項5に記載の動き
推定装置。
8. The block matching motion estimating means includes: a candidate block forming means for forming a plurality of candidate blocks in a search area corresponding to the search block; and a displacement from each candidate block to the search block. A displacement vector generating means for generating a displacement vector of the candidate block; an error function calculating means for calculating a block matching error function between the search block and the corresponding candidate block; 6. A minimum block matching error function selecting means for selecting a block matching error function, and a displacement vector supplying means for supplying a displacement vector corresponding to the minimum block matching error function as a motion vector for the search. The motion estimation device according to item 1.
【請求項9】 前記ブロック整合誤差関数計算手段
が、 前記探索ブロックを候補ブロックと重ねる重複手段と、 前記探索ブロックにおける物体画素と前記候補ブロック
における該当画素との間の差分を計算する差分計算手段
と、 前記計算された差分を和して、前記探索ブロックと前記
拡張済みの候補ブロックとの間のブロック整合誤差関数
として供給する差分和手段とを有することを特徴とする
請求項8に記載の動き推定装置。
9. The block matching error function calculating means, an overlapping means for overlapping the search block with a candidate block, and a difference calculating means for calculating a difference between an object pixel in the search block and a corresponding pixel in the candidate block. And a difference sum means for summing the calculated differences and supplying the sum as a block matching error function between the search block and the expanded candidate block. Motion estimation device.
JP33030098A 1998-08-31 1998-11-20 Device for estimating adaptive movement Pending JP2000078583A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1019980035580A KR100303086B1 (en) 1998-08-31 1998-08-31 Adaptive motion estimating apparatus
KR1998-35580 1998-08-31

Publications (1)

Publication Number Publication Date
JP2000078583A true JP2000078583A (en) 2000-03-14

Family

ID=19548936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33030098A Pending JP2000078583A (en) 1998-08-31 1998-11-20 Device for estimating adaptive movement

Country Status (3)

Country Link
JP (1) JP2000078583A (en)
KR (1) KR100303086B1 (en)
GB (1) GB2341030A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007072895A1 (en) * 2005-12-21 2007-06-28 Matsushita Electric Industrial Co., Ltd. In-screen prediction mode decision method, image encoding method, and image encoding device
JP2007536662A (en) * 2004-05-05 2007-12-13 サントル ナショナル デ ラ ルシェルシュ シィアンティフィク (セ.エヌ.エール.エス.) Image data processing method by reducing image noise and camera built-in means for executing the method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231750B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
US5790207A (en) * 1996-03-14 1998-08-04 Daewoo Electronics, Co., Ltd. Motion compensation method for use in an image encoding system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007536662A (en) * 2004-05-05 2007-12-13 サントル ナショナル デ ラ ルシェルシュ シィアンティフィク (セ.エヌ.エール.エス.) Image data processing method by reducing image noise and camera built-in means for executing the method
US8253825B2 (en) 2004-05-05 2012-08-28 France/Ecole Normale Superieure De Cachan Image data processing method by reducing image noise, and camera integrating means for implementing said method
US8427559B2 (en) 2004-05-05 2013-04-23 France/Ecole Normale Seperieure de Cachan Image data processing method by reducing image noise, and camera integrating means for implementing said method
WO2007072895A1 (en) * 2005-12-21 2007-06-28 Matsushita Electric Industrial Co., Ltd. In-screen prediction mode decision method, image encoding method, and image encoding device

Also Published As

Publication number Publication date
GB2341030A (en) 2000-03-01
KR100303086B1 (en) 2001-09-24
GB9824312D0 (en) 1998-12-30
KR20000015559A (en) 2000-03-15

Similar Documents

Publication Publication Date Title
JP4001400B2 (en) Motion vector detection method and motion vector detection device
JP4012274B2 (en) Outline video signal encoding method and apparatus
KR100772576B1 (en) Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
US6404814B1 (en) Transcoding method and transcoder for transcoding a predictively-coded object-based picture signal to a predictively-coded block-based picture signal
US6037988A (en) Method for generating sprites for object-based coding sytems using masks and rounding average
US5982438A (en) Overlapped motion compensation for object coding
US7782953B2 (en) Optimal encoding of motion compensated video
USRE41951E1 (en) Method and apparatus for encoding interlaced macroblock texture information
US5973743A (en) Mode coding method and apparatus for use in an interlaced shape coder
US5933535A (en) Object-based video compression process employing arbitrarily-shaped features
RU2209527C2 (en) Method and device for video data compression
JP4573366B2 (en) Motion vector coding method and coding apparatus
JP3859788B2 (en) Object contour video signal encoding method and apparatus
US5862261A (en) Current frame prediction method and apparatus for use in an image signal encoding system
JP3903445B2 (en) Optimal grid determination method and apparatus
JP2000078583A (en) Device for estimating adaptive movement
US7386050B2 (en) Fast half-pel searching method on the basis of SAD values according to integer-pel search and random variable corresponding to each macro block
EP0923250A1 (en) Method and apparatus for adaptively encoding a binary shape signal
KR100252340B1 (en) Current frame prediction method and apparatus
Chou et al. Video coding algorithm based on image warping and nonrectangular DCT coding
JP2004289790A (en) System and method for video encoding according to degree of macroblock distortion
JPH11187394A (en) Binary shape signal encoding device