JP2007312397A - Method and apparatus for video frame transfer in communication system - Google Patents

Method and apparatus for video frame transfer in communication system Download PDF

Info

Publication number
JP2007312397A
JP2007312397A JP2007139572A JP2007139572A JP2007312397A JP 2007312397 A JP2007312397 A JP 2007312397A JP 2007139572 A JP2007139572 A JP 2007139572A JP 2007139572 A JP2007139572 A JP 2007139572A JP 2007312397 A JP2007312397 A JP 2007312397A
Authority
JP
Japan
Prior art keywords
block
encoded
motion data
motion
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007139572A
Other languages
Japanese (ja)
Inventor
Jani Lainema
ライネマ,ヤニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Priority to JP2007139572A priority Critical patent/JP2007312397A/en
Publication of JP2007312397A publication Critical patent/JP2007312397A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To save calculation time and capability, while maintaining proper image quality. <P>SOLUTION: A method of encoding a video frame in a communication system, includes steps of creating video frames each of which is composed of continuous still frames; storing frame restructure data of at least one frame as a reference frame and movement data of encoded adjacent blocks; determining the movement data of encoded blocks using movement vectors of one or more encoded adjacent blocks from adjacent blocks created by using the stored reference frames; and determining the frame reconstruction data and movement data that indicate encoded blocks. The method has a prescribed image quality and provides prescribed encoding efficiency. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ビデオフレームが一連の連続した静止フレームから構成される時の、通信システムにおけるビデオフレームのコーディング・デコーディングのための方法と装置に関する。そのフレームにおいては、前記転送フレームが、典型的には、各フレームに特有の複数のフレームブロック又はセグメント(例えば、ピクセルグループ)に分割されており、そして、各フレームブロックのデータは、典型的には、前記フレームブロックのルミナンス、カラー、位置を表す情報を含んでいる。   The present invention relates to a method and apparatus for coding and decoding video frames in a communication system when the video frames are composed of a series of consecutive still frames. In that frame, the transfer frame is typically divided into a plurality of frame blocks or segments (eg, pixel groups) specific to each frame, and the data in each frame block is typically Contains information representing the luminance, color, and position of the frame block.

通信システム(例えばビデオフォン、ビデオ会議システム又はインターネット接続)において、ビデオフレームの転送は、大量のデータを転送しなければならない為に、負担になる課題である。というのは、データを転送する時、より大量のビットを必要とすればする程、データ転送速度を高速にしなければならないからである。フレーム転送時には、通常、フレームはフレームブロックに分割され、そのサイズはシステムに適合して決められる。フレームブロックの情報は、通常、フレームにおける、フレームブロックのルミナンス、カラー、位置に関する情報を含んでいる。前記フレームブロックデータは、所望の符号化法を使って各ブロック毎に圧縮される。圧縮の原則は、不必要なデータを取り除くことである。圧縮方法は、大まかに、3つに分類できる。スペクトル冗長度低減、空間冗長度低減、時間冗長度低減である。圧縮する時、通常、これら方法を組み合わせて用いる。   In a communication system (for example, a videophone, a video conferencing system, or an Internet connection), transfer of a video frame is a burdensome task because a large amount of data must be transferred. This is because the more data required, the higher the data transfer rate that is required. At the time of frame transfer, the frame is usually divided into frame blocks, and the size is determined according to the system. Frame block information typically includes information about the luminance, color, and position of the frame block in the frame. The frame block data is compressed for each block using a desired encoding method. The principle of compression is to remove unnecessary data. The compression methods can be roughly classified into three. Spectral redundancy reduction, spatial redundancy reduction, and temporal redundancy reduction. When compressing, these methods are usually used in combination.

例えば、スペクトル冗長度低減は、YUVカラーモデルに適用される。前記YUVカラーモデルは、人間の目がクロミナンス(即ち、色)の変化よりもルミナンスの変化に敏感であるという事実を利用している。前記YUVモデルは一つのルミナンス成分(Y)と、2つのクロミナンス成分(U,V)を持っている。該クロミナンス成分は、サブサンプルされる。例えば、H.263ビデオコーディング標準規格に従うルミナンスブロックは、16×16ピクセルで、2つのクロミナンスブロックは、ルミナンスブロックと同一の領域をカバーするが、8×8ピクセルである。一つのルミナンスブロックと二つのクロミナンスブロックは、この標準規格の中で、マクロブロックと呼ばれる。   For example, spectral redundancy reduction is applied to the YUV color model. The YUV color model takes advantage of the fact that the human eye is more sensitive to changes in luminance than changes in chrominance (ie, color). The YUV model has one luminance component (Y) and two chrominance components (U, V). The chrominance component is subsampled. For example, a luminance block according to the H.263 video coding standard is 16 × 16 pixels, and two chrominance blocks cover the same area as the luminance block, but 8 × 8 pixels. One luminance block and two chrominance blocks are called macroblocks in this standard.

空間冗長度を低減するために、例えば、離散コサイン変換(DCT)が使用され、圧縮ブロックは、8×8ピクセルである。DCTにおいては、フレームブロックのピクセル表示は、空間周波数表示に変換される。更に、フレームブロックに存在する信号周波数だけが、大振幅係数を持つ。フレームブロックに存在しない信号の係数は、0に近いものである。又、DCTは、ロスの無い変換で、妨害は、信号を量子化するときのみである。   In order to reduce spatial redundancy, for example, a discrete cosine transform (DCT) is used, and the compressed block is 8 × 8 pixels. In DCT, the pixel representation of the frame block is converted to a spatial frequency representation. Furthermore, only the signal frequency present in the frame block has a large amplitude coefficient. The coefficient of the signal that does not exist in the frame block is close to zero. DCT is a lossless conversion, and the interference is only when the signal is quantized.

時間冗長性を低減するためには、連続フレームが、通常相互に類似するという事実を利用する。即ち、各個別のフレームを圧縮する代わりに、フレームブロックの動きデータを生成する。原理は以下の通りである。即ち、符号化しようとするフレームブロックに対し、以前に符号化した参照ブロックをできるだけ探し、参照ブロックと符号化しようとするブロック間の動き差分をモデル化し、動きベクトル係数を計算し、受信機に送信する。符号化しようとするブロックと参照ブロック間の差分は、予測誤差成分として表わされる。従って、問題は、できるだけよいコーディング効率(可能な限り少ないビットで充分高画質の)、比較に必要な、高計算能力、従って短い計算時間を生む参照ブロックを見出すことである。   To reduce temporal redundancy, take advantage of the fact that consecutive frames are usually similar to each other. That is, instead of compressing each individual frame, motion data of the frame block is generated. The principle is as follows. That is, for the frame block to be encoded, search for the previously encoded reference block as much as possible, model the motion difference between the reference block and the block to be encoded, calculate the motion vector coefficient, Send. The difference between the block to be encoded and the reference block is expressed as a prediction error component. The problem is therefore to find a reference block that yields the best possible coding efficiency (with as few bits as possible and sufficiently high image quality), the high computational power required for comparison and thus the short computation time.

本発明の目的は、符号化ビデオフレームの改良方法、ビデオコーダ(符号化器)の改良、加入者端末装置の改良を提供することである。本発明は、1以上の参照フレーム又は参照ブロックの、及びフレーム再構成データ(frame reconstruction data)を符号化する際の1以上の既にコード化された隣接ブロックの、フレーム再構成データを使用する技術をベースにしている。フレーム再構成データ、及び、本発明の方法又は他の既知の方法により符号化する動きデータの選択は、十分な画質を維持しつつ、所望のコードディング効率がどのように得られるかに依存して決められる。   An object of the present invention is to provide an improved method of an encoded video frame, an improvement of a video coder (encoder), and an improvement of a subscriber terminal device. The present invention uses a technique for using frame reconstruction data of one or more reference frames or blocks, and of one or more already coded neighboring blocks when encoding frame reconstruction data. Based on. The selection of frame reconstruction data and motion data to be encoded by the method of the present invention or other known methods depends on how the desired coding efficiency is obtained while maintaining sufficient image quality. Can be decided.

通信システムにおいて、これを達成する為のビデオフレームの符号化方法は、連続静止フレームのビデオフレームを作成するステップ、参照フレームとしての1以上のフレームのフレーム再構成データ、及び既に符号化した隣接ブロックの動きデータの記憶するステップ、既に符号化した隣接ブロック(該隣接ブロックは、前記記憶された参照フレームにより生成される)の動きデータを使って、符号化しようとするブロックの動きデータを定めるステップ、符号化しようとするフレームの前記フレーム再構成データを定めるステップ、フレーム再構成データと符号化するブロックを表す動きデータ(所定の画質を維持して、所定のコードディング効率を提供する)を選択するステップ、を含む。   In a communication system, a video frame encoding method for achieving this includes the steps of creating a video frame of continuous still frames, frame reconstruction data of one or more frames as reference frames, and adjacent blocks that have already been encoded. The step of storing the motion data of the block, and the step of determining the motion data of the block to be encoded using the motion data of the already encoded adjacent block (the adjacent block is generated by the stored reference frame) , Determining the frame reconstruction data of the frame to be encoded, selecting frame reconstruction data and motion data representing a block to be encoded (maintaining predetermined image quality and providing predetermined coding efficiency) Including the step of:

通信システムにおいて、これを達成する為のビデオフレームのコーディング方法は、連続静止フレームのビデオフレームを作成するステップ、参照フレームとしての1以上のフレームのフレーム再構成データ及び既に符号化した隣接ブロックの動きデータを記憶するステップ、符号化しようとするブロックのフレーム再構成データを符号化するのに使用される同一の参照フレームを持つ隣接ブロックだけを使って、符号化しようとするブロックの動きデータを定めるステップ、フレーム再構成データと動きデータを選択する(所定の画質を維持して、所定のコードディング効率を提供する)ステップ、含む。   In a communication system, a video frame coding method for accomplishing this includes the steps of creating a video frame of continuous still frames, frame reconstruction data of one or more frames as reference frames, and motion of already encoded adjacent blocks. Storing data, determining motion data of the block to be encoded using only neighboring blocks having the same reference frame used to encode the frame reconstruction data of the block to be encoded Selecting frame reconstruction data and motion data (maintaining a predetermined image quality and providing a predetermined coding efficiency).

本発明は、連続静止フレームからなるビデオフレームを作成するための手段と、参照フレームとして少なくとも1つのフレームのフレーム再構成データと符号化済み隣接ブロックの動きデータを記憶するための手段と、前記記憶された参照フレームを使って作成される隣接ブロックからの、1以上の符号化済み隣接ブロックの動きベクトルを使って、符号化しようとするブロックの動きデータを定めるための手段と、符号化しようとするフレームのフレーム再構成データを定めるための手段と、所定の画質を有し、所定の符号化効率を提供するように、前記フレーム再構成データと、符号化しようとするブロックを表す動きデータを、使用するために選択するための手段と、を有する加入者端末装置に関する。   The present invention comprises means for creating a video frame consisting of continuous still frames, means for storing frame reconstruction data of at least one frame and motion data of encoded adjacent blocks as reference frames, and said storage Means for determining motion data of a block to be encoded using motion vectors of one or more encoded adjacent blocks from adjacent blocks created using the generated reference frame; Means for determining frame reconstruction data of the frame to be encoded, and the frame reconstruction data and motion data representing a block to be encoded so as to have a predetermined image quality and provide a predetermined encoding efficiency. And a means for selecting for use.

本発明は、又、連続静止フレームからなるビデオフレームを作成するための手段と、参照フレームとして少なくとも1つのフレームのフレーム再構成データと符号化済み隣接ブロックの動きデータを記憶するための手段と、符号化しているブロックのフレーム再構成データを符号化するために使用したのと同一の参照フレームを持つ隣接ブロックだけを使って、符号化しているフレームブロックの動きデータを定めるための手段と、所定の画質を有し、所定の符号化効率を提供するように、前記フレーム再構成データと、動きデータを、使用するために選択するための手段と、を有する加入者端末装置に関する。   The invention also includes means for creating a video frame consisting of continuous still frames, means for storing frame reconstruction data of at least one frame and motion data of encoded adjacent blocks as reference frames; Means for determining motion data of a frame block being encoded using only adjacent blocks having the same reference frame as used to encode the frame reconstruction data of the block being encoded; And a means for selecting the frame reconstructed data and motion data for use so as to provide a predetermined coding efficiency.

本発明は、又、連続静止フレームからなるビデオフレームを作成するための手段と、参照フレームとして少なくとも1つのフレームのフレーム再構成データと符号化済み隣接ブロックの動きデータを記憶するための手段と、前記記憶された参照フレームを使って作成される隣接ブロックからの、1以上の符号化済み隣接ブロックの動きベクトルを使って、符号化しようとするブロックの動きデータを定めるための手段と、符号化しようとするフレームのフレーム再構成データを定めるための手段と、所定の画質を有し、所定の符号化効率を提供するように、前記フレーム再構成データと、符号化しようとするブロックを表す動きデータを、使用するために選択するための手段と、を有するビデオコーダ(符号化器)に関する。   The invention also includes means for creating a video frame consisting of continuous still frames, means for storing frame reconstruction data of at least one frame and motion data of encoded adjacent blocks as reference frames; Means for determining motion data of a block to be encoded using motion vectors of one or more encoded adjacent blocks from adjacent blocks created using the stored reference frame; Means for determining frame reconstruction data of the frame to be processed, and motion representing the frame reconstruction data and the block to be encoded so as to have a predetermined image quality and provide a predetermined encoding efficiency Means for selecting data for use, and a video coder.

本発明は、又、連続静止フレームからなるビデオフレームを作成するための手段と、参照フレームとして少なくとも1つのフレームのフレーム再構成データと符号化済み隣接ブロックの動きデータを記憶するための手段と、符号化しようとするブロックのフレーム再構成データを符号化するために使用したのと同一の参照フレームを持つ隣接ブロックだけを使って、符号化しようとするフレームブロックの動きデータを定めるための手段と、所定の画質を有し、所定の符号化効率を提供するように、前記フレーム再構成データと、動きデータを、使用するために選択するための手段と、を有するビデオコーダに関する。   The invention also includes means for creating a video frame consisting of continuous still frames, means for storing frame reconstruction data of at least one frame and motion data of encoded adjacent blocks as reference frames; Means for determining motion data of a frame block to be encoded using only adjacent blocks having the same reference frame used to encode the frame reconstruction data of the block to be encoded; A video coder comprising said frame reconstruction data and means for selecting motion data for use so as to have a predetermined image quality and to provide a predetermined encoding efficiency.

本発明は、又、連続静止フレームからなるビデオフレームを作成するステップと、参照フレームとして少なくとも1つのフレームのフレーム再構成データと符号化済み隣接ブロックの動きデータを記憶するステップと、前記記憶された参照フレームを使って作成される隣接ブロックからの、1以上の符号化済み隣接ブロックの動きベクトルを使って、符号化しようとするブロックの動きデータを定めるステップと、符号化フレームのフレーム再構成データを定めるステップと、所定の画質を有し、所定の符号化効率を提供するように、前記フレーム再構成データと、符号化しようとするブロックを表す動きデータを、使用するために選択するステップと、を有する、コンピュータが読むことのでき、通信システムにおけるビデオフレームの符号化方法を実行するコンピュータプログラムに関する。   The present invention also includes the steps of creating a video frame consisting of continuous still frames, storing frame reconstruction data of at least one frame and motion data of encoded adjacent blocks as reference frames, Determining motion data of a block to be encoded using motion vectors of one or more encoded adjacent blocks from adjacent blocks created using the reference frame; and frame reconstruction data of the encoded frame Selecting the frame reconstruction data and motion data representing the block to be encoded for use so as to have a predetermined image quality and provide a predetermined encoding efficiency; A video frame symbol in a communication system that can be read by a computer. A computer program for executing the method.

本発明は、又、連続静止フレームからなるビデオフレームを作成するステップと、参照フレームとして少なくとも1つのフレームのフレーム再構成データと符号化済み隣接ブロックの動きデータを記憶するステップと、符号化しようとするブロックのフレーム再構成データを符号化する際使用したのと同一の参照フレームを持つ隣接ブロックだけを使って、符号化しようとするフレームのフレームブロックの動きデータを定めるステップと、所定の画質を有し、所定の符号化効率を提供するように、前記フレーム再構成データと、動きデータを、使用するために選択するステップと、を有する、コンピュータが読むことのでき、通信システムにおけるビデオフレームの符号化方法を実行するコンピュータプログラムに関する。   The present invention also includes the steps of creating a video frame composed of continuous still frames, storing frame reconstruction data of at least one frame and motion data of encoded adjacent blocks as reference frames, and trying to encode Determining the motion data of the frame block of the frame to be encoded using only adjacent blocks having the same reference frame as used when encoding the frame reconstruction data of the block to be encoded, and a predetermined image quality. And having the step of selecting the frame reconstruction data and motion data for use to provide a predetermined coding efficiency, the computer-readable video frame in the communication system The present invention relates to a computer program for executing an encoding method.

本発明の方法と装置によれば、画質を適正なまま維持しつつ、計算時間と能力(capacity)の節約がもたらされる。
以下、図面を参照しながら、好ましい実施例を用いて本発明を説明する。
The method and apparatus of the present invention provides savings in computation time and capacity while maintaining image quality in a proper manner.
Hereinafter, the present invention will be described using preferred embodiments with reference to the drawings.

図1は、本発明を適用することができる簡略化したデジタルデータ送信システムを示す。それは、セルラー無線システムの一部分で、無線108、110を介して加入者端末装置100、102と接続する基地局104を有する。前記端末装置は、固定であってもよく、又は車中に設置する端末装置であってもよく、又は携帯端末装置であってもよい。基地局のトランシーバは、アンテナユニットに接続され、加入者端末装置に無線リンクが設けられている。該基地局は更に、基地局コントローラ106に接続されている。該コントローラは、ネットワークのどの端末装置とも接続する。前記基地局コントローラは、自分に接続する複数の基地局を中央集権的にコントロールするものである。基地局コントローラのコントロールユニットは、呼コントロール、データトラフィック・コントロール、移動度管理(mobility management)、統計集計、シグナリングを担当する。   FIG. 1 shows a simplified digital data transmission system to which the present invention can be applied. It is part of a cellular radio system and has a base station 104 connected to subscriber terminal devices 100, 102 via radios 108, 110. The terminal device may be fixed, a terminal device installed in a vehicle, or a mobile terminal device. The transceiver of the base station is connected to the antenna unit, and a wireless link is provided to the subscriber terminal device. The base station is further connected to a base station controller 106. The controller connects to any terminal device in the network. The base station controller centrally controls a plurality of base stations connected to the base station controller. The control unit of the base station controller is responsible for call control, data traffic control, mobility management, statistical aggregation and signaling.

又、セルラ無線システムは、公衆電話網に接続することができる。その場合、該システムのトランスコーダ(transcoder)は、公衆電話網とセルラ無線ネットワーク間で使用される各種の音声デジタル符号フォーマットを相互に適合するように変換する。例として、固定ネットワークの64kbit/sフォーマットからセルラ無線ネットワークフォーマット(例えば13kbit/s)への変換及びその逆を挙げることができる。   The cellular radio system can be connected to a public telephone network. In that case, the transcoder of the system converts various audio digital code formats used between the public telephone network and the cellular radio network so as to be compatible with each other. An example is the conversion of a fixed network from 64 kbit / s format to a cellular radio network format (eg 13 kbit / s) and vice versa.

本発明を、例えば、インターネットのような固定通信システムにも適用できることは、当業者には明らかである。   It will be apparent to those skilled in the art that the present invention can also be applied to fixed communication systems such as the Internet.

ビデオフレームを符号化する目的は、フレーム転送に必要なビット数を低減することである。図2aから図2cは、従来の動きの符号化方法を示す。この方法の原理は、メモリに既に記憶している参照フレームを使って、フレームブロック(又、ブロックという用語が、本文中で使用される)の動きベクトルを予測することである。このタイプの符号化は、フレーム間符号化(inter-coding)と呼ばれ、圧縮符号化において、一連のフレーム間の類似度を利用するものである。   The purpose of encoding a video frame is to reduce the number of bits required for frame transfer. 2a to 2c show a conventional motion encoding method. The principle of this method is to predict the motion vector of a frame block (and the term block is used in the text) using a reference frame already stored in memory. This type of encoding is called inter-coding, and utilizes the similarity between a series of frames in compression encoding.

図2aから図2cの例において、参照フレーム206は、ブロック、セグメントに分割され、既に符号化されている。図2bと図2cには、フレームブロックを示していない。参照フレームは、一連のフレームの符号化しようとするフレームの前であってもよいし、後であってもよい。図2aに示される現行フレーム204は、符号化され、ブロックに分割されている。図には、単に、唯一つブロック200だけを示した。ブロックの大きさは、N×Mである。ブロックは、典型的には、正方形で、即ちN=Mである。しかし、例えば長方形であることもできる。現行ブロック200と図2c中の参照ブロック214は、幾何学的に相似でなくてもよい。というのは、実際には、フィルム化されたもの(filmed objects)は、回転したり、捩れたり変形するからである。ブロックのサイズと形状は、各々の状態に合わせて、以下の事柄を考慮して定義を行う。例えば、小ブロックサイズは、よリ良質の画像(picture)を与えるが、定義した動きベクトルの信頼性を減ずる。というのは、少ないピクセル数を使って定義を行うからである。より小さいブロックを使う時には、より多くの動きベクトルデータを生成しなければならない。フレームを多数のブロックに分割しなければならないからである。更に、動きベクトルを定義する高速アルゴリズムは、ブロックサイズが大きい場合は、より効率的である。例えば、現行ビデオ符号化標準規格では、N=M=16である。   In the example of FIGS. 2a to 2c, the reference frame 206 is divided into blocks and segments and already encoded. 2b and 2c do not show frame blocks. The reference frame may be before or after a frame to be encoded in a series of frames. The current frame 204 shown in FIG. 2a is encoded and divided into blocks. Only one block 200 is shown in the figure. The block size is N × M. The block is typically square, ie N = M. However, it can also be rectangular, for example. The current block 200 and the reference block 214 in FIG. 2c may not be geometrically similar. This is because filmed objects actually rotate, twist and deform. The size and shape of the block are defined in consideration of the following matters according to each state. For example, a small block size gives a better picture but reduces the reliability of the defined motion vector. This is because the definition is made using a small number of pixels. When using smaller blocks, more motion vector data must be generated. This is because the frame must be divided into a large number of blocks. Furthermore, fast algorithms that define motion vectors are more efficient when the block size is large. For example, in the current video coding standard, N = M = 16.

動きを推定するには、符号化されたブロック200に対し、参照フレーム206において一番適した参照ブロックを見つけ、これを図2cの214とする。参照ブロックの適合性は、選択基準に依存する。選択の目的は、典型的には、画質を充分良好に維持しながら、符号化しているブロックを転送するのに必要なビット数を最小にするようなブロックを見つけることである。このように、選択基準はアプリケーションの目的に依存するものである。   To estimate the motion, find the most suitable reference block in the reference frame 206 for the coded block 200 and call this 214 in FIG. The suitability of the reference block depends on the selection criteria. The purpose of the selection is typically to find a block that minimizes the number of bits required to transfer the block being encoded while maintaining good image quality. Thus, the selection criteria depends on the purpose of the application.

サーチ範囲は、通常、現行フレーム204で符号化しているブロック200に対応するフレーム位置にある参照フレーム206であり、図2bと2cにおけるサーチ領域210で表される、直近領域(immediate proximity)内の所定の領域である。サーチ範囲を前記参照フレーム内で狭い範囲に限定することにより、サーチ時間と必要計算量は低減される。サーチ範囲の大きさは、アプリケーションの目的に適合するように、符号化済みフレーム・ストリングのフレームを基に、動きが遅いか又は遅いかを決定することにより決められる。もし動きが遅い場合は、サーチ範囲は、動きが速い場合より小さい範囲に限定することができる。典型的には、サーチは、予測動きベクトルの周囲環境の中で行われる。   The search range is typically a reference frame 206 at the frame position corresponding to the block 200 that is encoded in the current frame 204 and is within the immediate proximity, represented by the search region 210 in FIGS. 2b and 2c. This is a predetermined area. By limiting the search range to a narrow range within the reference frame, the search time and the required calculation amount are reduced. The size of the search range is determined by determining whether the motion is slow or slow based on the frames of the encoded frame string to suit the purpose of the application. If the motion is slow, the search range can be limited to a smaller range than if the motion is fast. Typically, the search is performed in the environment surrounding the predicted motion vector.

図2aから2cの例において、フレームブロックの位置は、ブロックの左上角部の座標(x、y)で表される。x座標は、ピクセル又はブロックの水平方向の位置を表し、y座標は、ピクセル又はブロックの垂直方向の位置を表わす。符号化しているブロックの座標に202のようにマークを付ける。図2cにおいて、サーチ範囲210の中で、最良の参照フレームブロック214を見つけたとする。座標(x、y)208は、符号化しているブロック200が移動しなかった時に位置するであろう位置(即ち座標202と同一)の座標である。これらは説明用に示すものである。ブロック212は、移動しない場合に、ブロック200を表すものであって、説明用に示すものである。符号化しているフレームブロックの動きは、座標(x+u、y+v)216から座標(x、y)208への変化として表示できる。
一般的に、座標(x,y)は、起点(origo)として定義される。従って、符号化ブロックの動きベクトル218は、座標(u,v)で表示することができる。又、動きベクトルは動きベクトル係数と動きモデルの定義を使って表すことができる。
In the example of FIGS. 2a to 2c, the position of the frame block is represented by the coordinates (x, y) of the upper left corner of the block. The x coordinate represents the horizontal position of the pixel or block, and the y coordinate represents the vertical position of the pixel or block. Mark the coordinates of the encoded block as 202. In FIG. 2 c, assume that the best reference frame block 214 is found within the search range 210. Coordinates (x, y) 208 are the coordinates of the position that would be located when the encoding block 200 did not move (ie, the same as the coordinates 202). These are shown for illustrative purposes. Block 212 represents block 200 when not moving, and is shown for explanation. The motion of the encoded frame block can be displayed as a change from coordinates (x + u, y + v) 216 to coordinates (x, y) 208.
In general, the coordinates (x, y) are defined as the origin (origo). Accordingly, the motion vector 218 of the encoded block can be displayed in coordinates (u, v). In addition, the motion vector can be expressed using a motion vector coefficient and a motion model definition.

図3は、従来技術の動き符号化法の概略を示すもので、この方法の原理は、符号化しているフレームの既に符号化した隣接ブロックを使って、符号化しているフレームブロックの動きベクトル係数の予測を行うことである。符号化しているフレームブロック304の隣接ブロックは、既に符号化されており、符号化フレームブロックの動きベクトル係数を予測するのに使用され、ここでは、予測候補(prediction candidates)と呼ぶ。図3において、予測候補は、隣接ブロック300、302、306である。図3の例において、予測候補300、302、306には、識別する為に、ピクセル位置308、310、312にマークを付した。予測候補306は、前記符号化ブロックの左側に位置しており、ピクセル位置308にマークを付しており、予測候補300は、前記符号化ブロックの上側に位置しており、ピクセル位置310にマークを付しており、予測候補302は、前記符号化ブロックの右上角に位置しており、ピクセル位置312にマークを付している。図3を見ると、ピクセル位置308、310、312は、それぞれのブロック内で符号化ブロック304に近接する位置に存在していることが分かる。注意すべきことは、符号化しているブロックに隣接するブロックの数と位置が、図3に図示したものと異なることがありうる点である。   FIG. 3 shows an overview of a prior art motion coding method, which is based on the motion vector coefficients of a frame block being coded using already coded neighboring blocks of the frame being coded. Is to make predictions. The neighboring blocks of the frame block 304 being encoded have already been encoded and are used to predict the motion vector coefficients of the encoded frame block, referred to herein as prediction candidates. In FIG. 3, the prediction candidates are adjacent blocks 300, 302, and 306. In the example of FIG. 3, the prediction candidates 300, 302, and 306 are marked at the pixel positions 308, 310, and 312 for identification. The prediction candidate 306 is located on the left side of the coding block and has a mark at the pixel position 308, and the prediction candidate 300 is located above the coding block and is marked at the pixel position 310. The prediction candidate 302 is located in the upper right corner of the encoded block, and a mark is attached to the pixel position 312. Referring to FIG. 3, it can be seen that the pixel positions 308, 310, and 312 are located close to the encoding block 304 in each block. It should be noted that the number and position of blocks adjacent to the block being encoded can differ from that shown in FIG.

図3に示すケースにおいては、符号化しているブロック304の動きベクトル係数を予測するのに、3つの予測候補を使う。例えば、必要とする動きベクトル係数は、これら予測候補から得られる動きベクトル係数のメジアン(median)として、予測することができる。又、ブロック304の動きベクトル係数を予測するのに唯一つの予測候補を使うことが可能であり、その場合、予測ブロック306の動きベクトル係数、予測ブロック300の動きベクトル係数、又は、予測ブロック302の動きベクトル係数から係数を得ることができる。   In the case shown in FIG. 3, three prediction candidates are used to predict the motion vector coefficients of the block 304 being encoded. For example, the required motion vector coefficients can be predicted as the median of the motion vector coefficients obtained from these prediction candidates. It is also possible to use only one prediction candidate to predict the motion vector coefficient of block 304, in which case the motion vector coefficient of prediction block 306, the motion vector coefficient of prediction block 300, or the prediction block 302 A coefficient can be obtained from the motion vector coefficient.

直近領域(immediate proximity)では無く、離れた既に符号化した隣接ブロックを使用することもできる。しかし、その場合、考慮すべき点は、前記ブロックの動き誤差は、通常、距離が大きくなるに従って、大きくなる点である。   Instead of immediate proximity, it is also possible to use remote already encoded neighboring blocks. However, in that case, the point to be considered is that the motion error of the block usually increases as the distance increases.

ビデオフレーム符号化する際に、ブロック毎にフレーム間符号化及びフレーム内符号化(inter and intra-coding)を組み合わせて、最良の結果を得るようにする。フレーム内符号化フレームを適当な間隔で送信することにより、1フレームから次のフレームを転送するのに、転送チャネルで起る誤差が蓄積され、フレーム符号化の障害が発生するのを防止する。   When video frame coding is performed, the best results are obtained by combining inter-frame coding and inter-frame coding for each block. By transmitting intra-frame encoded frames at appropriate intervals, an error occurring in the transfer channel is accumulated in transferring the next frame from one frame to prevent a frame encoding failure from occurring.

コーディングとデコーディングに、図2aから2c及び3に示した方法を使うことができる。必要なフレームを有するコーダで使用される方法がビットストリームとしてデコーダに転送される。   The methods shown in FIGS. 2a to 2c and 3 can be used for coding and decoding. The method used by the coder with the necessary frames is transferred as a bit stream to the decoder.

図3に示すように、前記ブロックもセグメント化することができる。セグメント化することは、それぞれのフレーム部分が様々な仕方で移動する場合には、望ましい。例として、単一の対象、例えば一人の人、一台の車等が移動する間、背景が変化しない場合をあげることができる。フレームブロックを垂直に分割して、例えば、ブロック300のようにセグメント化することができる。例を示さないが水平方向に、又は、ブロック306のように両方の方向に分割することができる。セグメント化により、転送ビット数を低減し、既に符号化されたフレームの適当な一部を使用できる。   As shown in FIG. 3, the block can also be segmented. Segmentation is desirable when each frame portion moves in various ways. As an example, the case where the background does not change while a single object, such as one person, one car, etc., moves can be mentioned. The frame block can be divided vertically and segmented, for example, as block 300. Although not shown, it can be split horizontally or in both directions as in block 306. Segmentation reduces the number of transfer bits and allows the use of a suitable part of an already encoded frame.

符号化しているフレームブロックの動きベクトル係数を定義する時、動き推定に既知の様々なモデルを使うことができる。各種モデルは、それぞれ、垂直、水平の動き、回転等各種の動きを定義するのに適している。このモデルに含まれるアフィン動きモデル(affine motion model)においては、ピクセルの動き、フレームセグメント又はブロックを、ΔxとΔyを使って動きベクトルを形成する次式を用いて、表すことができる。
Δx(x、y)=a0+a1x+a2
Δy(x、y)=b0+b1x+b2y (1)
When defining the motion vector coefficients of the frame block being encoded, various known models can be used for motion estimation. Each model is suitable for defining various movements such as vertical and horizontal movements and rotations. In the affine motion model included in this model, pixel motion, frame segments or blocks can be represented using the following equations that form a motion vector using Δx and Δy.
Δx (x, y) = a 0 + a 1 x + a 2 y
Δy (x, y) = b 0 + b 1 x + b 2 y (1)

但し、a0、a1、a2、b0、b1、b2は、動きベクトル係数であり、xとyは、ベクトル成分であって、xは、水平方向のピクセル、又は、ブロック位置を表し、yは、垂直方向のピクセル、又は、ブロック位置を表す。又は、並行移動モデル(translational model)では、ピクセル、フレームセグメント又はブロックの動きは、次式により表され、該式において、ΔxとΔyは動きベクトルを形成する。
Δx(x、y)=a0
Δy(x、y)=b0 (2)
However, a0, a1, a2, b0, b1, b2 are motion vector coefficients, x and y are vector components, x represents a horizontal pixel or block position, and y is Represents a vertical pixel or block location. Alternatively, in a translational model, the motion of a pixel, frame segment or block is represented by the following equation, where Δx and Δy form a motion vector.
Δx (x, y) = a 0
Δy (x, y) = b 0 (2)

但し、a0、b0は、動きベクトル係数で、xとyはベクトル成分である。前記使用したモデルは、コーダ(符号化器)とデコーダ(復号化器)のメモリに記憶されている。もし複数の動きモデルが符号化に使用されるならば、そのコーダは、動きに従ってモデルを選択し(例えば、上向きの動きの場合、上向きの動きを表すモデルが使用され符号化される)、前記使用されたモデルにおける情報は、動きベクトル係数と共にデコーダに送信される。   However, a0 and b0 are motion vector coefficients, and x and y are vector components. The used model is stored in the memory of a coder (encoder) and a decoder (decoder). If multiple motion models are used for encoding, the coder selects a model according to the motion (eg, for upward motion, a model representing upward motion is used and encoded), Information in the model used is sent to the decoder along with the motion vector coefficients.

図4は、ビデオフレーム符号化のためのフローチャートである。以下の説明において、フレームブロックは、例えば、ピクセルが形成するYUVモデルに基づくブロック、セグメント、又はマクロブロックを意味する。
本方法は、ブロック400からスタートする。
FIG. 4 is a flowchart for video frame encoding. In the following description, a frame block means, for example, a block, segment, or macroblock based on a YUV model formed by pixels.
The method starts at block 400.

ブロック402において、ビデオフレームは、連続する静止フレームから構成される。ビデオフレームを形成する為には、人間の視覚システムが、複数フレームを互に別々のフレームであると識別しないスピードで、静止フレームを送信されることが望ましい。   In block 402, the video frame is composed of successive still frames. In order to form a video frame, it is desirable for the human visual system to transmit still frames at a speed that does not identify the frames as separate frames.

ブロック404において、フレームブロックの符号化済みの再構成データ(例えば、ピクセルの色とルミナンス、動きベクトル係数から算出される予測誤差フレーム)がメモリに記憶される。前記フレーム再構成データは、適用する標準規格(例えば、H.263又はMPEG)に従って符号化される。動きベクトル係数と予測誤差フレームの定義は、上記した通りである。メモリに記憶されたフレーム再構成データを用いて、1以上の参照フレームを形成する。更に、既に符号化された隣接ブロックの動きデータ(即ち前記動きベクトル係数)と使用した動きモデルをメモリに記憶する。もっとも好ましいことは、符号化しているブロックの直近の隣接ブロックを使用することであるが、たまには、前記フレーム内の離れた位置の既に符号化したブロックを使用することもできる。   At block 404, the encoded reconstruction data of the frame block (eg, prediction error frame calculated from pixel color and luminance, motion vector coefficients) is stored in memory. The frame reconstruction data is encoded according to an applicable standard (for example, H.263 or MPEG). The definition of the motion vector coefficient and the prediction error frame is as described above. One or more reference frames are formed using the frame reconstruction data stored in the memory. Furthermore, the motion data (that is, the motion vector coefficient) of the adjacent block already encoded and the used motion model are stored in the memory. Most preferred is to use the nearest neighbor block of the block being encoded, but sometimes it is possible to use an already encoded block at a distant location in the frame.

ブロック406において、符号化しているブロックの動きデータを、既に符号化した隣接ブロックを使って定める。1以上の隣接ブロックの動きベクトル係数を使って定めることが好ましい。   At block 406, motion data for the block being encoded is determined using the adjacent block that has already been encoded. Preferably, it is determined using motion vector coefficients of one or more adjacent blocks.

ブロック408において、例えば、参照フレームを使って、符号化しているブロックの再構成データを符号化する。   In block 408, the reconstructed data of the block being encoded is encoded using, for example, a reference frame.

本方法を強化する為に、隣接ブロックだけを使って符号化しているフレームブロックの動きデータを計算することができる。前記隣接ブロックは、前記符号化しているブロックのフレーム再構成データの符号化に使用したのと同一の参照フレームを有するものである。同一フレームストリングにおいては、類似フレームが存在するので、符号化済みフレームの中から、符号化しているブロックに対応するブロックを見出す、又は、充分類似したブロックを見出す可能性がある。前記符号化済みフレームから、符号化済み隣接ブロックに対して適正な参照ブロックを見出している。例えば、1以上の隣接ブロックの動きベクトル係数が使われる。又、符号化しているブロックの参照ブロックのサーチ範囲は、参照フレーム内で隣接ブロックの動きベクトル係数が定める周囲(environment)に限定される。   In order to enhance the method, motion data of a frame block that is encoded using only neighboring blocks can be calculated. The adjacent block has the same reference frame used for encoding the frame reconstruction data of the encoded block. Since there are similar frames in the same frame string, there is a possibility that a block corresponding to the block being encoded is found out of the encoded frames or a block that is sufficiently similar. An appropriate reference block is found for the encoded adjacent block from the encoded frame. For example, motion vector coefficients of one or more adjacent blocks are used. The search range of the reference block of the block being encoded is limited to the environment defined by the motion vector coefficient of the adjacent block in the reference frame.

唯一のフレーム間符号化済み隣接ブロックが、符号化しているブロックと同一の参照フレームを有する条件において、この隣接ブロックの動きベクトルを動きベクトルの一つの候補として選択する。他の候補として、例えば、複数の隣接ブロック動きベクトルから計算したメジアンを選択することができる。   Under the condition that the only inter-frame encoded adjacent block has the same reference frame as the block being encoded, the motion vector of this adjacent block is selected as one motion vector candidate. As another candidate, for example, a median calculated from a plurality of adjacent block motion vectors can be selected.

注意すべきことは、ブロック符号化に使用されるブロックは、符号化しているブロックが符号化されるのと同一の方法で(inter)符号化されることである、即ち、隣接ブロックをフレーム内符号化する時は、参照フレームを有しない。
参照フレームを持つ予測候補がない時、従来技術であるフレーム内符号化を使うか、又は、メモリに記憶されている全参照フレームをチェックする。
It should be noted that the block used for block coding is inter-coded in the same way that the block being coded is coded, i.e., adjacent blocks within the frame. When encoding, it does not have a reference frame.
When there is no prediction candidate having a reference frame, the conventional intraframe coding is used, or all reference frames stored in the memory are checked.

参照ブロックは、ビデオコーダ(即ち、フレームブロックのフレーム再構成データを符号化する符号化器)が圧縮符号化する時に使うフレームブロックである。フレームブロックは、できる限り符号化しているブロックに一致するものとして、既に符号化されメモリに記憶されている1以上の参照フレームからサーチされ、前記参照ブロックとして選択される。その際、その予測誤差フレームを可能な限り小さくなるように選択される。   A reference block is a frame block that is used when a video coder (ie, an encoder that encodes frame reconstruction data of a frame block) performs compression encoding. The frame block is searched from one or more reference frames that are already encoded and stored in the memory, and is selected as the reference block, as matching the block that is encoded as much as possible. At that time, the prediction error frame is selected to be as small as possible.

ブロック410において、符号化方法が選択され、符号化しているブロックのフレーム再構成データと動きデータが、最適に符号化される、即ち、所定の画質を保持しつつ、所定の効率が得られるように符号化される。注意すべき点は、符号化しているブロックの符号化方法として、隣接ブロックの動きデータを使った前記符号化方法、又は、従来技術の方法(例えば、フレーム間符号化方法、この方法は、符号化しているブロックを、参照フレームから見つける参照ブロックを使って直接符号化する、)、のいずれかを選択することである。符号化方法を選択するための目的は、例えば、画質をノーマルビデオピクチャの画質に対応しつつ、ビット数を小さくすることであり、又は、ビット数を使用標準規格のビット数に適合させる(例え、アプリケーションオブジェクトに応じた画質を達成するのに、より少ないビット数で足りたとしても)ことである。   In block 410, an encoding method is selected, and the frame reconstruction data and motion data of the block being encoded are optimally encoded, ie, a predetermined efficiency is obtained while maintaining a predetermined image quality. Is encoded. It should be noted that, as an encoding method of a block to be encoded, the encoding method using motion data of adjacent blocks, or a conventional method (for example, interframe encoding method, The block to be encoded is directly encoded using the reference block found in the reference frame). The purpose for selecting the encoding method is, for example, to reduce the number of bits while the image quality corresponds to that of a normal video picture, or to adapt the number of bits to the number of bits of the standard used (for example, (Even if fewer bits are needed to achieve image quality depending on the application object).

符号化効率は、例えば、下記のラグランジュ関数を使って推定でき、最高効率のセグメンテーションと符号化を定めることができる。
L(Sk)=D(Sk)+λR(Sk) (3)
Coding efficiency can be estimated using, for example, the following Lagrangian function to determine the most efficient segmentation and coding.
L (Sk) = D (Sk) + λR (Sk) (3)

但し、D(Sk)は、フレームをデスプレッディング(despreading)する際、生じる誤差、
R(Sk)は、フレームを転送するのに必要なビット数、
λは、ラグランジュ定数である。
However, D (Sk) is an error generated when despreading a frame,
R (Sk) is the number of bits required to transfer the frame,
λ is a Lagrange constant.

ラグランジュ関数は、転送フレームの質と伝送パス(path)に要求されるバンド幅との間の関係を表すものである。一般的にいえば、ピクチャの画質が高くなる程、バンド幅は、大きくなる。最適圧縮符号化は、常に、必要なビット数と画質との間の折衷になる。   The Lagrangian function represents the relationship between the quality of the transfer frame and the bandwidth required for the transmission path. Generally speaking, the higher the picture quality of a picture, the greater the bandwidth. Optimal compression coding is always a compromise between the required number of bits and image quality.

矢印412は、フレームが符号化されるまで本方法をブロック毎に繰り返すことを表す。注意すべき点は、本方法では、一連のフレームの全フレームを符号化するまで繰り返すことが望ましい点である。
本方法の実行は、ブロック414で終了する。
Arrow 412 represents repeating the method for each block until the frame is encoded. It should be noted that in this method, it is desirable to repeat until all the frames of a series of frames are encoded.
Execution of the method ends at block 414.

図5は、動きベクトルの予測を行い、参照ブロックを見つける例を示すものである。この例においては、隣接ブロックだけを使うこととし、この隣接ブロックは、符号化しているブロックのフレーム再構成データを符号化するのに使用したのと同一の参照フレームをもつものとする。注意すべき点は、ブロック符号化には、通常、従来技術の方法も使う点である。最後に、符号化方法が選択され、充分な画質を持った所望の符号化効率が得られる。   FIG. 5 shows an example in which a motion vector is predicted to find a reference block. In this example, only adjacent blocks are used, and this adjacent block has the same reference frame used to encode the frame reconstruction data of the block being encoded. It should be noted that the prior art method is usually used for block coding. Finally, an encoding method is selected, and a desired encoding efficiency with sufficient image quality can be obtained.

符号化しているフレーム頁500は、ブロックに分割されている。分かりやすいように数個だけを示した。ブロック506を符号化しているとする。フレーム502、504、532と508は、メモリに記憶されている参照フレームである。フレーム502は、符号化済みの隣接ブロック(数字1でマークしている)であるブロック510と514の前記参照フレームである。符号化しているブロック506と参照ブロック510と514は、フレーム502と比べて、フレーム500内で移動していない。フレーム504は、隣接ブロック512(図において数字2でマークした)の参照フレームである。フレーム508は、隣接ブロック516(図において数字4でマークした)の参照フレームである。フレーム532は、符号化しているブロック506のどの隣接ブロックを符号化する際にも、使用されなかったフレームである。即ち、それはどの隣接ブロックの参照フレームにならない。従って、フレーム532は、この例では、符号化ブロック506に対する参照ブロックを見つける時に使用されない。   The frame page 500 being encoded is divided into blocks. Only a few are shown for clarity. Assume that block 506 is encoded. Frames 502, 504, 532 and 508 are reference frames stored in the memory. Frame 502 is the reference frame of blocks 510 and 514 which are encoded adjacent blocks (marked with the number 1). The encoding block 506 and the reference blocks 510 and 514 are not moved in the frame 500 compared to the frame 502. Frame 504 is a reference frame for adjacent block 512 (marked with numeral 2 in the figure). Frame 508 is a reference frame for adjacent block 516 (marked with numeral 4 in the figure). The frame 532 is a frame that is not used when any adjacent block of the block 506 being encoded is encoded. That is, it does not become the reference frame of any adjacent block. Thus, frame 532 is not used in this example when finding a reference block for encoding block 506.

次に、隣接ブロック510と514が、符号化しているブロック506の動きベクトルの予測候補として使用される。予測候補の符号化タイプ(inter)が現行ブロックの符号化に使用されるものと同一であるか否かをチェックする。もしこれが同一であるとき、ブロック526は、参照ブロックとして使用される。そして動きベクトル係数の平均又はメジアンを計算し、動きベクトル係数を算出する。該動きベクトルは、ブロック510と518の位置を比較して得られたものであって、これらから動きベクトル係数が、隣接ブロック510に対し算出されている。又前記動きベクトルは、位置514と520の位置を比較して得られ、これらから動きベクトル係数が、隣接ブロック514に対し算出されている。更に、符号化しているブロック506と参照ブロック526とを比較して、予測誤差フレームを決定する。図5の例では、フレーム500と502における前記ブロック位置は変化していない。従って、動きベクトル係数は決めない。   Next, adjacent blocks 510 and 514 are used as motion vector prediction candidates for the block 506 being encoded. Check whether the encoding type (inter) of the prediction candidate is the same as that used for encoding the current block. If they are the same, block 526 is used as a reference block. Then, an average or median of motion vector coefficients is calculated to calculate a motion vector coefficient. The motion vector is obtained by comparing the positions of the blocks 510 and 518, and the motion vector coefficient is calculated for the adjacent block 510 from these. The motion vector is obtained by comparing the positions of the positions 514 and 520, and the motion vector coefficient is calculated for the adjacent block 514 from these positions. Further, the encoding block 506 and the reference block 526 are compared to determine a prediction error frame. In the example of FIG. 5, the block positions in the frames 500 and 502 are not changed. Therefore, no motion vector coefficient is determined.

次に、隣接ブロック512の符号化タイプがチェックされる。もしそれが現行ブロック506で使用されるものと同一である場合、参照ブロックが、フレーム504に対してサーチされる。ブロック512と522との比較から算出される動きベクトル係数は、前記ブロック506の動きベクトル係数として使用される。次に、予測誤差フレームが、参照ブロック528を使って定められる。   Next, the coding type of the adjacent block 512 is checked. If it is the same as that used in current block 506, a reference block is searched for frame 504. The motion vector coefficient calculated from the comparison between the blocks 512 and 522 is used as the motion vector coefficient of the block 506. Next, a prediction error frame is determined using reference block 528.

次に、隣接ブロック516の符合化タイプがチェックされる。もしそれが現行ブロック506で使用されるものと同一である場合、参照ブロックが、フレーム508についてサーチされる。前記ブロック516と524との比較から算出される動きベクトル係数は、前記ブロック506の動きベクトル係数として使用される。その後、予測誤差フレームが、参照ブロック530により決められる。   Next, the encoding type of adjacent block 516 is checked. If it is the same as that used in current block 506, a reference block is searched for frame 508. The motion vector coefficient calculated from the comparison between the blocks 516 and 524 is used as the motion vector coefficient of the block 506. A prediction error frame is then determined by reference block 530.

前記ブロック506に対する動きベクトル係数も、ブロック510、512、514の動きベクトル係数のメジアン又は平均値を算出して決定することができる。   The motion vector coefficients for the block 506 can also be determined by calculating the median or average value of the motion vector coefficients of the blocks 510, 512, and 514.

又、もし複数の動きモデルを使用するなら、使用する動きモデルを指示する。   If a plurality of motion models are used, the motion model to be used is indicated.

ブロック534は、フレーム内符号化であるから、参照フレームを持たない。たとえ、好ましい符号化方法が他にあるとしても、ブロック506の符号化には使われない。   Since block 534 is intra-frame coding, it does not have a reference frame. Even if there are other preferred encoding methods, they are not used to encode block 506.

隣接ブロックの数と位置、並びに、記憶された参照フレームの数は、図5に示されるものとは異なるかもしれない。   The number and location of adjacent blocks, as well as the number of stored reference frames, may be different from that shown in FIG.

図9は、動きベクトルを予測し、参照ブロックを見つける第2の例を説明するものである。この例において、もし隣接ブロックが一つだけフレーム間符号化されており、前記隣接ブロックが、符号化しているブロックと同一の参照フレームを有するなら、前記符号化しているブロックは一つの隣接ブロックだけを使って符号化される。   FIG. 9 illustrates a second example in which a motion vector is predicted and a reference block is found. In this example, if only one neighboring block is interframe coded and the neighboring block has the same reference frame as the coding block, the coding block is only one neighboring block. Is encoded using.

符号化しているフレーム900は、ブロックに分割される。分かりやすいように、そのうちの数個だけを図示する。ブロック912を符号化するものとする。フレーム9102,904,906がメモリに記憶される参照フレームである。符号化済みの隣接ブロック914(数字1としてマークした)の参照フレームがフレーム902であり、ブロック910(2とマークした)の参照ブロックがフレーム904である。ブロック908はフレーム内符号化されており、従って、参照フレームを持たない。   An encoded frame 900 is divided into blocks. Only a few of them are shown for clarity. Assume that block 912 is encoded. Frames 9102, 904, and 906 are reference frames stored in the memory. The reference frame of the encoded adjacent block 914 (marked as number 1) is frame 902, and the reference block of block 910 (marked 2) is frame 904. Block 908 is intraframe encoded and therefore has no reference frame.

図9の例が調べようとするものは、符号化しているブロック912に対し、メモリに記憶された全参照フレーム(即ち、この例のフレーム902、904、906)から、適合する参照ブロックを見つけることができるかどうかである。フレーム902が適合する参照ブロックを有するかどうかを調べる時、前記ブロック914の動きベクトルを動きベクトル予測候補として使用する。というのは、ブロック914が隣接ブロックの3つの内の1つで、この参照フレームが902であるからである。同様に、フレーム904が適合する参照ブロックを持つか否かを調べる時に、前記ブロック910の動きベクトルが、動きベクトル予測候補として使われる。というのは、ブロック910が隣接ブロックの3つの内の1つで、この参照フレームが904であるからである。
フレーム906は、どの隣接ブロックについても参照フレームにならない。従って、この例においては、動きベクトルは、例えば、ブロック910,914、908のメジアンを使って予測される。例えば、その場合、フレーム間符号化ブロック908の動きベクトルは0に設定される。
What the example of FIG. 9 seeks to find is a matching reference block from all reference frames stored in memory (ie, frames 902, 904, 906 in this example) for the encoding block 912. Whether it can be. When checking whether the frame 902 has a matching reference block, the motion vector of the block 914 is used as a motion vector prediction candidate. This is because block 914 is one of three neighboring blocks and this reference frame is 902. Similarly, when checking whether the frame 904 has a matching reference block, the motion vector of the block 910 is used as a motion vector prediction candidate. This is because block 910 is one of three neighboring blocks and this reference frame is 904.
Frame 906 does not become a reference frame for any adjacent block. Thus, in this example, motion vectors are predicted using, for example, the median of blocks 910, 914, and 908. For example, in that case, the motion vector of the interframe coding block 908 is set to zero.

ここで注意すべきことは、符号化しているブロックの動きベクトルの予測を行うにあたり、隣接ブロックの動きデータ及び参照フレーム・データのみならず、マクロブロック(例えば、符号化しているブロックが属する)のセグメンテーション情報を使用することが可能であるということである。隣接ブロックの数と位置、並びに、記憶されている参照ブロックの数は、図9に示すものとは異なることがあり得る。   It should be noted here that not only the motion data and reference frame data of the adjacent block but also the macro block (for example, the block to be encoded belongs) in predicting the motion vector of the encoded block. It is possible to use segmentation information. The number and location of adjacent blocks, as well as the number of stored reference blocks, can be different from that shown in FIG.

図6に、ビデオフレームを符号化する上記方法を実装できるコーダの例を図示する。ビデオコーダの設計原理は、符号化しているブロックIn(x、y)620と予測候補(選択された参照ブロック)Pn(x、y)612との間の予測誤差フレームEn(x、y)600を最小化することである。前記予測誤差フレームを、前記符号化ブロック620と前記予測候補612との差分として定義し、加算器632を使って算出する。即ち   FIG. 6 illustrates an example of a coder that can implement the above method of encoding a video frame. The design principle of the video coder is that a prediction error frame En (x, y) 600 between the encoding block In (x, y) 620 and the prediction candidate (selected reference block) Pn (x, y) 612 is used. Is to minimize. The prediction error frame is defined as a difference between the encoding block 620 and the prediction candidate 612 and is calculated using an adder 632. That is

En(x,y)=In(x、y)−Pn(x、y) (4)           En (x, y) = In (x, y) −Pn (x, y) (4)

前記予測ブロック612は、本発明の好ましい実施例による方法に基づいて、選択された参照フレームと複数の動きベクトルを使って取得される。前記動きベクトル(Δx(x、y)、Δy(x、y))係数は、動きベクトル計算ブロック630において予測動きベクトルの総和として生成され、その係数は相違である。本発明の好ましい実施例によると、予測された動きベクトル係数は、隣接ブロックの動きベクトルを使って算出される。前記隣接ブロックは、符号化しているブロックと同一の参照フレームを有するものである。他の方法も、動きベクトルの予測に使用される。その内の1つは、従来技術の方法で、符号化しているブロックを、参照フレームを使って直接符号化するものである。フレーム内の全ピクセルの動きベクトルの群は、動きベクトルフィールドと呼ばれる。フレームには大量のピクセルがあるから、現実には、ビデオ符号化する時には、フレームをブロックに分割し、その動き情報を、ブロック毎に図7に示す受信機のデコーダに転送する。   The prediction block 612 is obtained using the selected reference frame and a plurality of motion vectors based on a method according to a preferred embodiment of the present invention. The motion vector (Δx (x, y), Δy (x, y)) coefficients are generated as the sum of the predicted motion vectors in the motion vector calculation block 630, and the coefficients are different. According to a preferred embodiment of the present invention, the predicted motion vector coefficients are calculated using the motion vectors of neighboring blocks. The adjacent block has the same reference frame as the block to be encoded. Other methods are also used for motion vector prediction. One of them is to directly encode a block to be encoded using a reference frame by a conventional method. A group of motion vectors for all pixels in a frame is called a motion vector field. Since there are a large number of pixels in a frame, in reality, when video encoding is performed, the frame is divided into blocks, and the motion information is transferred to the decoder of the receiver shown in FIG. 7 for each block.

少なくとも一つの動きベクトルが、予測動きベクトル、又は、予測動きベクトルから構成される動きベクトルフィールドから選択され、動きベクトル符号化ブロック628において符号化される。例えば、上記実施例の周知の動きモデルが、符号化に使用される。符号化済み動きベクトル又はこれから形成される動きベクトルフィールドがマルチプレクサ624に転送される。   At least one motion vector is selected from a motion vector field composed of a predicted motion vector or a predicted motion vector, and is encoded in a motion vector encoding block 628. For example, the well-known motion model of the above embodiment is used for encoding. The encoded motion vector or the motion vector field formed therefrom is transferred to the multiplexer 624.

ブロック618において、フレームを、セグメント毎に、又はブロック毎に、フレームブロックから形成する。参照ブロック又は予測候補は次のフォーマットからなる。   At block 618, a frame is formed from the frame block, segment by segment, or block by block. The reference block or prediction candidate has the following format.

Figure 2007312397
Figure 2007312397

ブロック602において、予測誤差フレームEn(x、y)600は符号化され、典型的には、有限な2次元級数変換(例えば離散コサイン変換(DCT)を使った)として表される。DCT変換により算出される係数は量子化され、符号化され、マルチプレクサ624と図7に示す受信機のデコーダ(復号化器)に転送される。   At block 602, the prediction error frame En (x, y) 600 is encoded and is typically represented as a finite two-dimensional series transform (eg, using a discrete cosine transform (DCT)). The coefficients calculated by the DCT transform are quantized, encoded, and transferred to the multiplexer 624 and the decoder (decoder) of the receiver shown in FIG.

Figure 2007312397
Figure 2007312397

前記マルチプレクサ624において、動きベクトル情報を含む情報は、予測誤差フレームと組み合わせられる。そしてこのフレーム情報616は、デコーダに転送される(図7)。   In the multiplexer 624, information including motion vector information is combined with a prediction error frame. This frame information 616 is transferred to the decoder (FIG. 7).

上記ビデオコーダの機能は、例えば、プロセッサ上で実行するソフトウェア、又は、個別部品からなるロジック又はASIC(application-specific integrated circuit)のようなハードウェア等、各種の仕方で実装される。   The function of the video coder is implemented in various ways such as software executed on a processor, or hardware such as logic composed of individual components or application-specific integrated circuit (ASIC).

図7は、デコーダの一例を示す。このデコーダを使って、上記方法を実施し、ビデオフレームにおける時間冗長性を低減する。受け取ったビデオ信号700の符号化済み予測誤差フレーム702と符号化済み動きベクトル係数又は動きベクトルフィールド係数712は、デマルチプレクサ710において、互に分離される。   FIG. 7 shows an example of a decoder. Using this decoder, the above method is implemented to reduce temporal redundancy in the video frame. The encoded prediction error frame 702 and the encoded motion vector coefficient or motion vector field coefficient 712 of the received video signal 700 are separated from each other in the demultiplexer 710.

Figure 2007312397
Figure 2007312397

Figure 2007312397
Figure 2007312397

Figure 2007312397
Figure 2007312397

Figure 2007312397
Figure 2007312397

上記ビデオコーダの機能は、例えば、プロセッサ上で実行するソフトウェア、若しくは、個別部品又はASICから構成されるロジックのようなハードウェアのような、様々なやり方で実装される。   The functions of the video coder are implemented in various ways, such as software running on a processor, or hardware such as logic composed of discrete components or ASICs.

無線システムの1つの端末装置を、図8で示す。該無線システムを使って、本発明の好ましい実施形態の方法が実施される。加入者端末装置824の送信器と無線システムネットワークの構成要素の送信器とは、同一タスクを部分的に実行する。端末装置824は、例えば、移動電話であってもよいし、又は、無線パーツを備えるマイクロコンピュータ(これらに限定するわけではないが)であってもよい。前記端末装置は、アンテナ800を備えており、それを使って、デュープレックスフィルタを通して信号を送受信する。前記端末装置は、又複数のアンテナ、即ち、マルチアンテナ・システムを備えている。又、前記端末装置は、変調信号を増幅し、アンテナへ転送する送信器802と、所望の情報を含むデータ信号の搬送波を、選択した変調方法に基づいて変調する変調器804と、アンテナから得た信号を増幅し、所望の中間周波数又は直接ベースバンドにダウンコンバートする受信機806と、前記受信信号をデコードし、データ信号を搬送波から分離するデコーダ808を備える。   One terminal device of the wireless system is shown in FIG. The wireless system is used to implement the method of the preferred embodiment of the present invention. The transmitter of the subscriber terminal device 824 and the transmitter of the component of the radio system network partially execute the same task. The terminal device 824 may be, for example, a mobile phone or a microcomputer (including but not limited to) a wireless part. The terminal device includes an antenna 800, and uses it to transmit and receive signals through a duplex filter. The terminal device also includes a plurality of antennas, that is, a multi-antenna system. Further, the terminal device obtains from the antenna a transmitter 802 that amplifies the modulated signal and transfers it to the antenna, a modulator 804 that modulates the carrier of the data signal including the desired information based on the selected modulation method, and the antenna. A receiver 806 that amplifies the received signal and downconverts it to a desired intermediate frequency or directly to baseband, and a decoder 808 that decodes the received signal and separates the data signal from the carrier wave.

加入者端末装置は、又、カメラ820とビデオコーデック822等、該端末装置の他のパーツの動作を制御し、ユーザの音声、又は、デジタル信号処理(DSP)、デジタルアナログ変換処理、フィルタ処理等、ユーザが生成したデータを処理するのに必要な動作を行うコントロ−ルブロック816を有している。又、WCDMAのようなスペクトル拡散システムにおいては、信号スペクトラムは、送信器において擬似ランダム拡散符号を使って広帯域に拡散され(spread)、受信機において復調され(despread)、チャネル容量を大きくするようにする。コントロールブロックは、又、チャネル・音声符号化(speech coding)のような符号化と復号化を行う。更に、前記コントロールブロックは、無線システムの大気インターフェース標準規格に適合するように、送信信号とシグナリング情報を調整する。加入者端末装置は、1以上の各種のタイプのメモリ(図示しないが、他のブロックのパーツ又は個別部品である)を備えている。図8の例では、コントロールブロックは、又、上記端末装置の動作を制御するプログラムを有している。前記図の例においては、ビデオコーデック822は、フレームの再構成データを符号化・復号化するものであるが、個別部品であるが、コントロールブロック816の一部であることもできる。   The subscriber terminal device also controls the operation of other parts of the terminal device, such as the camera 820 and the video codec 822, and the user's voice or digital signal processing (DSP), digital analog conversion processing, filter processing, etc. The control block 816 performs operations necessary for processing data generated by the user. Also, in a spread spectrum system such as WCDMA, the signal spectrum is spread over a wide band using a pseudo-random spreading code at the transmitter (spread) and demodulated at the receiver (despread) to increase the channel capacity. To do. The control block also performs coding and decoding, such as channel / speech coding. In addition, the control block adjusts the transmission signal and signaling information to conform to the air system air interface standard. The subscriber terminal device includes one or more various types of memories (not shown, but are parts of other blocks or individual parts). In the example of FIG. 8, the control block also has a program for controlling the operation of the terminal device. In the example shown in the figure, the video codec 822 encodes and decodes the reconstructed data of the frame. However, the video codec 822 is an individual part, but can also be a part of the control block 816.

フレームを転送する時に、カメラ820は、デジタル画像をメモリブロック818に記録する。該カメラ820は、又前記画像を直接コーデック822に記録することができる。該コーデックは、前記方法の1つ、又は複数方法の組合せを使って、選択したフレームを符号化する。前記カメラ820、コーデック822とメモリ918は、加入者端末装置824に内蔵し、又は、個別カメラユニット816に内蔵することができる。後者の場合には、インターフェース828を介して加入者端末装置824に接続される。   When transferring the frame, the camera 820 records the digital image in the memory block 818. The camera 820 can also record the image directly on the codec 822. The codec encodes the selected frame using one or a combination of methods. The camera 820, the codec 822, and the memory 918 can be built into the subscriber terminal 824 or built into the individual camera unit 816. In the latter case, it is connected to the subscriber terminal device 824 via the interface 828.

加入者端末装置のユーザは、必要に応じて、表示装置814上でフレームを見ることができる。符号化フレーム再構成データは、音声又はテキストデータと同一のやり方で通信システムに転送され、例えば、他の電話に送信される。   The user of the subscriber terminal device can view the frame on the display device 814 as necessary. The encoded frame reconstruction data is transferred to the communication system in the same way as voice or text data, for example, to other telephones.

前記端末装置の動作ブロック(例えばコントロールブロック、及び、符号化復号化に必要なコーデックブロック822等)の実装には、多くのやり方がある。例えば、プロセッサ上で実行するソフトウェアで、若しくは、個別部品又はASICから構成されるロジックのようなハードウェアで実装される。前記図に示す端末装置の複数の機能は、前記図とは異なる多くのやり方で動作ブロックに組み込むことができる。例えば、コーデックブロック822は、コーダとデコーダに分割することができる。   There are many ways to implement the operation blocks of the terminal device (for example, the control block and the codec block 822 required for encoding / decoding). For example, it is implemented by software executed on a processor, or hardware such as logic composed of individual components or ASICs. The functions of the terminal device shown in the figure can be incorporated into the operation block in many ways different from the figure. For example, the codec block 822 can be divided into a coder and a decoder.

前記端末装置のユーザインターフェースは、スピーカ又は受話口810、マイク812、表示装置814及び場合によってキーボード(これらは、全てコントロールブロック816に接続している)を有している。   The user interface of the terminal device includes a speaker or earpiece 810, a microphone 812, a display device 814 and possibly a keyboard (all connected to a control block 816).

以上本発明について、図を使って実施例を参照しながら説明したが、本発明が、それらに限定されることなく、特許請求の範囲に記載された技術的思想の範囲内で様々な変形を行うことができることは明らかである。
本発明は、H.263又はMPEGのような複数のビデオ符号化標準規格と共に応用できるものである。
Although the present invention has been described with reference to the embodiments with reference to the drawings, the present invention is not limited thereto, and various modifications can be made within the scope of the technical idea described in the claims. Obviously it can be done.
The present invention is applicable with multiple video coding standards such as H.263 or MPEG.

通信システムのブロック図である。1 is a block diagram of a communication system. 図2Aから2Cは、参照フレームを使った、ベクトルの推定プロセスを示す図である。2A to 2C are diagrams illustrating a vector estimation process using a reference frame. 隣接ブロックを使った動きベクトルの推定プロセスを示す図である。It is a figure which shows the estimation process of the motion vector using an adjacent block. 参照ブロックを見つけ、動きベクトルを予測する方法を示すフローチャートである。It is a flowchart which shows the method of finding a reference block and estimating a motion vector. 参照ブロックを見つけ、動きベクトルを予測する方法を示す例を示す。An example showing how to find a reference block and predict a motion vector is shown. コーダのブロック図である。It is a block diagram of a coder. 復号化器のブロック図である。It is a block diagram of a decoder. 加入者端末装置のブロック図である。It is a block diagram of a subscriber terminal device. 参照ブロックを見つけ、動きベクトルを予測する方法を示す第2の例を示す。A second example showing how to find a reference block and predict a motion vector is shown.

Claims (73)

複数の参照フレームの内の1つを使って符号化しようとするブロックのための予測であって、この予測は動きデータと参照フレーム数とからなる予測を行うこと、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参照フレーム番号とを比較すること、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持つ、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータだけを使って、符号化しようとするブロックの動きデータの予測を行うこと、
ことを含むビデオシーケンスを符号化する方法。
Prediction for a block to be encoded using one of a plurality of reference frames, wherein the prediction comprises prediction consisting of motion data and the number of reference frames;
Comparing the reference frame number of the block to be encoded with the reference frame number of the previously encoded block;
If there is at least one previously encoded block having a reference frame number different from the reference frame number of the block to be encoded, it is a previously encoded block and is to be encoded. Using only motion data of the block with the same number of reference frames as the block, predicting motion data of the block to be encoded,
A method for encoding a video sequence comprising:
仮に唯1つの、前に符号化したブロックが、符号化しようとするブロックと同じ参照フレーム数を持つ場合、符号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項1に記載の方法。   If only one previously encoded block has the same number of reference frames as the block to be encoded, the motion data prediction of the block to be encoded is the previously encoded block. The method of claim 1, wherein the method is set equal to the motion data of a block having the same number of reference frames as the block to be encoded. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータのメジアンである請求項1に記載の方法。   The motion data prediction of a block to be encoded is a median of motion data of a block that has been previously encoded and has the same number of reference frames as the block to be encoded. Method. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータの平均である請求項1に記載の方法。   The motion data prediction of a block to be encoded is an average of motion data of blocks that have been previously encoded and have the same number of reference frames as the block to be encoded. Method. 前記ブロックの動きデータは動きベクトルにより表わされる請求項1又は3に記載の方法。   The method according to claim 1 or 3, wherein the motion data of the block is represented by a motion vector. 前に符号化されたブロックが符号化しようとするブロックの直近のブロックである請求項1又は3に記載の方法。   4. A method according to claim 1 or 3, wherein the previously encoded block is the block closest to the block to be encoded. 前記直近のブロックは符号化しようとするブロックの左側、上側、右上側に位置する請求項6に記載の方法。   The method according to claim 6, wherein the nearest block is located on a left side, an upper side, and an upper right side of a block to be encoded. 前に符号化されたブロックが符号化しようとするブロックの直近に存在せず、符号化しようとするブロックから離間している請求項1又は3に記載の方法。   The method according to claim 1 or 3, wherein the previously encoded block does not exist in the immediate vicinity of the block to be encoded and is spaced from the block to be encoded. 複数の利用可能な参照フレームの内から予測ブロックをサーチし、
予め決めた符号効率又は予め決めた画質を達成するために、現在の画像ブロックのための予測ブロックを選択することを、更に含む請求項1又は3に記載の方法。
Search for a prediction block from multiple available reference frames,
4. A method according to claim 1 or 3, further comprising selecting a prediction block for the current image block to achieve a predetermined code efficiency or a predetermined image quality.
複数の利用可能な参照フレームの内からの予測ブロックのサーチは動きデータの候補の組、動きデータに基づく参照フレーム、及び前に符号化したブロックの参照フレームに基づく、請求項9に記載の方法。   10. The method of claim 9, wherein the search for a predictive block from among a plurality of available reference frames is based on a set of motion data candidates, a reference frame based on motion data, and a reference frame of a previously encoded block. . 前記符号化効率はラグランジュ関数により推定される請求項9に記載の方法。   The method according to claim 9, wherein the coding efficiency is estimated by a Lagrangian function. 複数の動きモデルから1つの動きモデルを選択し、選択された動きモデルを通知することを、更に含む、請求項1又は3に記載の方法。   4. The method according to claim 1 or 3, further comprising selecting one motion model from a plurality of motion models and notifying the selected motion model. ビデオシーケンスを符号化する方法を実行するビデオコーデック(822)を有する端末(824)であって、前記方法が以下を含む端末。
複数の参照フレームの内の1つを使って符号化しようとするブロックのための予測であって、この予測は動きデータと参照フレーム数とからなる予測を行うこと、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参照フレーム番号とを比較すること、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持つ、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータだけを使って、符号化しようとするブロックの動きデータの予測を行うこと。
A terminal (824) having a video codec (822) that performs a method for encoding a video sequence, the method including:
Prediction for a block to be encoded using one of a plurality of reference frames, wherein the prediction comprises prediction consisting of motion data and the number of reference frames;
Comparing the reference frame number of the block to be encoded with the reference frame number of the previously encoded block;
If there is at least one previously encoded block having a reference frame number different from the reference frame number of the block to be encoded, it is a previously encoded block and is to be encoded. Predict motion data of a block to be encoded using only motion data of a block having the same number of reference frames as the block.
仮に唯1つの、前に符号化したブロックが、符号化しようとするブロックと同じ参照フレーム数を持つ場合、符号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項13に記載の端末。   If only one previously encoded block has the same number of reference frames as the block to be encoded, the motion data prediction of the block to be encoded is the previously encoded block. The terminal according to claim 13, which is set equal to motion data of a block having the same number of reference frames as a block to be encoded. 前記ブロックの動きデータは動きベクトルにより表わされる請求項13または14に記載の端末。   The terminal according to claim 13 or 14, wherein the motion data of the block is represented by a motion vector. 複数の利用可能な参照フレームの内から予測ブロックをサーチし、
予め決めた符号効率又は予め決めた画質を達成するために、現在の画像ブロックのための予測ブロックを選択することを、更に含む請求項13又は14に記載の端末。
Search for a prediction block from multiple available reference frames,
The terminal according to claim 13 or 14, further comprising selecting a prediction block for the current image block to achieve a predetermined code efficiency or a predetermined image quality.
複数の利用可能な参照フレームの内からの予測ブロックのサーチは動きデータの候補の組、動きデータに基づく参照フレーム、及び前に符号化したブロックの参照フレームに基づく、請求項16に記載の端末。   The terminal according to claim 16, wherein the search for a prediction block from among a plurality of available reference frames is based on a candidate set of motion data, a reference frame based on motion data, and a reference frame of a previously encoded block. . 前記符号化効率はラグランジュ関数により推定される請求項16に記載の端末。   The terminal according to claim 16, wherein the coding efficiency is estimated by a Lagrangian function. 加入者端末(824)は無線システムの端末である請求項13又は14に記載の端末(824)。   15. A terminal (824) according to claim 13 or 14, wherein the subscriber terminal (824) is a terminal of a wireless system. 移動電話と無線パーツを有するマイクロコンピュータから構成されるグループから選択される請求項13又は14に記載の端末(824)。   15. Terminal (824) according to claim 13 or 14, selected from the group consisting of a mobile phone and a microcomputer with radio parts. カメラを含む請求項13又は14に記載の端末(824)。   15. A terminal (824) according to claim 13 or 14, comprising a camera. 複数の参照フレームの内の1つを使って符号化しようとするブロックのための予測であって、この予測は動きデータと参照フレーム数とからなる予測を行う予測手段と、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参照フレーム番号とを比較する手段と、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持つ、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータだけを使って、符号化しようとするブロックの動きデータの予測を行う手段とを、
有するビデオエンコーダ。
Prediction for a block to be encoded using one of a plurality of reference frames, the prediction being a prediction means for performing prediction consisting of motion data and the number of reference frames;
Means for comparing a reference frame number of a block to be encoded with a reference frame number of a previously encoded block;
If there is at least one previously encoded block having a reference frame number different from the reference frame number of the block to be encoded, it is a previously encoded block and is to be encoded. A means for predicting motion data of a block to be encoded using only motion data of a block having the same number of reference frames as the block;
Having video encoder.
仮に唯1つの、前に符号化したブロックが、符号化しようとするブロックと同じ参照フレーム数を持つ場合、符号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項22に記載のビデオエンコーダ。   If only one previously encoded block has the same number of reference frames as the block to be encoded, the motion data prediction of the block to be encoded is the previously encoded block. The video encoder according to claim 22, which is set equal to the motion data of a block having the same number of reference frames as the block to be encoded. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータのメジアンである請求項22に記載のビデオエンコーダ。   The motion data prediction of a block to be encoded is a median of motion data of a block that has been previously encoded and has the same number of reference frames as the block to be encoded. Video encoder. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータの平均である請求項22に記載のビデオエンコーダ。   23. The motion data prediction of a block to be encoded is an average of motion data of blocks previously encoded and having the same number of reference frames as the block to be encoded. Video encoder. 前記ブロックの動きデータは動きベクトルにより表わされる請求項22又は24に記載のビデオエンコーダ。   The video encoder according to claim 22 or 24, wherein the motion data of the block is represented by a motion vector. 前に符号化されたブロックが符号化しようとするブロックの直近のブロックである請求項22又は24に記載のビデオエンコーダ。   25. A video encoder according to claim 22 or 24, wherein the previously encoded block is the block closest to the block to be encoded. 前記直近のブロックは符号化しようとするブロックの左側、上側、右上側に位置する請求項27に記載のビデオエンコーダ。   28. The video encoder according to claim 27, wherein the most recent block is located on the left side, upper side, and upper right side of the block to be encoded. 前に符号化されたブロックが符号化しようとするブロックの直近に存在せず、符号化しようとするブロックから離間している請求項22又は24に記載のビデオエンコーダ。   25. Video encoder according to claim 22 or 24, wherein the previously encoded block is not in the immediate vicinity of the block to be encoded and is spaced from the block to be encoded. 複数の利用可能な参照フレームの内から予測ブロックをサーチする手段と、
予め決めた符号効率又は予め決めた画質を達成するために、現在の画像ブロックのための予測ブロックを選択する手段と、を更に含む、請求項22又は24に記載のビデオエンコーダ。
Means for searching for a prediction block from a plurality of available reference frames;
25. A video encoder according to claim 22 or 24, further comprising means for selecting a prediction block for the current image block to achieve a predetermined code efficiency or a predetermined image quality.
複数の利用可能な参照フレームの内からの予測ブロックのサーチは動きデータの候補の組、動きデータに基づく参照フレーム、及び前に符号化したブロックの参照フレームに基づく請求項30に記載のビデオエンコーダ。   The video encoder of claim 30, wherein the search for a predictive block from among a plurality of available reference frames is based on a set of motion data candidates, a reference frame based on the motion data, and a reference frame of a previously encoded block. . 前記符号化効率はラグランジュ関数により推定される請求項30に記載のビデオエンコーダ。   The video encoder according to claim 30, wherein the coding efficiency is estimated by a Lagrangian function. 複数の動きモデルから1つの動きモデルを選択する手段と、
選択された動きモデルを通知する手段と、を更に含む請求項22又は24に記載のビデオエンコーダ。
Means for selecting one motion model from a plurality of motion models;
25. A video encoder according to claim 22 or 24, further comprising means for informing the selected motion model.
ビデオフレームの符号化方法を実施するためにコンピュータ読み取り可能なコードを格納するコンピュータ読み取り可能な媒体であって、前記方法が以下を含むコンピュータ読み取り可能な媒体。
複数の参照フレームの内の1つを使って符号化しようとするブロックのための予測で あって、この予測は動きデータと参照フレーム数とからなる予測を行うこと、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参 照フレーム番号とを比較すること、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持 つ、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロッ クであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動 きデータだけを使って、符号化しようとするブロックの動きデータの予測を行うこと 。
A computer readable medium storing computer readable code for performing a video frame encoding method, the method comprising:
A prediction for a block to be encoded using one of a plurality of reference frames, the prediction comprising a prediction consisting of motion data and the number of reference frames;
Comparing the reference frame number of the block to be encoded with the reference frame number of the previously encoded block;
If there is at least one previously encoded block with a reference frame number that is different from the reference frame number of the block to be encoded, it is a previously encoded block and is to be encoded. The motion data of the block to be encoded should be predicted using only the motion data of the block having the same number of reference frames as the target block.
仮に唯1つの、前に符号化したブロックが、符号化しようとするブロックと同じ参照フレーム数を持つ場合、符号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項34記載のコンピュータプログラム。   If only one previously encoded block has the same number of reference frames as the block to be encoded, the motion data prediction of the block to be encoded is the previously encoded block. 35. The computer program of claim 34, set equal to the motion data of a block having the same number of reference frames as the block to be encoded. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータのメジアンである請求項34記載のコンピュータプログラム。   35. The computer of claim 34, wherein the motion data prediction for a block to be encoded is a median of motion data for a block that has been previously encoded and has the same number of reference frames as the block to be encoded. program. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータの平均である請求項34記載のコンピュータプログラム。   35. The computer of claim 34, wherein the motion data prediction of a block to be encoded is an average of motion data of blocks previously encoded and having the same number of reference frames as the block to be encoded. program. 前記ブロックの動きデータは動きベクトルにより表わされる請求項34又は36に記載のコンピュータプログラム。   37. The computer program according to claim 34 or 36, wherein the motion data of the block is represented by a motion vector. 前に符号化されたブロックが符号化しようとするブロックの直近のブロックである請求項34又は36に記載のコンピュータプログラム。   37. A computer program according to claim 34 or 36, wherein the previously encoded block is the block immediately adjacent to the block to be encoded. 前記直近のブロックは符号化しようとするブロックの左側、上側、右上側に位置する請求項39に記載のコンピュータプログラム。   40. The computer program according to claim 39, wherein the most recent block is located on the left side, upper side, and upper right side of the block to be encoded. 前に符号化されたブロックが符号化しようとするブロックの直近に存在せず、符号化しようとするブロックから離間している請求項34又は36に記載のコンピュータプログラム。   37. The computer program according to claim 34 or 36, wherein the previously encoded block does not exist in the immediate vicinity of the block to be encoded and is separated from the block to be encoded. 前記方法が、複数の利用可能な参照フレームの内から予測ブロックをサーチし、予め決めた符号効率又は予め決めた画質を達成するために、現在の画像ブロックのための予測ブロックを選択することを、更に含む請求項34又は36に記載のコンピュータプログラム。   The method searches for a prediction block from a plurality of available reference frames and selects a prediction block for the current image block to achieve a predetermined code efficiency or a predetermined image quality. 37. The computer program according to claim 34 or 36, further comprising: 複数の利用可能な参照フレームの内からの予測ブロックのサーチは動きデータの候補の組、動きデータに基づく参照フレーム、及び前に符号化したブロックの参照フレームに基づく、請求項42に記載のコンピュータプログラム。   43. The computer of claim 42, wherein a search for a predictive block from among a plurality of available reference frames is based on a set of motion data candidates, a reference frame based on motion data, and a reference frame of a previously encoded block. program. 前記符号化効率はラグランジュ関数により推定される請求項42に記載のコンピュータプログラム。   The computer program according to claim 42, wherein the encoding efficiency is estimated by a Lagrangian function. 複数の動きモデルから1つの動きモデルを選択し、選択された動きモデルを通知することを、更に含む、請求項34又は36に記載のコンピュータプログラム。   37. The computer program according to claim 34, further comprising selecting one motion model from a plurality of motion models and notifying the selected motion model. 符号化されたビデオデータをデコードする方法であって、以下を含む方法。
符号化されたビデオデータにおける復号化しようとするブロックのための動き予測情報 であって、少なくとも参照フレーム数と動き差分データ(motion difference data)を 受信すること、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参照 フレーム番号とを比較すること、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持つ 、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロックで あって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデー タだけを使って、符号化しようとするブロックの動きデータの予測を行うこと、及び、
前記動きデータ及び前記受信された動き差分データに基づいて、復号化しようとするブ ロックの動きデータを作成すること。
A method for decoding encoded video data, comprising:
Motion prediction information for a block to be decoded in encoded video data, receiving at least the number of reference frames and motion difference data;
Comparing the reference frame number of the block to be encoded with the reference frame number of the previously encoded block;
If the number of reference frames is different from the number of reference frames of the block to be encoded, and there is at least one previously encoded block, it is a previously encoded block and is to be encoded. Predicting the motion data of the block to be encoded using only the motion data of the block having the same number of reference frames as the block; and
Creating motion data of a block to be decoded based on the motion data and the received motion difference data;
仮に唯1つの、前に符号化したブロックが、復号化しようとするブロックと同じ参照フレーム数を持つ場合、復号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項46に記載の方法。   If only one previously encoded block has the same number of reference frames as the block to be decoded, the motion data prediction of the block to be decoded is the previously encoded block. 47. The method of claim 46, set equal to the motion data of a block having the same number of reference frames as the block to be encoded. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータのメジアンである請求項46に記載の方法。   The motion data prediction of a block to be encoded is a median of motion data of a block that has been previously encoded and has the same number of reference frames as the block to be encoded. Method. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータの平均である請求項46に記載の方法。   The prediction of motion data of a block to be encoded is an average of motion data of blocks that have been previously encoded and have the same number of reference frames as the block to be encoded. Method. 前記ブロックの動きデータは動きベクトルにより表わされる請求項46又は48に記載の方法。   49. A method according to claim 46 or 48, wherein the motion data of the block is represented by a motion vector. 前に符号化されたブロックが符号化しようとするブロックの直近のブロックである請求項46又は48に記載の方法。   49. A method according to claim 46 or 48, wherein the previously encoded block is the block closest to the block to be encoded. 前記直近のブロックは符号化しようとするブロックの左側、上側、右上側に位置する請求項51に記載の方法。   52. The method of claim 51, wherein the most recent block is located on the left side, upper side, and upper right side of the block to be encoded. 前に符号化されたブロックが符号化しようとするブロックの直近に存在せず、符号化しようとするブロックから離間している請求項46又は48に記載の方法。   49. A method according to claim 46 or 48, wherein the previously encoded block is not in the immediate vicinity of the block to be encoded and is spaced from the block to be encoded. 複数の動きモデルから1つの動きモデルを決定すること、
動きモデル及び動きデータを使って、復号化しようとするブロックに対し予測を行うことを、更に含む請求項46又は48に記載の方法。
Determining one motion model from a plurality of motion models;
49. A method according to claim 46 or 48, further comprising performing prediction on the block to be decoded using the motion model and motion data.
前記動きモデルは符号化されたビデオデータのシグナリングにより決定される請求項54に記載の方法。   The method of claim 54, wherein the motion model is determined by signaling of encoded video data. 符号化されたビデオデータを複合化するデコーダであって、以下を含むビデオデコーダ。
符号化されたビデオデータにおける復号化しようとするブロックのための動き予測情 報であって、少なくとも参照フレーム数と動き差分データ(motion difference data )を受信するための手段、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参 照フレーム番号とを比較する手段、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持 つ、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロッ クであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動 きデータだけを使って、符号化しようとするブロックの動きデータの予測を行う手段 、及び、
前記動きデータ及び前記受信された動き差分データに基づいて、復号化しようとする ブロックの動きデータを作成する手段。
A decoder for decoding encoded video data, comprising:
Motion prediction information for a block to be decoded in encoded video data, at least means for receiving a reference frame number and motion difference data;
Means for comparing the reference frame number of the block to be encoded with the reference frame number of the previously encoded block;
If there is at least one previously encoded block with a reference frame number that is different from the reference frame number of the block to be encoded, it is a previously encoded block and is to be encoded. Means for predicting motion data of a block to be encoded using only motion data of a block having the same reference frame number as the block
Means for generating motion data of a block to be decoded based on the motion data and the received motion difference data;
仮に唯1つの、前に符号化したブロックが、復号化しようとするブロックと同じ参照フレーム数を持つ場合、復号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項56に記載のビデオデコーダ。   If only one previously encoded block has the same number of reference frames as the block to be decoded, the motion data prediction of the block to be decoded is the previously encoded block. 57. A video decoder according to claim 56, set equal to the motion data of a block having the same number of reference frames as the block to be encoded. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータのメジアンである請求項56に記載のビデオデコーダ。   57. The motion data prediction of a block to be encoded is a median of motion data of a block that has been previously encoded and has the same number of reference frames as the block to be encoded. Video decoder. 符号化しようとするブロックの動きデータの予測は前に符号化されたブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータの平均である請求項56に記載のビデオデコーダ。   57. The motion data prediction of a block to be encoded is an average of motion data of blocks previously encoded and having the same number of reference frames as the block to be encoded. Video decoder. 前記ブロックの動きデータは動きベクトルにより表わされる請求項56又は58に記載のビデオデコーダ。   59. A video decoder according to claim 56 or 58, wherein the motion data of the block is represented by a motion vector. 前に符号化されたブロックが符号化しようとするブロックの直近のブロックである請求項56又は58に記載のビデオデコーダ。   59. A video decoder according to claim 56 or 58, wherein the previously encoded block is the block nearest the block to be encoded. 前記直近のブロックは符号化しようとするブロックの左側、上側、右上側に位置する請求項61に記載のビデオデコーダ。   64. The video decoder according to claim 61, wherein the nearest block is located on the left side, upper side, and upper right side of the block to be encoded. 前に符号化されたブロックが符号化しようとするブロックの直近に存在せず、符号化しようとするブロックから離間している請求項56又は58に記載のビデオデコーダ。   59. Video decoder according to claim 56 or 58, wherein the previously encoded block is not in the immediate vicinity of the block to be encoded and is spaced from the block to be encoded. 複数の動きモデルから1つの動きモデルを決定する手段と、
動きモデル及び動きデータを使って、復号化しようとするブロックに対し予測を行う手段を、更に含む請求項56又は58に記載のビデオデコーダ。
Means for determining one motion model from a plurality of motion models;
59. A video decoder according to claim 56 or 58, further comprising means for performing prediction on the block to be decoded using the motion model and motion data.
前記動きモデルは符号化されたビデオデータのシグナリングにより決定される請求項64に記載のビデオデコーダ。   The video decoder of claim 64, wherein the motion model is determined by signaling of encoded video data. 符号化されたビデオデータをデコードする方法を実行するためのビデオコーデック(822)を有する端末(824)であって、前記方法は以下を含むことを特徴とする端末。
符号化されたビデオデータにおける復号化しようとするブロックのための動き予測情 報であって、少なくとも参照フレーム数と動き差分データ(motion difference data )を受信すること、
符号化しようとするブロックの参照フレーム番号と、前に符号化されたブロックの参 照フレーム番号とを比較すること、
仮に、符号化しようとするブロックの参照フレーム数とは異なる参照フレーム数を持 つ、前に符号化したブロックが少なくとも1つ存在する場合、前に符号化したブロッ クであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動 きデータだけを使って、符号化しようとするブロックの動きデータの予測を行うこと 、及び、
前記動きデータ及び前記受信された動き差分データに基づいて、復号化しようとする ブロックの動きデータを作成すること。
A terminal (824) having a video codec (822) for performing a method for decoding encoded video data, the method comprising:
Motion prediction information for a block to be decoded in encoded video data, receiving at least the number of reference frames and motion difference data;
Comparing the reference frame number of the block to be encoded with the reference frame number of the previously encoded block;
If there is at least one previously encoded block with a reference frame number that is different from the reference frame number of the block to be encoded, it is a previously encoded block and is to be encoded. Predicting motion data of a block to be encoded using only motion data of a block having the same number of reference frames as the block
Creating motion data of a block to be decoded based on the motion data and the received motion difference data;
仮に唯1つの、前に符号化したブロックが、符号化しようとするブロックと同じ参照フレーム数を持つ場合、符号化しようとするブロックの動きデータの予測は、前に符号化したブロックであって、符号化しようとするブロックと同じ参照フレーム数を持つブロックの動きデータに等しくセットされる請求項66に記載の端末。   If only one previously encoded block has the same number of reference frames as the block to be encoded, the motion data prediction of the block to be encoded is the previously encoded block. The terminal according to claim 66, set equal to the motion data of a block having the same number of reference frames as the block to be encoded. 前記ブロックの動きデータは動きベクトルにより表わされる請求項66又は67の何れか1項に記載の端末。   68. The terminal according to claim 66 or 67, wherein the motion data of the block is represented by a motion vector. 前に符号化されたブロックが符号化しようとするブロックの直近のブロックである請求項66又は67に記載の端末。   68. A terminal according to claim 66 or 67, wherein the previously encoded block is the block nearest the block to be encoded. 前記直近のブロックは符号化しようとするブロックの左側、上側、右上側に位置する請求項69に記載の端末。   The terminal according to claim 69, wherein the nearest block is located on a left side, an upper side, and an upper right side of a block to be encoded. 前に符号化されたブロックが符号化しようとするブロックの直近に存在せず、符号化しようとするブロックから離間している請求項66又は67に記載の端末。   68. A terminal as claimed in claim 66 or 67, wherein the previously encoded block is not in the immediate vicinity of the block to be encoded and is spaced from the block to be encoded. 加入者端末は無線システムの端末である請求項66又は67に記載の端末。   68. A terminal according to claim 66 or 67, wherein the subscriber terminal is a terminal of a wireless system. 移動電話と無線部品を有するマイクロコンピュータとから構成されるグループから選択される請求項66又は67に記載の端末。   68. The terminal according to claim 66 or 67, which is selected from the group consisting of a mobile phone and a microcomputer having wireless components.
JP2007139572A 2007-05-25 2007-05-25 Method and apparatus for video frame transfer in communication system Pending JP2007312397A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007139572A JP2007312397A (en) 2007-05-25 2007-05-25 Method and apparatus for video frame transfer in communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007139572A JP2007312397A (en) 2007-05-25 2007-05-25 Method and apparatus for video frame transfer in communication system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002520565A Division JP2004534411A (en) 2000-08-11 2000-08-11 Video frame transfer method and apparatus in communication system

Publications (1)

Publication Number Publication Date
JP2007312397A true JP2007312397A (en) 2007-11-29

Family

ID=38844759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007139572A Pending JP2007312397A (en) 2007-05-25 2007-05-25 Method and apparatus for video frame transfer in communication system

Country Status (1)

Country Link
JP (1) JP2007312397A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013253A1 (en) * 2009-07-31 2011-02-03 株式会社 東芝 Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device
JP2018139416A (en) * 2011-04-27 2018-09-06 株式会社Jvcケンウッド Video encoder, video encoding method, and video encoding program, and video decoder, video decoding method, and video decoding program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004534411A (en) * 2000-08-11 2004-11-11 ノキア コーポレイション Video frame transfer method and apparatus in communication system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004534411A (en) * 2000-08-11 2004-11-11 ノキア コーポレイション Video frame transfer method and apparatus in communication system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013253A1 (en) * 2009-07-31 2011-02-03 株式会社 東芝 Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device
JP2018139416A (en) * 2011-04-27 2018-09-06 株式会社Jvcケンウッド Video encoder, video encoding method, and video encoding program, and video decoder, video decoding method, and video decoding program

Similar Documents

Publication Publication Date Title
US6782053B1 (en) Method and apparatus for transferring video frame in telecommunication system
JP2007135219A6 (en) Video frame transfer method and apparatus in communication system
JP2007135219A (en) Method and apparatus for video frame transfer in communication system
US8005145B2 (en) Method and apparatus for transferring video frame in telecommunication system
US6954502B2 (en) Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
US7978770B2 (en) Method and apparatus for motion vector prediction in temporal video compression
CN111971962A (en) Video encoding and decoding device and method
EP1453321A2 (en) Video encoder capable of differentially encoding image of speaker during visual call and method for compressing video signal
MX2007000254A (en) Method and apparatus for using frame rate up conversion techniques in scalable video coding.
KR101409826B1 (en) Method for motion prediction using adaptive search range
JP2023017955A (en) Motion vector acquisition method and device
KR100828378B1 (en) Method and apparatus for transferring video frame in telecommunication system
JP2007312397A (en) Method and apparatus for video frame transfer in communication system
JP2009513080A (en) Predicted image region detection method and restoration method, and detection apparatus and restoration apparatus
CN115379214A (en) Image processing method, intelligent terminal and storage medium
KR101378434B1 (en) Method for fast intra prediction mode decision
CN115955565B (en) Processing method, processing apparatus, and storage medium
CN116847088B (en) Image processing method, processing apparatus, and storage medium
ZA200301088B (en) Method and apparatus for transferring video frame in telecommunication system.
KR100252346B1 (en) An improved apparatus and method for coding texture move vector
KR100238890B1 (en) Improved texture motion vector estimating apparatus and method
Jeon et al. Efficient fast motion estimation method for H. 264
JP2003102013A (en) Decoder, encoder, and encoding decoder

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110318

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120409

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120925