JP2008211294A - Encoding device and encoding method - Google Patents

Encoding device and encoding method Download PDF

Info

Publication number
JP2008211294A
JP2008211294A JP2007043517A JP2007043517A JP2008211294A JP 2008211294 A JP2008211294 A JP 2008211294A JP 2007043517 A JP2007043517 A JP 2007043517A JP 2007043517 A JP2007043517 A JP 2007043517A JP 2008211294 A JP2008211294 A JP 2008211294A
Authority
JP
Japan
Prior art keywords
encoder
encoding
unit
frame
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007043517A
Other languages
Japanese (ja)
Inventor
Tomoko Aida
知子 相田
Koji Yamamiya
耕二 山宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saxa Inc
Original Assignee
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saxa Inc filed Critical Saxa Inc
Priority to JP2007043517A priority Critical patent/JP2008211294A/en
Publication of JP2008211294A publication Critical patent/JP2008211294A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an encoding device and an encoding method that can reduce an calculation load. <P>SOLUTION: A main encoder 11-1 selects motion compensation prediction encoding processing or intra-prediction performed for one frame and carries out encoding through the selected processing, and sub-encoders 11-2a to 11-2n perform the processing selected by the main encoder 11-1 on the one frame, and then, the sub-encoder 11-2a to 11-2n can omit selecting operation for the encoding processing performed for the one frame unlike the main encoder 11-1, thereby reducing the operation load. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、動画圧縮技術に関するものであり、より詳しくは動画像を符号化する符号化装置および符号化方法に関するものである。   The present invention relates to a moving image compression technique, and more particularly to an encoding apparatus and an encoding method for encoding a moving image.

近年、例えばTV会議システムなど複数の端末装置間でそれぞれが撮影した動画像を相互に視聴可能なシステムが提案されている。このようなシステムにおいて、各端末装置は、自装置で撮影した動画像を他の端末装置に送信するとともに、他の端末装置から送られてきた複数の動画像を同一画面に表示する。これにより、各端末装置のユーザは、他の端末装置のユーザの動画像を見ながら会話等を行うことが可能となる。   In recent years, for example, a system capable of mutually viewing moving images taken by a plurality of terminal devices such as a TV conference system has been proposed. In such a system, each terminal device transmits a moving image captured by the own device to other terminal devices, and displays a plurality of moving images sent from other terminal devices on the same screen. Accordingly, the user of each terminal device can perform a conversation or the like while watching the moving image of the user of another terminal device.

このようなシステムでは、通信負荷を軽減するために、送受信する動画像に対して符号化が行われる。例えば、H.264またはMPEG−4と呼ばれる動画圧縮技術(例えば、非特許文献1参照。)を用いると、動画像は、空間的に符号化されるIピクチャ、および、他のピクチャを参照して符号化されるPピクチャまたはBピクチャから構成される複数の連続したピクチャからなる画像データ(以下、符号化データという)に符号化される。この符号化データは、受信側の端末装置で復号化されることにより、動画像として再生することが可能となる。   In such a system, in order to reduce the communication load, encoding is performed on a moving image to be transmitted and received. For example, H.M. When a moving image compression technique called H.264 or MPEG-4 (for example, see Non-Patent Document 1) is used, a moving image is encoded with reference to a spatially encoded I picture and other pictures. Are encoded into image data (hereinafter referred to as encoded data) including a plurality of consecutive pictures including a P picture or a B picture. The encoded data can be reproduced as a moving image by being decoded by the terminal device on the receiving side.

ところが、通信環境によっては伝送路の帯域に違いが生じることがあるので、上述したように符号化したとしても、符号化データの受信遅延等が生じ、結果として受信側の端末装置で動画像がスムーズに再生されないことがある。このため、送信側の端末装置において、受信側の端末装置の伝送路の帯域に応じて符号化データの圧縮率等を決定することが行われている(例えば、特許文献1参照。)。例えば、図6に示すように、送信側の端末装置に圧縮率の異なるエンコーダ101,102を設け、同一の動画像から圧縮率の異なる複数の符号化データを生成することがなされている。これにより、受信側の端末装置では、通信環境に応じた圧縮率の符号化データが送られてくるので、受信遅延等が生じず、結果として、動画像をスムーズに再生することができる。   However, depending on the communication environment, there may be a difference in the bandwidth of the transmission path. Even if the encoding is performed as described above, a reception delay or the like of the encoded data occurs. Playback may not be smooth. For this reason, in the terminal device on the transmission side, the compression rate of encoded data and the like are determined according to the bandwidth of the transmission path of the terminal device on the reception side (see, for example, Patent Document 1). For example, as shown in FIG. 6, encoders 101 and 102 having different compression rates are provided in a terminal device on the transmission side, and a plurality of pieces of encoded data having different compression rates are generated from the same moving image. Thereby, since the encoded data with the compression rate corresponding to the communication environment is sent to the terminal device on the receiving side, no reception delay or the like occurs, and as a result, the moving image can be reproduced smoothly.

特開2002−344972号公報JP 2002-344972 A International Telecommunication Union、“ITU-T Recommendation H.264 Advanced video coding for generic audiovisual services”、[online]、[平成19年1月23日検索]、インターネット<http://www.itu.int/rec/T-REC-H.264/en>International Telecommunication Union, “ITU-T Recommendation H.264 Advanced video coding for generic audiovisual services”, [online], [searched January 23, 2007], Internet <http://www.itu.int/rec/ T-REC-H.264 / en>

しかしながら、送信側の端末装置では、圧縮率の違いに応じてエンコーダを複数設けると、各エンコーダにおいて符号化する際の全ての処理が行われることになるので、CPUにかかる負荷が増大するという問題があった。
そこで、本願発明は上述したような課題を解消するためになされたものであり、演算負荷を低減させることができる符号化装置および符号化方法を提供することを目的とする。
However, in the terminal device on the transmission side, if a plurality of encoders are provided according to the difference in compression rate, all the processing at the time of encoding is performed in each encoder, so that the load on the CPU increases. was there.
Accordingly, the present invention has been made to solve the above-described problems, and an object thereof is to provide an encoding device and an encoding method capable of reducing the calculation load.

上述したような課題を解消するために、本発明に係る符号化装置は、複数のフレームからなる1の画像データから1のフレームに対して動き補償予測符号化処理およびイントラ予測符号化処理の何れを行うか選択し、この選択した処理により前記1のフレームを符号化する第1のエンコーダと、この第1のエンコーダで選択された処理により前記1のフレームを符号化する第2のエンコーダとを備えたことを特徴とする。この発明では、他のエンコーダでは、第1のエンコーダにより選択された処理により符号化が行われる。   In order to solve the above-described problems, an encoding apparatus according to the present invention can perform any of motion compensation prediction encoding processing and intra prediction encoding processing for one frame from one image data including a plurality of frames. A first encoder that encodes the first frame by the selected process, and a second encoder that encodes the first frame by the process selected by the first encoder It is characterized by having. In the present invention, the other encoder performs the encoding by the process selected by the first encoder.

上記符号化装置において、他のエンコーダは、第1のエンコーダが符号化するときに用いたパラメータ、すなわち予測画像データを作成するために用いたデータを用いて、1のフレームを符号化するようにしてもよい。ここで、第1のエンコーダでは、1のフレームに対して符号化を行う際、イントラ予測符号化処理の場合は、予測モード、動き補償予測符号化処理の場合は、最適なブロックサイズ、参照するフレームおよび動きベクトルなどのパラメータが生成される。このようなパラメータは、他のエンコーダに送信され、他のエンコーダにおいて符号化を行う際に用いられる。   In the above encoding apparatus, the other encoder encodes one frame using the parameters used when the first encoder encodes, that is, the data used to create the predicted image data. May be. Here, in the first encoder, when encoding one frame, the prediction mode is referred to in the case of intra prediction encoding processing, and the optimum block size is referred to in the case of motion compensation prediction encoding processing. Parameters such as frames and motion vectors are generated. Such parameters are transmitted to other encoders, and are used when encoding is performed in the other encoders.

また、本発明に係る符号化方法は、第1のエンコーダに、複数のフレームからなる1の画像データから1のフレームに対して動き補償予測符号化処理およびイントラ予測符号化処理の何れを行うかを選択させ、この選択された処理により前記1のフレームを符号化させる第1のステップと、第2のエンコーダに、前記第1のステップで選択された処理により前記1のフレームを符号化させる第2のステップとを有することを特徴とする。   In the encoding method according to the present invention, which of the motion compensation predictive encoding process and the intra predictive encoding process is performed on one frame from one image data composed of a plurality of frames in the first encoder? A first step for encoding the first frame by the selected process, and a second step for causing the second encoder to encode the first frame by the process selected in the first step. And 2 steps.

本発明によれば、第1のエンコーダでは、1のフレームに対して動き補償予測符号化処理およびイントラ予測符号化処理の何れを行うかを選択し、この選択した処理により符号化を行い、第2のエンコーダでは、当該1のフレームに対して第1のエンコーダで選択された処理を行うことにより、第2のエンコーダにおいて第1のエンコーダのように当該1のフレームに対して行う符号化処理の選択動作を省略できるので、演算負荷を低減させることができる。   According to the present invention, the first encoder selects whether to perform motion compensation prediction encoding processing or intra prediction encoding processing for one frame, performs encoding by the selected processing, In the second encoder, by performing the process selected by the first encoder on the one frame, the encoding process performed on the first frame in the second encoder like the first encoder is performed. Since the selection operation can be omitted, the calculation load can be reduced.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、本実施の形態では、TV会議システムにおける端末装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a case where the present invention is applied to a terminal device in a TV conference system will be described as an example.

[TV会議システムの構成]
図1に示すように、本実施の形態に係るTV会議システムは、サーバ1と、複数の端末装置2a〜2nとから構成され、それぞれはLAN(Local Area Network)やインターネット等からなるネットワーク3により接続されている。なお、端末装置2a〜2nは、それぞれ同等の構成を有するので、便宜上、以下端末装置2と言う。
[Configuration of TV conference system]
As shown in FIG. 1, the TV conference system according to the present embodiment includes a server 1 and a plurality of terminal devices 2a to 2n, each of which is formed by a network 3 including a LAN (Local Area Network) or the Internet. It is connected. Since the terminal devices 2a to 2n have the same configuration, they are hereinafter referred to as the terminal device 2 for convenience.

(サーバの構成)
サーバ1は、TV会議システムを構成する端末装置2a〜2nの呼制御を行い、端末装置2間の通信を確立する。
(Server configuration)
The server 1 performs call control of the terminal devices 2a to 2n constituting the TV conference system, and establishes communication between the terminal devices 2.

(端末装置の構成)
端末装置2は、TV会議システムを利用するユーザにより用いられる公知のコンピュータから構成される。この端末装置2は、図2に示すように、外部I/F部4と、操作入力部5と、画像処理部6と、音声処理部7と、記憶部8と、制御部9とから構成される。
(Configuration of terminal device)
The terminal device 2 is composed of a known computer used by a user who uses the TV conference system. As shown in FIG. 2, the terminal device 2 includes an external I / F unit 4, an operation input unit 5, an image processing unit 6, an audio processing unit 7, a storage unit 8, and a control unit 9. Is done.

外部I/F部4は、通信回路からなり、ネットワーク3等を介して、サーバ1および他の端末装置2とデータ通信を行い、接続された各装置と各種データをやりとりする。   The external I / F unit 4 includes a communication circuit, performs data communication with the server 1 and other terminal devices 2 via the network 3 and the like, and exchanges various data with each connected device.

操作入力部5は、キーボードやマウス等からなり、ユーザの操作を検出して制御部9へ出力する。   The operation input unit 5 includes a keyboard and a mouse, and detects a user operation and outputs it to the control unit 9.

画像処理部6は、画像処理回路からなり、カメラ6aにより取り込まれた動画像を制御部9に入力したり、制御部9から入力された動画像をモニタ6bから出力させたりするとともに、階調制御等を行う。   The image processing unit 6 includes an image processing circuit. The moving image captured by the camera 6a is input to the control unit 9, and the moving image input from the control unit 9 is output from the monitor 6b. Control and so on.

音声処理部7は、信号処理回路からなり、マイク7aから入力された音声を音声データに符号化して制御部9に出力したり、制御部9から入力された音声データを復号化してスピーカ7bから出力したりするとともに、音量制御やエコーキャンセラ等の機能を有する。   The audio processing unit 7 includes a signal processing circuit, encodes audio input from the microphone 7a into audio data and outputs the audio data to the control unit 9, or decodes audio data input from the control unit 9 and outputs from the speaker 7b. Output, and has functions such as volume control and echo canceller.

記憶部8は、メモリやハードディスクなどの記憶装置からなり、制御データ8aおよびプログラム8bを格納する。ここで、制御データ8aは、端末装置2の制御に用いる情報である。また、プログラム8bは、端末装置2の動作プログラムであり、予め記憶部8に格納される。なお、プログラム8bは、DVD(Digital Versatile Disk)やCD(Compact disk)等の記録媒体やネットワークを介して記憶部8に格納するようにしてもよい。   The storage unit 8 includes a storage device such as a memory or a hard disk, and stores control data 8a and a program 8b. Here, the control data 8 a is information used for controlling the terminal device 2. The program 8b is an operation program for the terminal device 2 and is stored in the storage unit 8 in advance. The program 8b may be stored in the storage unit 8 via a recording medium such as a DVD (Digital Versatile Disk) or a CD (Compact disk) or a network.

制御部9は、CPUなどのマイクロプロセッサとその周辺回路からなり、記憶部8からプログラム8bを読み込んで実行することにより、上記ハードウェアとプログラム8bを協働させ、符号化手段11、復号化手段12およびTV会議手段13を実現させる。   The control unit 9 includes a microprocessor such as a CPU and its peripheral circuits, and reads and executes the program 8b from the storage unit 8 to cause the hardware and the program 8b to cooperate with each other, thereby encoding means 11 and decoding means. 12 and the TV conference means 13 are realized.

符号化手段11は、H.264規格に基づいて、カメラ6aおよび画像処理部6により生成された連続する複数のフレーム(画像)を符号化して、連続する複数のピクチャ(符号化された画像)からなる符号化データを生成する。この符号化手段11は、図2(b)に示すように、主エンコーダ11−1と、この主エンコーダとは異なる圧縮率の符号化データを作成する副エンコーダ11−2a〜11−2nとから構成される。なお、副エンコーダ11−2a〜11−2nにおいて、主エンコーダ11−1と同等の構成要素については、同じ名称および符号が付し適宜説明を省略する。   The encoding means 11 is an H.264 standard. Based on the H.264 standard, a plurality of continuous frames (images) generated by the camera 6a and the image processing unit 6 are encoded to generate encoded data composed of a plurality of continuous pictures (encoded images). . As shown in FIG. 2B, the encoding unit 11 includes a main encoder 11-1 and sub-encoders 11-2a to 11-2n that generate encoded data having a compression rate different from that of the main encoder. Composed. In the sub-encoders 11-2a to 11-2n, the same components and the same components as those of the main encoder 11-1 are denoted by the same names and description thereof is omitted as appropriate.

主エンコーダ11−1は、入力された動画像に対してイントラ予測処理および動き補償予測処理の一方を選択的に行って符号化データを生成するとともに、選択した符号化処理に関する情報と選択した符号化処理で使用したパラメータに関する情報とを副エンコーダ11−2に送信するものである。このような主エンコーダ11−1は、図3に示すように、差分演算部111、DCT部112、量子化部113、逆量子化部114、IDCT部115、加算演算部116、動き補償予測部118、フレームメモリ119、イントラ予測部121、スイッチ122および符号化データ出力部123を備えている。このような主エンコーダ111による符号化処理動作の詳細については後述する。   The main encoder 11-1 selectively performs one of an intra prediction process and a motion compensation prediction process on the input moving image to generate encoded data, and information on the selected encoding process and the selected code The information regarding the parameters used in the conversion process is transmitted to the sub-encoder 11-2. As shown in FIG. 3, the main encoder 11-1 includes a difference calculation unit 111, a DCT unit 112, a quantization unit 113, an inverse quantization unit 114, an IDCT unit 115, an addition calculation unit 116, and a motion compensation prediction unit. 118, a frame memory 119, an intra prediction unit 121, a switch 122, and an encoded data output unit 123. Details of the encoding processing operation by the main encoder 111 will be described later.

副エンコーダ11−2a〜11−2nは、主エンコーダ11−1から受信した符号化処理の選択結果およびその符号化処理に用いたパラメータに基づいて、入力された動画像に対して主エンコーダ11−1と同等の符号化処理を異なる圧縮率で行うものである。このような副エンコーダ11−2a〜11−2nは、図3に示すように、差分演算部111、DCT部112、量子化部113、逆量子化部114、IDCT部115、加算演算部116、予測モード検出部117、動き補償予測部118、フレームメモリ119、動き検出部120、イントラ予測部121、スイッチ122および符号化データ出力部123を備えている。このような副エンコーダ11−2a〜11−2nは、圧縮率の異なる符号化データを生成する数量に応じて生成される。なお、副エンコーダ11−2a〜11−2nによる符号化処理動作の詳細については後述する。また、副エンコーダ11−2a〜11−2nは、それぞれ同等の構成を有するので、便宜上、以下副エンコーダ11−2と言う   The sub-encoders 11-2a to 11-2n, based on the selection result of the encoding process received from the main encoder 11-1 and the parameters used for the encoding process, output the main encoder 11- 1 is performed at a different compression rate. As shown in FIG. 3, the sub encoders 11-2a to 11-2n include a difference calculation unit 111, a DCT unit 112, a quantization unit 113, an inverse quantization unit 114, an IDCT unit 115, an addition calculation unit 116, A prediction mode detection unit 117, a motion compensation prediction unit 118, a frame memory 119, a motion detection unit 120, an intra prediction unit 121, a switch 122, and an encoded data output unit 123 are provided. Such sub-encoders 11-2a to 11-2n are generated according to the number of pieces of encoded data having different compression rates. Details of the encoding processing operation by the sub-encoders 11-2a to 11-2n will be described later. Further, since the sub-encoders 11-2a to 11-2n have the same configuration, they are hereinafter referred to as the sub-encoder 11-2 for convenience.

復号化手段12は、外部I/F部4を介して他の端末装置2から受信した符号化データを復号化して画像データを生成する。   The decoding unit 12 decodes encoded data received from another terminal device 2 via the external I / F unit 4 to generate image data.

TV会議手段13は、ネットワーク3および外部I/F部4を介して他の端末装置2と符号化データおよび音声データをやりとりすることにより、TV会議システムを実現するものである。具体的には、まず、サーバ1の呼制御の結果、TV会議に使用される端末装置2の通信環境、プロトコル、装置の性能などに応じて生成する符号化データの数量および各符号化データのプロトコルや圧縮率などを決定し、その数量に応じて副エンコーダ11−2の数量を設定する。また、符号化手段11の主エンコーダ11−1および副エンコーダ11−2により生成された符号化データおよび音声処理部7により生成された音声データを、他の端末装置2それぞれに送信させる。また、他の端末装置2から受信した音声データを、音声処理部7によりスピーカ7bから出力させる。また、他の各端末装置2から受信した符号化データを、復号化手段12により復号化させ、生成された各フレームを画像処理部6によりモニタ6b上の所定の位置およびサイズで同時に表示させる。このようにすることにより、他の端末装置2のユーザと、それぞれの動画像を見ながらそれぞれと会話を行うことができる。   The TV conference means 13 implements a TV conference system by exchanging encoded data and audio data with other terminal devices 2 via the network 3 and the external I / F unit 4. Specifically, first, as a result of the call control of the server 1, the quantity of encoded data to be generated according to the communication environment, protocol, apparatus performance, etc. of the terminal apparatus 2 used for the TV conference, and each encoded data A protocol, a compression rate, etc. are determined, and the quantity of the secondary encoder 11-2 is set according to the quantity. In addition, the encoded data generated by the main encoder 11-1 and the sub-encoder 11-2 of the encoding unit 11 and the audio data generated by the audio processing unit 7 are transmitted to each of the other terminal devices 2. In addition, the audio data received from the other terminal device 2 is output from the speaker 7 b by the audio processing unit 7. Also, the encoded data received from each of the other terminal devices 2 is decoded by the decoding means 12, and the generated frames are simultaneously displayed at a predetermined position and size on the monitor 6b by the image processing unit 6. By doing in this way, it is possible to have a conversation with a user of another terminal device 2 while watching each moving image.

[主エンコーダによる符号化処理動作]
次に、図3,図4を参照して、符号化手段11の主エンコーダ11−1による符号化処理動作について説明する。
[Encoding processing operation by the main encoder]
Next, the encoding processing operation by the main encoder 11-1 of the encoding means 11 will be described with reference to FIGS.

まず、画像処理部6から複数のフレームからなる画像データが入力されると(ステップS1)、主エンコーダ11−1は、入力された各フレームをマクロブロック単位に分割した後、イントラ予測符号化処理および動き補償予測符号化処理により予測画像データを生成する(ステップS2)。なお、マクロブロック単位の分割は、画像処理部6で行ったり、主エンコーダ11−1に分割処理を行う機能部を設けることにより行ったりするようにしてもよい。   First, when image data including a plurality of frames is input from the image processing unit 6 (step S1), the main encoder 11-1 divides each input frame into units of macroblocks, and then performs intra prediction encoding processing. And prediction image data is produced | generated by a motion compensation prediction encoding process (step S2). Note that division in units of macroblocks may be performed by the image processing unit 6 or by providing a functional unit that performs division processing in the main encoder 11-1.

イントラ予測符号化処理の場合、主エンコーダ11−1は、予測モード検出部117により、入力されたフレームの輝度や色差信号等に関する最適な予測モードを検出させたのち、イントラ予測部121により、検出した予測モードと当該フレームとに基づいて、予測画像データを生成させる。なお、予測モード検出部117は、当該フレームを復号化する際に用いた予測モードを副エンコーダ11−2のイントラ予測部121にも出力する。ここで、副エンコーダ11−2が複数の場合、予測モード検出部117は、副エンコーダ11−2それぞれに対して、主エンコーダ11−1により検出された予測モードを出力する。   In the case of intra prediction encoding processing, the main encoder 11-1 detects the optimal prediction mode related to the luminance and color difference signal of the input frame by the prediction mode detection unit 117, and then detects by the intra prediction unit 121. Based on the predicted mode and the frame, predicted image data is generated. Note that the prediction mode detection unit 117 also outputs the prediction mode used when decoding the frame to the intra prediction unit 121 of the sub-encoder 11-2. Here, when there are a plurality of sub-encoders 11-2, the prediction mode detection unit 117 outputs the prediction mode detected by the main encoder 11-1 to each of the sub-encoders 11-2.

動き補償予測符号化処理の場合、主エンコーダ11−1は、動き検出部120により、入力されたフレームとフレームメモリ119に格納された再構成画像データとに基づいて最適なブロックサイズ、参照フレームおよび動きベクトル等を検出したのち、動き補償予測部118により、検出したそれらのパラメータとフレームメモリ119に格納された再構成画像データとに基づいて、予測画像データを生成する。また、動き検出部120は、当該フレームを復号化する際に用いた最適なブロックサイズ、参照フレームおよび動きベクトル等を副エンコーダ11−2の動き補償予測部118にも出力する。ここで、副エンコーダ11−2が複数の場合、動き検出部120は、副エンコーダ11−2それぞれに対して、主エンコーダ11−1により検出されたブロックサイズ、参照するフレームおよび動きベクトル等を出力する。   In the case of the motion compensation predictive encoding process, the main encoder 11-1 uses the motion detection unit 120 based on the input frame and the reconstructed image data stored in the frame memory 119, and the optimum block size, reference frame, and After detecting a motion vector or the like, the motion compensation prediction unit 118 generates predicted image data based on the detected parameters and the reconstructed image data stored in the frame memory 119. The motion detection unit 120 also outputs the optimal block size, reference frame, motion vector, and the like used when decoding the frame to the motion compensation prediction unit 118 of the sub encoder 11-2. Here, when there are a plurality of sub-encoders 11-2, the motion detection unit 120 outputs the block size detected by the main encoder 11-1, a frame to be referenced, a motion vector, and the like to each of the sub-encoders 11-2. To do.

イントラ予測符号化処理および動き補償予測符号化処理により予測画像データが生成されると、主エンコーダ11−1は、スイッチ122により、それぞれの予測画像データと入力されたフレームとの差分をとった差分画像データを生成し、これらを比較することによりイントラ予測符号化処理および動き補償予測符号化処理のうち効率的な方を選択する(ステップS3)。ここで、スイッチ122は、生成された差分画像データのデータ量が少ない方、すなわち予測画像データと入力されたフレームとの差分が小さい方の符号化処理を効率的であるとして選択する。   When the prediction image data is generated by the intra prediction encoding process and the motion compensation prediction encoding process, the main encoder 11-1 uses the switch 122 to calculate the difference between each prediction image data and the input frame. By generating image data and comparing them, the more efficient one of the intra prediction encoding process and the motion compensation prediction encoding process is selected (step S3). Here, the switch 122 selects the encoding process with the smaller amount of the generated difference image data, that is, the encoding process with the smaller difference between the predicted image data and the input frame as being efficient.

実施する符号化処理が選択されると、主エンコーダ11−1は、スイッチ122により、選択した符号化処理に関する情報(以下、選択情報という)を副エンコーダ11−2のスイッチ122に宛てて出力させる(ステップS4)。また、選択情報は、副エンコーダ11−2が複数存在する場合、それぞれに送信される。   When the encoding process to be performed is selected, the main encoder 11-1 causes the switch 122 to output information related to the selected encoding process (hereinafter referred to as selection information) to the switch 122 of the sub-encoder 11-2. (Step S4). Also, the selection information is transmitted to each of the sub encoders 11-2 when there are a plurality of sub encoders 11-2.

選択情報を出力するとともに、主エンコーダ11−1は、スイッチ122により選択された方の符号化処理により生成された予測画像データを差分演算部111に出力し、この差分演算部111により、入力されたフレームと当該予測画像データとの差分をとった差分画像データを生成させる(ステップS5)。   While outputting the selection information, the main encoder 11-1 outputs the predicted image data generated by the encoding process selected by the switch 122 to the difference calculation unit 111, and is input by the difference calculation unit 111. Difference image data obtained by taking the difference between the obtained frame and the predicted image data is generated (step S5).

差分画像データが生成されると、主エンコーダ11−1は、DCT部112および量子化部113により当該差分画像データに対して周波数変換および量子化を行わせる(ステップS6)。このとき、主エンコーダ11−1は、量子化部113により、生成した符号化データの宛先の端末装置の通信環境や性能などに応じて量子化を行わせることにより、符号化データの所定の圧縮率を調整する。   When the difference image data is generated, the main encoder 11-1 causes the DCT unit 112 and the quantization unit 113 to perform frequency conversion and quantization on the difference image data (step S6). At this time, the main encoder 11-1 performs predetermined compression of the encoded data by causing the quantization unit 113 to perform quantization according to the communication environment or performance of the destination terminal device of the generated encoded data. Adjust the rate.

量子化が行われると、主エンコーダ11−1は、符号化データ出力部123により可変長符号化を行わせる(ステップS7)。これにより、入力されたフレームは、スイッチ122により選択された符号化処理によって符号化され、符号化データとして出力される(ステップS8)。この符号化データとしては、イントラ予測符号化処理が選択された場合にはIピクチャ、動き補償予測符号化処理が選択された場合には、BピクチャまたはPピクチャが出力される。   When quantization is performed, the main encoder 11-1 causes the encoded data output unit 123 to perform variable-length encoding (step S7). Thereby, the input frame is encoded by the encoding process selected by the switch 122, and is output as encoded data (step S8). As the encoded data, an I picture is output when the intra prediction encoding process is selected, and a B picture or a P picture is output when the motion compensation prediction encoding process is selected.

なお、量子化部113から出力される残差データは、逆量子化部114およびIDCT部115により逆量子化および逆周波数変換が順次施され(ステップS9)、加算演算部116により予測画像データが加算されたのち(ステップS10)、再構成画像データとしてフレームメモリ119に格納される(ステップS11)。このフレームメモリ119に格納された再構成画像データは、上述した動き補償予測符号化処理を行う際に用いられる。   Note that the residual data output from the quantization unit 113 is sequentially subjected to inverse quantization and inverse frequency conversion by the inverse quantization unit 114 and the IDCT unit 115 (step S9), and the addition calculation unit 116 obtains predicted image data. After the addition (step S10), it is stored in the frame memory 119 as reconstructed image data (step S11). The reconstructed image data stored in the frame memory 119 is used when the above-described motion compensation prediction encoding process is performed.

このように、本実施の形態によれば、主エンコーダ11−1により1のフレームに対して行われた符号化処理に関する選択情報が、副エンコーダ11−2に出力される。また、当該1のフレームを符号化する際に用いられたパラメータも、副エンコーダ11−2に出力される。   Thus, according to the present embodiment, selection information related to the encoding process performed on one frame by the main encoder 11-1 is output to the sub-encoder 11-2. Further, the parameters used when encoding the one frame are also output to the sub-encoder 11-2.

[副エンコーダによる符号化処理動作]
次に、図3,図5を参照して、符号化手段11の副エンコーダ11−2による符号化処理動作について説明する。
[Encoding processing operation by sub encoder]
Next, with reference to FIGS. 3 and 5, the encoding processing operation by the sub-encoder 11-2 of the encoding means 11 will be described.

まず、副エンコーダ11−2は、画像処理部6から複数のフレームからなる画像データが入力されると、入力された各フレームをマクロブロック単位に分割する(ステップS21)。なお、マクロブロック単位の分割は、画像処理部6で行ったり、副エンコーダ11−2に分割処理を行う機能部を設けることにより行ったりするようにしてもよい。   First, when image data composed of a plurality of frames is input from the image processing unit 6, the sub-encoder 11-2 divides each input frame into macroblock units (step S 21). Note that division in units of macroblocks may be performed by the image processing unit 6 or by providing a functional unit that performs division processing in the sub-encoder 11-2.

フレームが入力されると、副エンコーダ11−2は、主エンコーダ11−1より選択情報を受信し(ステップS22)、この選択情報に対応した符号化処理を行う(ステップS23)。   When the frame is input, the secondary encoder 11-2 receives the selection information from the main encoder 11-1 (step S22), and performs an encoding process corresponding to the selection information (step S23).

例えば、任意のフレームに対してイントラ予測符号化処理が行われた旨の選択情報を受信すると、副エンコーダ11−2のイントラ予測部121は、当該任意のフレームの予測画像データを生成する。このとき、イントラ予測部121は、主エンコーダ11−1が当該任意のフレームの予測画像データを生成する際に用いたパラメータ、すなわち予測モード117が検出した予測モードを用いて、当該任意のフレームの予測画像データを生成する。   For example, when selection information indicating that intra prediction encoding processing has been performed on an arbitrary frame is received, the intra prediction unit 121 of the sub-encoder 11-2 generates predicted image data of the arbitrary frame. At this time, the intra prediction unit 121 uses the parameters used when the main encoder 11-1 generates predicted image data of the arbitrary frame, that is, the prediction mode detected by the prediction mode 117, for the arbitrary frame. Predictive image data is generated.

一方、任意のフレームに対して動き補償予測符号化処理が行われた旨の選択情報を受信すると、副エンコーダ11−2の動き補償予測部118は、当該任意のフレームの予測画像データを生成する。このとき、動き補償予測部118は、主エンコーダ11−1が当該任意のフレームの予測画像データを生成する際に用いたパラメータ、すなわち動き検出部120が検出した最適なブロックサイズ、参照フレームおよび動きベクトル等を用いて、当該任意のフレームの予測画像データを生成する。   On the other hand, when the selection information indicating that the motion compensation prediction encoding process has been performed on an arbitrary frame is received, the motion compensation prediction unit 118 of the sub-encoder 11-2 generates predicted image data of the arbitrary frame. . At this time, the motion compensation prediction unit 118 uses the parameters used when the main encoder 11-1 generates predicted image data of the arbitrary frame, that is, the optimum block size, reference frame, and motion detected by the motion detection unit 120. Predictive image data of the arbitrary frame is generated using a vector or the like.

選択された符号化処理により予測画像データが生成されると、副エンコーダ11−2は、スイッチ122により、選択情報に基づいて生成された予測画像データを差分演算部111に出力させ、この差分演算部111により、入力されたフレームと当該予測画像データとの差分をとった差分画像データを生成させる(ステップS24)。   When the predicted image data is generated by the selected encoding process, the sub-encoder 11-2 causes the switch 122 to output the predicted image data generated based on the selection information to the difference calculation unit 111, and this difference calculation. The unit 111 generates difference image data obtained by taking a difference between the input frame and the predicted image data (step S24).

差分画像データが生成されると、副エンコーダ11−2は、DCT部112および量子化部113により当該差分画像データに対して周波数変換および量子化を行わせる(ステップS25)。このとき、副エンコーダ11−2は、量子化部113により、生成した符号化データの宛先の端末装置の通信環境や性能などに応じて量子化を行わせることにより、符号化データの圧縮率を調整する。   When the difference image data is generated, the sub encoder 11-2 causes the DCT unit 112 and the quantization unit 113 to perform frequency conversion and quantization on the difference image data (step S25). At this time, the sub-encoder 11-2 causes the quantization unit 113 to perform quantization according to the communication environment or performance of the destination terminal device of the generated encoded data, thereby reducing the compression rate of the encoded data. adjust.

宛先の端末装置の通信環境や性能などに応じた量子化が行われると、副エンコーダ11−2は、符号化データ出力部123により、量子化部113から出力された残差データに可変長符号化を行わせる(ステップS26)。これにより、入力されたフレームは、主エンコーダ11−1と同一の符号化処理によって符号化され、符号化データとして出力される(ステップS27)。この場合も、符号化データとしては、イントラ予測符号化処理が選択されたときにはIピクチャ、動き補償予測符号化処理が選択されたときには、BピクチャまたはPピクチャが出力される。   When quantization according to the communication environment or performance of the destination terminal device is performed, the sub-encoder 11-2 causes the encoded data output unit 123 to convert the variable length code to the residual data output from the quantization unit 113. (Step S26). Thereby, the input frame is encoded by the same encoding process as that of the main encoder 11-1, and is output as encoded data (step S27). Also in this case, as the encoded data, an I picture is output when the intra prediction encoding process is selected, and a B picture or a P picture is output when the motion compensated prediction encoding process is selected.

なお、量子化部113から出力される残差データは、逆量子化部114およびIDCT部115により逆量子化および逆周波数変換が順次施され(ステップS28)、加算演算部116により予測画像データが加算されたのち(ステップS29)、再構成画像データとしてフレームメモリ119に格納される(ステップS30)。このフレームメモリ119に格納された再構成画像データは、上述した動き補償予測符号化処理を行う際に用いられる。   Note that the residual data output from the quantization unit 113 is sequentially subjected to inverse quantization and inverse frequency transform by the inverse quantization unit 114 and the IDCT unit 115 (step S28), and the addition calculation unit 116 obtains predicted image data. After the addition (step S29), it is stored in the frame memory 119 as reconstructed image data (step S30). The reconstructed image data stored in the frame memory 119 is used when the above-described motion compensation prediction encoding process is performed.

このように、副エンコーダ11−2は、主エンコーダ11−1から取得する選択情報に基づいて、1のフレームに対して主エンコーダ11−1と同じ符号化処理により符号化を行う。このため、副エンコーダ11−2では、イントラ予測符号化および動き補償予測符号化の何れを行うか選択するため動作が省略されるため、演算負荷を低減させることができる。具体的には、スイッチ122において、出力する予測画像データを選択するための動作を行わなくてよいので、この動作にかかる演算負荷を低減させることができる。また、副エンコーダ11−2では、主エンコーダ11−1のようにイントラ予測部121と動き補償予測部118の両方に予測画像データを生成させるのではなく、イントラ予測部121と動き補償予測部118の何れか一方に予測画像データを生成させればよいので、演算負荷を低減させることができる。   As described above, the sub-encoder 11-2 encodes one frame by the same encoding process as that of the main encoder 11-1, based on the selection information acquired from the main encoder 11-1. For this reason, in the sub-encoder 11-2, the operation is omitted to select whether to perform intra prediction encoding or motion compensation prediction encoding, and thus it is possible to reduce the calculation load. Specifically, since the switch 122 does not have to perform an operation for selecting the predicted image data to be output, the calculation load for this operation can be reduced. Also, the sub encoder 11-2 does not cause both the intra prediction unit 121 and the motion compensation prediction unit 118 to generate predicted image data as in the main encoder 11-1, but rather the intra prediction unit 121 and the motion compensation prediction unit 118. Since it is only necessary to generate predicted image data in either one of them, the calculation load can be reduced.

また、副エンコーダ11−2では、イントラ予測符号化を行う際、主エンコーダ11−1から取得した予測モードを用いて予測画像データを生成するため、主エンコーダ11−1のように予測モードを生成する必要がないので、演算負荷を低減させることができる。また、副エンコーダ11−2は、動き補償予測符号化を行う際、主エンコーダ11−1から取得した最適なブロックサイズ、参照するフレームおよび動きベクトル等を用いて予測画像データを生成するため、主エンコーダ11−1のようにそれらのパラメータを生成する必要がないので、演算負荷を低減させることができる。   Further, when performing the intra prediction encoding, the sub encoder 11-2 generates prediction image data using the prediction mode acquired from the main encoder 11-1, and thus generates a prediction mode like the main encoder 11-1. Since there is no need to do this, the calculation load can be reduced. Further, the sub-encoder 11-2 generates predicted image data using the optimum block size, reference frame, motion vector, and the like acquired from the main encoder 11-1 when performing motion compensation predictive coding. Since it is not necessary to generate these parameters as in the encoder 11-1, the calculation load can be reduced.

以上説明したように、本実施の形態によれば、主エンコーダ11−1では、1のフレームに対して動き補償予測符号化処理およびイントラ予測符号化処理の何れを行うかを選択し、この選択した処理により符号化を行い、副エンコーダ11−2では、当該1のフレームに対して主エンコーダ11−1で選択された処理を行うことにより、副エンコーダ11−2において主エンコーダ11−1のように当該1のフレームに対して行う符号化処理の選択動作を省略できるので、演算負荷を低減させることができる。   As described above, according to the present embodiment, the main encoder 11-1 selects which of the motion compensation prediction encoding process and the intra prediction encoding process is performed on one frame, and this selection. The sub-encoder 11-2 performs the process selected by the main encoder 11-1 on the one frame, so that the sub-encoder 11-2 performs the same process as the main encoder 11-1 in the sub-encoder 11-2. In addition, since the selection operation of the encoding process performed on the one frame can be omitted, the calculation load can be reduced.

本発明は、同一の画像データから複数の符号化データを生成する各種装置に適用することができる。   The present invention can be applied to various apparatuses that generate a plurality of encoded data from the same image data.

本発明に係るTV会議システムの構成を模式的に示す図である。It is a figure which shows typically the structure of the video conference system which concerns on this invention. (a)は端末装置の構成を示すブロック図、(b)は符号化手段の構成を示す図である。(A) is a block diagram showing the configuration of the terminal device, (b) is a diagram showing the configuration of the encoding means. 符号化手段の構成を詳細に示すブロック図である。It is a block diagram which shows the structure of an encoding means in detail. 主エンコーダによる符号化処理動作を示すフローチャートである。It is a flowchart which shows the encoding process operation by the main encoder. 副エンコーダによる符号化処理動作を示すフローチャートである。It is a flowchart which shows the encoding process operation | movement by a subencoder. 従来のエンコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the conventional encoder.

符号の説明Explanation of symbols

1…サーバ、2,2a,2b,2n…端末装置、3…ネットワーク、4…外部I/F部、5…操作入力部、6…画像処理部、6a…カメラ、6b…モニタ、7…音声処理部、7a…マイク、7b…スピーカ、8…記憶部、8a…制御データ、8b…プログラム、9…制御部、11…符号化手段、11−1…主エンコーダ、11−2,11−2a〜11−2n…副エンコーダ、12…復号化手段、13…TV会議手段、111…差分演算部、112…DCT部、113…量子化部、114…逆量子化部、115…IDCT部、116…加算演算部、117…デブロッキングフィルタ、118…動き補償予測部、119…フレームメモリ、120…動き検出部、121…イントラ予測部、122…スイッチ、123…符号化データ出力部、124…スイッチ。   DESCRIPTION OF SYMBOLS 1 ... Server, 2, 2a, 2b, 2n ... Terminal device, 3 ... Network, 4 ... External I / F part, 5 ... Operation input part, 6 ... Image processing part, 6a ... Camera, 6b ... Monitor, 7 ... Audio | voice Processing unit, 7a ... microphone, 7b ... speaker, 8 ... storage unit, 8a ... control data, 8b ... program, 9 ... control unit, 11 ... encoding means, 11-1 ... main encoder, 11-2, 11-2a 11-2n ... sub encoder, 12 ... decoding means, 13 ... TV conference means, 111 ... difference calculation section, 112 ... DCT section, 113 ... quantization section, 114 ... dequantization section, 115 ... IDCT section, 116 ... addition operation unit, 117 ... deblocking filter, 118 ... motion compensation prediction unit, 119 ... frame memory, 120 ... motion detection unit, 121 ... intra prediction unit, 122 ... switch, 123 ... encoded data output unit, 124 Switch.

Claims (3)

複数のフレームからなる1の画像データから1のフレームに対して動き補償予測符号化処理およびイントラ予測符号化処理の何れを行うか選択し、この選択した処理により前記1のフレームを符号化する第1のエンコーダと、
この第1のエンコーダで選択された処理により前記1のフレームを符号化する第2のエンコーダと
を備えたことを特徴とする符号化装置。
A selection is made between motion compensation predictive coding processing and intra prediction coding processing for one frame from one image data consisting of a plurality of frames, and the first frame is coded by the selected processing. 1 encoder,
An encoding apparatus comprising: a second encoder that encodes the first frame by a process selected by the first encoder.
前記第2のエンコーダは、前記第1のエンコーダが符号化するときに用いたパラメータを用いて、前記1のフレームを符号化する
ことを特徴とする請求項1記載の符号化装置。
The encoding apparatus according to claim 1, wherein the second encoder encodes the first frame using a parameter used when the first encoder encodes.
第1のエンコーダに、複数のフレームからなる1の画像データから1のフレームに対して動き補償予測符号化処理およびイントラ予測符号化処理の何れを行うかを選択させ、この選択された処理により前記1のフレームを符号化させる第1のステップと、
第2のエンコーダに、前記第1のステップで選択された処理により前記1のフレームを符号化させる第2のステップと
を有することを特徴とする符号化方法。
The first encoder is made to select which one of motion compensation prediction encoding processing and intra prediction encoding processing is to be performed on one frame from one image data composed of a plurality of frames. A first step of encoding one frame;
And a second step of causing the second encoder to encode the first frame by the process selected in the first step.
JP2007043517A 2007-02-23 2007-02-23 Encoding device and encoding method Pending JP2008211294A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007043517A JP2008211294A (en) 2007-02-23 2007-02-23 Encoding device and encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007043517A JP2008211294A (en) 2007-02-23 2007-02-23 Encoding device and encoding method

Publications (1)

Publication Number Publication Date
JP2008211294A true JP2008211294A (en) 2008-09-11

Family

ID=39787262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007043517A Pending JP2008211294A (en) 2007-02-23 2007-02-23 Encoding device and encoding method

Country Status (1)

Country Link
JP (1) JP2008211294A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344972A (en) * 2001-05-15 2002-11-29 Sony Corp Moving picture encoder, moving picture encoding method, storage medium for storing moving picture encoding program and the moving picture encoding program
JP2005045297A (en) * 2003-07-22 2005-02-17 Hitachi Ltd Camera system and camera apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344972A (en) * 2001-05-15 2002-11-29 Sony Corp Moving picture encoder, moving picture encoding method, storage medium for storing moving picture encoding program and the moving picture encoding program
JP2005045297A (en) * 2003-07-22 2005-02-17 Hitachi Ltd Camera system and camera apparatus

Similar Documents

Publication Publication Date Title
CN109644270B (en) Video encoding method and encoder, video decoding method and decoder, and storage medium
US8619854B2 (en) Scalable video encoding and decoding method using switching pictures and apparatus thereof
Ostermann et al. Video coding with H. 264/AVC: tools, performance, and complexity
JP3877234B2 (en) Method and apparatus for transcoding a bitstream having video data
JP4927207B2 (en) Encoding method, decoding method and apparatus
KR101502611B1 (en) Real-time video coding system of multiple temporally scaled video and of multiple profile and standards based on shared video coding information
US20020122491A1 (en) Video decoder architecture and method for using same
US8218619B2 (en) Transcoding apparatus and method between two codecs each including a deblocking filter
RU2506711C2 (en) Image processing method and apparatus
JPWO2018037737A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP4983917B2 (en) Moving image distribution system, conversion device, and moving image distribution method
JP2012109720A (en) Picture conversion device, picture reproduction device, and picture conversion method
US8243798B2 (en) Methods and apparatus for scalable video bitstreams
JP2007274621A (en) Image transmission system and image transmission method
KR101423655B1 (en) Method and apparatus for field picture coding and decoding
JP4660408B2 (en) Encoding method
WO2010027082A1 (en) Conference server, video conference system, method, and program
KR102312668B1 (en) Video transcoding system
CN113542209A (en) Method, apparatus and readable storage medium for video signaling
JP2008211294A (en) Encoding device and encoding method
JP2009081622A (en) Moving image compression encoder
JP4735558B2 (en) Information processing apparatus and information processing method
JP2005341347A (en) Multipoint connection device and method
CN114514745B (en) Video signal transmitting method, video signal transmitting device, computer equipment and storage medium
Akramullah et al. Video Coding Standards

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111220