JP2011124822A - Semiconductor integrated circuit, coding method and imaging device - Google Patents

Semiconductor integrated circuit, coding method and imaging device Download PDF

Info

Publication number
JP2011124822A
JP2011124822A JP2009281207A JP2009281207A JP2011124822A JP 2011124822 A JP2011124822 A JP 2011124822A JP 2009281207 A JP2009281207 A JP 2009281207A JP 2009281207 A JP2009281207 A JP 2009281207A JP 2011124822 A JP2011124822 A JP 2011124822A
Authority
JP
Japan
Prior art keywords
image data
unit
encoding
viewpoint
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009281207A
Other languages
Japanese (ja)
Inventor
Kentaro Kawakami
健太郎 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009281207A priority Critical patent/JP2011124822A/en
Publication of JP2011124822A publication Critical patent/JP2011124822A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the amount of data transfer for image memory when performing coding processing of multi-view point image data. <P>SOLUTION: When performing coding processing, an encoder 13d which performs coding processing for second view point original image data that are output from an imaging part 12 detects motion using first view point original image data that are output from an imaging part 11 and stored in a data storage part 13a as reference image data. Thus, the amount of data transfer for image memory is reduced when performing coding processing of multi-view point image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、半導体集積回路、符号化方法及び撮像装置に関する。   The present invention relates to a semiconductor integrated circuit, an encoding method, and an imaging apparatus.

近年、デジタル動画像符号化処理技術の発達にともない、動画像を3D(3次元)表示することが可能なディスプレイ(3Dディスプレイ)の開発が進められている。また、このような3Dディスプレイに表示再生させることが可能な3次元動画像データを撮影、圧縮符号化する3次元動画像撮影装置や3次元動画像符号化装置の開発が進められている。3次元動画像符号化の国際標準規格として、MPEG(Moving Picture Experts Group)−2のMVC(Multi-view Video Coding)やH.264のMVCが提案されている。   In recent years, with the development of digital moving image encoding processing technology, development of a display (3D display) capable of displaying a moving image in 3D (3D) has been advanced. Further, development of a three-dimensional moving image photographing device and a three-dimensional moving image coding device for photographing and compression-coding three-dimensional moving image data that can be displayed and reproduced on such a 3D display has been underway. As an international standard for 3D video coding, MVC (Multi-view Video Coding) of MPEG (Moving Picture Experts Group) -2, H.264, etc. H.264 MVC has been proposed.

従来、3次元動画像符号化処理で必要となる動き検出処理の際に、左目視点画像と右目視点画像の間では視差方向にのみ被写体のずれが発生することを利用して、右目視点画像の動き検出処理を左右方向に限定することで計算量を削減する方法が提案されている。   Conventionally, during motion detection processing required in 3D moving image encoding processing, a shift of the subject occurs only in the parallax direction between the left-eye viewpoint image and the right-eye viewpoint image. There has been proposed a method for reducing the amount of calculation by limiting the motion detection process in the left-right direction.

また、符号化処理対象の画像データをフレーム単位ではなく、スライス単位で蓄積保存することで、画像データを一時蓄積するバッファメモリの容量を削減する方法が提案されている。   In addition, there has been proposed a method for reducing the capacity of a buffer memory for temporarily storing image data by storing and storing image data to be encoded in units of slices instead of in units of frames.

特開2000−165909号公報JP 2000-165909 A 特開2009−4942号公報JP 2009-4942 A

従来の3次元動画像の符号化処理では、各視点のカメラで撮像された画像データは一旦画像メモリに蓄積され、符号化部はその画像メモリから画像データを読み出しながら随時符号化処理を行い、符号化データを生成している。そのため、符号化処理時における画像メモリに対するデータ転送量が、1視点の場合と比べて増加してしまうという問題があった。   In the conventional 3D moving image encoding process, image data captured by the camera of each viewpoint is temporarily stored in the image memory, and the encoding unit performs the encoding process as needed while reading the image data from the image memory, Encoded data is generated. For this reason, there has been a problem that the amount of data transferred to the image memory during the encoding process is increased compared to the case of one viewpoint.

上記の点を鑑みて、本発明は、複数視点の画像データの符号化処理時に、画像メモリに対するデータ転送量を削減可能な半導体集積回路、符号化方法及び撮像装置を提供することを目的とする。   In view of the above, it is an object of the present invention to provide a semiconductor integrated circuit, an encoding method, and an imaging apparatus that can reduce the amount of data transferred to an image memory when encoding image data of a plurality of viewpoints. .

上記目的を達成するために、以下のような半導体集積回路が提供される。
この半導体集積回路は、第1の視点の原画像データを符号化処理する第1の符号化部と、第2の視点の原画像データを符号化処理する第2の符号化部と、を有し、前記第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、動き検出する。
In order to achieve the above object, the following semiconductor integrated circuit is provided.
The semiconductor integrated circuit includes a first encoding unit that encodes original image data of a first viewpoint and a second encoding unit that encodes original image data of a second viewpoint. Then, when performing the encoding process, the second encoding unit performs motion detection using the original image data of the first viewpoint as reference image data.

開示の半導体集積回路、符号化方法及び撮像装置によれば、複数視点の画像データの符号化処理時に、画像メモリに対するデータ転送量を削減することができる。   According to the disclosed semiconductor integrated circuit, encoding method, and imaging apparatus, it is possible to reduce the amount of data transferred to the image memory when encoding image data of a plurality of viewpoints.

実施の形態の撮像装置及び半導体集積回路の構成を示す図である。It is a figure which shows the structure of the imaging device and semiconductor integrated circuit of embodiment. 左目視点用の符号化部の一例の構成を示す図である。It is a figure which shows the structure of an example of the encoding part for left eye viewpoints. 右目視点用の符号化部の一例の構成を示す図である。It is a figure which shows the structure of an example of the encoding part for right eye viewpoints. 撮像部からの原画像データの読み出しの様子を示す図である。It is a figure which shows the mode of reading of the original image data from an imaging part. 符号化部の処理単位を示す図である。It is a figure which shows the process unit of an encoding part. あるフレームにおけるk行目のマクロブロック群とk+1行目のマクロブロック群を示した図である。It is the figure which showed the macroblock group of the kth line in a certain frame, and the macroblock group of the k + 1st line. 動き検出を説明する図である(その1)。It is a figure explaining a motion detection (the 1). 動き検出を説明する図である(その2)。It is a figure explaining a motion detection (the 2). 左目視点用の符号化部における符号化処理の一例を示す図である。It is a figure which shows an example of the encoding process in the encoding part for left eye viewpoints. 右目視点用の符号化部の動き検出部が読み出す参照領域の一例を示す図である。It is a figure which shows an example of the reference area which the motion detection part of the encoding part for right eye viewpoints reads.

以下、本発明の半導体集積回路、符号化方法及び撮像装置の実施の形態を、図面を参照しつつ説明する。
図1は、実施の形態の撮像装置及び半導体集積回路の構成を示す図である。
Embodiments of a semiconductor integrated circuit, an encoding method, and an imaging apparatus according to the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an imaging device and a semiconductor integrated circuit according to an embodiment.

ここでは、2つの視点において動画像を撮像する撮像装置10の例を示している。
撮像装置10は、撮像部11,12、半導体集積回路13、ビットストリームメモリ14、画像メモリ15,16、ビットストリーム並べ替え部17を有している。
Here, an example of the imaging apparatus 10 that captures a moving image at two viewpoints is shown.
The imaging device 10 includes imaging units 11 and 12, a semiconductor integrated circuit 13, a bit stream memory 14, image memories 15 and 16, and a bit stream rearrangement unit 17.

撮像部11,12は、たとえば、水平方向に並べて配置されており、それぞれの視点において撮影を行い、原画像データを出力する。
なお、以下の説明では、撮像部11は左目視点の原画像データを出力し、撮像部12は右目視点の原画像データを出力するとして説明するが、撮像部11が右目視点、撮像部12が左目視点であってもよい。また、撮像部11,12間の距離も、人間の左目と右目との間隔に限定するものではなく、立体感を強調させるために間隔を広げるようにしたり、適宜変更が可能である。
For example, the imaging units 11 and 12 are arranged side by side in the horizontal direction, and perform imaging at each viewpoint and output original image data.
In the following description, it is assumed that the imaging unit 11 outputs the original image data of the left eye viewpoint and the imaging unit 12 outputs the original image data of the right eye viewpoint. It may be a left eye viewpoint. Further, the distance between the imaging units 11 and 12 is not limited to the interval between the human left eye and the right eye, and the interval can be widened or enhanced as appropriate in order to enhance the stereoscopic effect.

なお、撮像部11,12はCCD(Charge Coupled Device)素子もしくはCMOS(Complementary Metal-Oxide Semiconductor)素子などの撮像素子のほか、RGBフォーマットの画像データをYUVフォーマットに変換する変換部などを有している。図1ではこれらの構成については図示を省略している。   The imaging units 11 and 12 include an imaging device such as a CCD (Charge Coupled Device) device or a CMOS (Complementary Metal-Oxide Semiconductor) device, and a conversion unit that converts RGB format image data into a YUV format. Yes. In FIG. 1, these configurations are not shown.

半導体集積回路13は、撮像部11,12から出力される原画像データを圧縮符号化する。
ビットストリームメモリ14は、符号化処理で生成された符号化データであるビットストリームを記憶する。
The semiconductor integrated circuit 13 compresses and encodes the original image data output from the imaging units 11 and 12.
The bit stream memory 14 stores a bit stream that is encoded data generated by the encoding process.

画像メモリ15,16は、符号化処理時に画像データを保持する。画像メモリ15,16は、たとえば、フレームメモリである。本実施の形態の撮像装置10では、画像メモリ15,16は、撮像部11から出力される原画像データを符号化処理する際に用いられ、撮像部12から出力される原画像データを符号化処理する際には必要としない。   The image memories 15 and 16 hold image data during the encoding process. The image memories 15 and 16 are frame memories, for example. In the imaging apparatus 10 of the present embodiment, the image memories 15 and 16 are used when encoding the original image data output from the imaging unit 11 and encode the original image data output from the imaging unit 12. It is not necessary when processing.

ビットストリームメモリ14、画像メモリ15,16としては、たとえば、DRAM(Dynamic Random Access Memory)などの半導体メモリが適用可能である。たとえば、1つの半導体メモリの領域を分割して、ビットストリームメモリ14及び画像メモリ15,16として用いてもよい。   As the bit stream memory 14 and the image memories 15 and 16, for example, a semiconductor memory such as a DRAM (Dynamic Random Access Memory) is applicable. For example, an area of one semiconductor memory may be divided and used as the bit stream memory 14 and the image memories 15 and 16.

ビットストリーム並べ替え部17はビットストリームメモリ14から左目視点と右目視点のビットストリームを読み出し、この2つのビットストリームを適切な順序に並べ替える。   The bit stream rearrangement unit 17 reads the left-eye viewpoint and right-eye viewpoint bit streams from the bit stream memory 14, and rearranges the two bit streams in an appropriate order.

本実施の形態の半導体集積回路13は、データ保持部13a,13b、符号化部13c,13dを有している。
データ保持部13a,13bは、たとえば、ラインバッファメモリなどのメモリである。データ保持部13aは撮像部11から出力される原画像データを一時的に蓄積し保持し、データ保持部13bは撮像部12から出力される原画像データを一時的に蓄積し保持する。
The semiconductor integrated circuit 13 of this embodiment includes data holding units 13a and 13b and encoding units 13c and 13d.
The data holding units 13a and 13b are memories such as a line buffer memory, for example. The data holding unit 13a temporarily accumulates and holds original image data output from the imaging unit 11, and the data holding unit 13b temporarily accumulates and holds original image data output from the imaging unit 12.

符号化部13cは、データ保持部13aを介して画像メモリ15に保持された左目視点の撮像部11から出力される原画像データに対して符号化処理を行う。また、符号化部13cは、後述する再構成画像データを画像メモリ16に保持させ、動き検出の際に参照画像データとして用いる。   The encoding unit 13c performs an encoding process on the original image data output from the left-eye viewpoint imaging unit 11 held in the image memory 15 via the data holding unit 13a. The encoding unit 13c stores reconstructed image data, which will be described later, in the image memory 16, and uses it as reference image data in motion detection.

符号化部13dは、データ保持部13bに保持された右目視点の撮像部12から出力される原画像データに対して符号化処理を行う。ただし、符号化部13dは、動き検出の際に用いる参照画像データとして、左目視点の撮像部11で撮像され、データ保持部13aに保持された原画像データを用いる。これにより、画像メモリ15,16は、左目視点の原画像データを符号化する際に限定して使用することができるので、画像メモリに対するデータ転送量を少なくすることができる。   The encoding unit 13d performs encoding processing on the original image data output from the right-eye viewpoint imaging unit 12 held in the data holding unit 13b. However, the encoding unit 13d uses original image data captured by the left-eye viewpoint imaging unit 11 and held in the data holding unit 13a as reference image data used for motion detection. As a result, the image memories 15 and 16 can be used only when encoding the original image data of the left eye viewpoint, so that the data transfer amount to the image memory can be reduced.

以下、符号化部13c,13dの一例の構成を説明する。
(左目視点用の符号化部13cの構成)
図2は、左目視点用の符号化部の一例の構成を示す図である。
Hereinafter, an exemplary configuration of the encoding units 13c and 13d will be described.
(Configuration of the encoding unit 13c for the left eye viewpoint)
FIG. 2 is a diagram illustrating a configuration of an example of an encoding unit for the left eye viewpoint.

ここでは一例として、H.264/AVC規格に対応した符号化部のブロック図を示している。
符号化部13cは、誤差画像生成部21、直交変換・量子化部22、エントロピー符号化部23、逆量子化・逆直交変換部24、再構成画像生成部25、ラインメモリ26、画面内予測部27を有している。さらに、符号化部13cは、デブロッキングフィルタ部28、動き検出部29、動き補償部30、予測方式切り替え部31を有している。
Here, as an example, 2 is a block diagram of an encoding unit corresponding to the H.264 / AVC standard.
The encoding unit 13c includes an error image generation unit 21, an orthogonal transform / quantization unit 22, an entropy encoding unit 23, an inverse quantization / inverse orthogonal transform unit 24, a reconstructed image generation unit 25, a line memory 26, and intra prediction. A portion 27 is provided. Furthermore, the encoding unit 13 c includes a deblocking filter unit 28, a motion detection unit 29, a motion compensation unit 30, and a prediction method switching unit 31.

誤差画像生成部21は、画像メモリ15に保持されている左目視点の原画像データの着目マクロブロックと、予測画像データとの差分から誤差画像データを生成する。
直交変換・量子化部22は、誤差画像データに対して直交変換と量子化処理とを実行して、量子化された変換係数を求める。
The error image generation unit 21 generates error image data from the difference between the target macroblock of the original image data of the left eye viewpoint held in the image memory 15 and the predicted image data.
The orthogonal transform / quantization unit 22 performs orthogonal transform and quantization processing on the error image data to obtain a quantized transform coefficient.

エントロピー符号化部23は、量子化後の変換係数をエントロピー符号化し、情報量圧縮された画像情報であるビットストリームを生成する。
逆量子化・逆直交変換部24は、量子化後の変換係数に対して逆量子化と逆直交変換とを実行し、誤差画像データを復元する。
The entropy encoding unit 23 entropy-encodes the quantized transform coefficient to generate a bitstream that is image information whose information amount is compressed.
The inverse quantization / inverse orthogonal transform unit 24 performs inverse quantization and inverse orthogonal transform on the quantized transform coefficient to restore error image data.

再構成画像生成部25は、復元された誤差画像データと誤差画像生成部21で用いた予測画像データとから、再構成画像データを生成する。
ラインメモリ26は、再構成画像生成部25で生成された再構成画像データを記憶する。
The reconstructed image generation unit 25 generates reconstructed image data from the restored error image data and the predicted image data used in the error image generation unit 21.
The line memory 26 stores the reconstructed image data generated by the reconstructed image generation unit 25.

画面内予測部27は、着目マクロブロックが属する画面と同一画面の画像データをラインメモリ26から読み出して、画面内予測画像を生成する。
デブロッキングフィルタ部28は、直交変換・量子化処理と逆量子化・逆直交変換処理とにより再構成画像データに生じたブロック歪みを減少させる処理を行い、処理後の再構成画像データを画像メモリ16に書き込む。
The intra-screen prediction unit 27 reads image data of the same screen as the screen to which the target macroblock belongs from the line memory 26, and generates an intra-screen prediction image.
The deblocking filter unit 28 performs a process of reducing block distortion generated in the reconstructed image data by the orthogonal transform / quantization process and the inverse quantization / inverse orthogonal transform process, and the processed reconstructed image data is stored in the image memory. 16 is written.

動き検出部29は、入力された処理対象のマクロブロックと参照画像データに基づいて動きベクトルを検出する。
動き補償部30は、画像メモリ16から読み出した参照画像データから、動き検出部29にて検出された動きベクトルに対応する座標の画像ブロックを抽出し、画面間予測画像データを生成する。
The motion detection unit 29 detects a motion vector based on the input macro block to be processed and the reference image data.
The motion compensation unit 30 extracts an image block having coordinates corresponding to the motion vector detected by the motion detection unit 29 from the reference image data read from the image memory 16, and generates inter-screen prediction image data.

予測方式切り替え部31は、たとえば、撮像装置10の図示しない制御部(プロセッサなど)からの制御信号に応じて、予測画像データの生成方式として、画面内予測方式と画面間予測方式との切り替えを行う。
(右目視点用の符号化部13dの構成)
図3は、右目視点用の符号化部の一例の構成を示す図である。
For example, the prediction method switching unit 31 switches between an intra-screen prediction method and an inter-screen prediction method as a prediction image data generation method according to a control signal from a control unit (processor or the like) (not shown) of the imaging device 10. Do.
(Configuration of the encoding unit 13d for the right eye viewpoint)
FIG. 3 is a diagram illustrating a configuration of an example of an encoding unit for the right eye viewpoint.

符号化部13dは、誤差画像生成部41、直交変換・量子化部42、エントロピー符号化部43、逆量子化・逆直交変換部44、再構成画像生成部45、ラインメモリ46、画面内予測部47を有している。さらに、符号化部13dは、動き検出部48、動き補償部49、予測方式切り替え部50を有している。   The encoding unit 13d includes an error image generation unit 41, an orthogonal transform / quantization unit 42, an entropy encoding unit 43, an inverse quantization / inverse orthogonal transform unit 44, a reconstructed image generation unit 45, a line memory 46, and intra prediction. A portion 47 is provided. Furthermore, the encoding unit 13d includes a motion detection unit 48, a motion compensation unit 49, and a prediction method switching unit 50.

各部の機能は、前述した左目視点用の符号化部13cとほぼ同じであるが、右目視点用の符号化部13dでは、誤差画像生成部41と動き検出部48がデータ保持部13bから処理対象のマクロブロックを入力する点が異なる。また、動き検出部48と動き補償部49がデータ保持部13aに保持された左目視点の原画像データを参照画像データとして入力する点が異なる。   The function of each unit is almost the same as the encoding unit 13c for the left eye viewpoint described above, but in the encoding unit 13d for the right eye viewpoint, the error image generation unit 41 and the motion detection unit 48 are processed from the data holding unit 13b. The difference is that the macro block is input. Further, the difference is that the motion detection unit 48 and the motion compensation unit 49 input the original image data of the left eye viewpoint held in the data holding unit 13a as reference image data.

符号化部13dでは、参照画像データとしてデータ保持部13aに保持された左目視点の原画像データを用いることで、左目視点用の符号化部13cとは異なり、画像メモリ16との間のデータの読み書きが不要になる。   Unlike the encoding unit 13c for the left eye viewpoint, the encoding unit 13d uses the original image data for the left eye viewpoint stored in the data storage unit 13a as the reference image data. Read / write is unnecessary.

以下、本実施の形態の撮像装置10の動作を詳細に説明する。
(撮像装置10の動作)
撮像部11,12で撮影され出力される原画像データは、それぞれデータ保持部13a,13bに一時的に蓄積保持される。
Hereinafter, the operation of the imaging apparatus 10 of the present embodiment will be described in detail.
(Operation of the imaging device 10)
Original image data captured and output by the imaging units 11 and 12 are temporarily stored and held in the data holding units 13a and 13b, respectively.

図4は、撮像部からの原画像データの読み出しの様子を示す図である。
撮像部11,12からは、図4のように、ラスタスキャン順(画面上端のラインから下端のラインまで1ラインずつ、各ラインは左端の画素から右端の画素の順)で原画像データが読み出され、データ保持部13a,13bに蓄積される。
FIG. 4 is a diagram illustrating how the original image data is read from the imaging unit.
As shown in FIG. 4, the image capturing units 11 and 12 read the original image data in raster scan order (one line from the top line to the bottom line, with each line from the leftmost pixel to the rightmost pixel). And stored in the data holding units 13a and 13b.

その後、データ保持部13aに蓄積された左目視点の原画像データは画像メモリ15に保持される。左目視点用の符号化部13cは、画像メモリ15から原画像データを読み出しながら符号化処理を行う。一方の右目視点用の符号化部13dは、データ保持部13bに保持された右目視点の原画像データを読み出しながら符号化処理を行う。   Thereafter, the original image data of the left eye viewpoint accumulated in the data holding unit 13 a is held in the image memory 15. The left-eye viewpoint encoding unit 13 c performs encoding processing while reading original image data from the image memory 15. One right-eye viewpoint encoding unit 13d performs encoding processing while reading the original image data of the right-eye viewpoint held in the data holding unit 13b.

図5は、符号化部の処理単位を示す図である。
符号化部13c,13dは図5のようなフレーム60において、たとえば、16×16画素で構成されるマクロブロック61を処理単位として符号化処理を行う。
FIG. 5 is a diagram illustrating a processing unit of the encoding unit.
The encoding units 13c and 13d perform encoding processing in a frame 60 as shown in FIG. 5, for example, using a macroblock 61 composed of 16 × 16 pixels as a processing unit.

図6は、あるフレームにおけるk行目のマクロブロック群とk+1行目のマクロブロック群を示した図である。
データ保持部13bは、k+1行目のマクロブロック群62(k+1)の原画像データを1ラインずつ右目視点の撮像部12より取得して保存する。その間に、データ保持部13bは、取得済みのk行目のマクロブロック群62(k+1)のマクロブロック61の原画像データを符号化部13dに送出する。データ保持部13bは、同様の処理をフレーム60の1行目から最後の行まで繰り返す。
FIG. 6 is a diagram illustrating a macroblock group in the kth row and a macroblock group in the k + 1th row in a certain frame.
The data holding unit 13b acquires and stores the original image data of the macro block group 62 (k + 1) in the (k + 1) th row from the imaging unit 12 at the right eye viewpoint line by line. Meanwhile, the data holding unit 13b sends the original image data of the macroblock 61 of the macroblock group 62 (k + 1) in the acquired k-th row to the encoding unit 13d. The data holding unit 13b repeats the same processing from the first line to the last line of the frame 60.

これにより、効率のよい符号化処理が可能となる。また、データ保持部13bとして、たとえば、2行分のマクロブロック群の画像データが格納できるだけの小さいメモリを用いることができる。2行分のマクロブロック群の画像データは、マクロブロック61が16×16画素からなる場合には、32ライン分の画像データに相当する。   Thereby, efficient encoding processing becomes possible. As the data holding unit 13b, for example, a small memory that can store image data of a macroblock group for two rows can be used. The image data of the macroblock group for two rows corresponds to image data for 32 lines when the macroblock 61 is composed of 16 × 16 pixels.

他方のデータ保持部13aでは、右目視点用の符号化部13dがk行目のマクロブロック群62kを処理する間、動き検出の際に用いる参照画像データとして、左目視点のフレームのk行目のマクロブロック群の画像データを符号化部13dに送出する。このとき同時に、データ保持部13aでは、左目視点の撮像部11から、k+1行目のマクロブロック群の画像データを取得し保存する。データ保持部13aは、同様の処理をフレーム60の1行目から最後の行まで繰り返す。   In the other data holding unit 13a, while the right-eye viewpoint encoding unit 13d processes the k-th macroblock group 62k, the reference image data used for motion detection is used as the reference image data in the k-th row of the left-eye viewpoint frame. The image data of the macro block group is sent to the encoding unit 13d. At the same time, the data holding unit 13a acquires and stores the image data of the macro block group in the (k + 1) th row from the imaging unit 11 at the left eye viewpoint. The data holding unit 13a repeats the same processing from the first line to the last line of the frame 60.

したがって、データ保持部13aの容量としても、たとえば、2行分のマクロブロック群の画像データが格納できるだけあればよく、小さなメモリを用いることができる。
なお、符号化部13dが、参照画像データとして右目視点のマクロブロック群62kと同じ行のものを用いる理由については後述する(図10参照)。
Therefore, the capacity of the data holding unit 13a is only required to store, for example, image data of a macroblock group for two rows, and a small memory can be used.
The reason why the encoding unit 13d uses the same row as the right-eye viewpoint macroblock group 62k as the reference image data will be described later (see FIG. 10).

次に、上記のような処理単位で符号化処理を行う符号化部13c,13dの動作の詳細を説明する。
まず、左目視点用の符号化部13cにおける符号化処理について、図2を用いて説明する。
(左目視点用の符号化部13cによる符号化処理)
画像メモリ15から処理対象のマクロブロックが入力されると、誤差画像生成部21は、そのマクロブロックと予測画像データとの差分画像である誤差画像データを生成する。直交変換・量子化部22は、誤差画像データを入力し、直交変換と量子化処理とを実行して、量子化された変換係数を求める。この量子化後の変換係数は、エントロピー符号化部23と、逆量子化・逆直交変換部24に供給される。
Next, details of the operations of the encoding units 13c and 13d that perform the encoding process in units of processing as described above will be described.
First, the encoding process in the encoding unit 13c for the left eye viewpoint will be described with reference to FIG.
(Encoding process by the encoding unit 13c for the left eye viewpoint)
When a macroblock to be processed is input from the image memory 15, the error image generation unit 21 generates error image data that is a difference image between the macroblock and the predicted image data. The orthogonal transform / quantization unit 22 receives error image data, performs orthogonal transform and quantization processing, and obtains a quantized transform coefficient. The quantized transform coefficient is supplied to the entropy coding unit 23 and the inverse quantization / inverse orthogonal transform unit 24.

エントロピー符号化部23は、量子化された変換係数をエントロピー符号化し、情報量が圧縮された画像情報であるビットストリームを生成する。また、エントロピー符号化部23は、量子化後の変換係数とともに動きベクトルに関する情報をエントロピー符号化し、ビットストリーム中に動きベクトルに関する情報を含ませる。動きベクトルの検出方法については後述する。   The entropy encoding unit 23 entropy-encodes the quantized transform coefficient to generate a bitstream that is image information in which the information amount is compressed. The entropy encoding unit 23 entropy-encodes information related to the motion vector together with the quantized transform coefficient, and includes information related to the motion vector in the bitstream. A motion vector detection method will be described later.

一方、逆量子化・逆直交変換部24は、量子化後の変換係数に対して逆量子化と逆直交変換とを実行し、誤差画像データを復元する。そして、再構成画像生成部25は、復元された誤差画像データと誤差画像生成部21で用いた予測画像データとから、再構成画像データを生成し、ラインメモリ26に保持させる。また、デブロッキングフィルタ部28は、直交変換・量子化処理と、逆量子化・逆直交変換処理とにより再構成画像データに生じたブロック歪みを減少させる処理を行い、処理後の再構成画像データを画像メモリ16に保持させる。   On the other hand, the inverse quantization / inverse orthogonal transform unit 24 performs inverse quantization and inverse orthogonal transform on the quantized transform coefficients to restore error image data. Then, the reconstructed image generation unit 25 generates reconstructed image data from the restored error image data and the predicted image data used by the error image generation unit 21 and stores the reconstructed image data in the line memory 26. In addition, the deblocking filter unit 28 performs a process of reducing block distortion generated in the reconstructed image data by the orthogonal transform / quantization process and the inverse quantization / inverse orthogonal transform process, and the reconstructed image data after the process Are stored in the image memory 16.

誤差画像生成部21及び再構成画像生成部25で用いられる予測画像データの生成は、以下のように行われる。
画面内予測部27は、着目マクロブロックが属する画面と同一画面の画像データをラインメモリ26から読み出して、画面内予測画像データを生成する。この画面内予測画像データは、エントロピー符号化部23に供給されるとともに、予測方式切り替え部31にて画面内予測方式が選択された場合に、誤差画像生成部21及び再構成画像生成部25に供給される。
Generation of predicted image data used in the error image generation unit 21 and the reconstructed image generation unit 25 is performed as follows.
The intra-screen prediction unit 27 reads out image data of the same screen as the screen to which the target macroblock belongs from the line memory 26, and generates intra-screen prediction image data. This intra-screen prediction image data is supplied to the entropy encoding unit 23, and when the intra-screen prediction method is selected by the prediction method switching unit 31, it is sent to the error image generation unit 21 and the reconstructed image generation unit 25. Supplied.

一方、画面間予測画像データは以下のように生成される。
図7及び図8は、動き検出を説明する図である。
図7(A)では、ある時刻におけるフレーム70のマクロブロック71とその拡大図を示しており、図7(B)では、参照フレーム80内における参照領域81とその拡大図を示している。
On the other hand, the inter-screen prediction image data is generated as follows.
7 and 8 are diagrams for explaining motion detection.
7A shows a macroblock 71 of a frame 70 at a certain time and an enlarged view thereof, and FIG. 7B shows a reference area 81 in the reference frame 80 and an enlarged view thereof.

また、図8では、参照領域81とマクロブロックにおける画素の位置をx−y座標系で示している。また、マクロブロック71の左上の角に対応する参照領域81での位置を原点(0,0)として、動きベクトル82を示している。   Further, in FIG. 8, pixel positions in the reference area 81 and the macroblock are shown in an xy coordinate system. Further, the motion vector 82 is shown with the position in the reference area 81 corresponding to the upper left corner of the macroblock 71 as the origin (0, 0).

動き検出部29は、処理対象のマクロブロックと最も類似している画像領域を参照フレームの中から探し出す。たとえば、動き検出部29は、画像メモリ15から、図7(A)のような処理対象のマクロブロック71を取得すると、画像メモリ16に保持されている図7(B)のような参照フレーム80から、参照領域81の画像データを参照画像データとして取得する。参照領域81として、たとえば、参照フレーム80において、処理対象のマクロブロック71と同じ位置にあるマクロブロックを中心とした矩形領域が選択される。   The motion detection unit 29 searches the reference frame for an image region that is most similar to the macro block to be processed. For example, when the motion detection unit 29 acquires the macro block 71 to be processed as shown in FIG. 7A from the image memory 15, the reference frame 80 as shown in FIG. 7B held in the image memory 16. From this, the image data of the reference area 81 is acquired as reference image data. As the reference area 81, for example, in the reference frame 80, a rectangular area centered on a macroblock located at the same position as the macroblock 71 to be processed is selected.

そして、動き検出部29は、参照領域81の中から、処理対象のマクロブロック71と最も類似している位置を検出する。動き検出部29は、類似度の基準として、たとえば、差分絶対和(SAD)を用いる。処理対象のマクロブロック71と、図8で示される動きベクトル82の位置の予測画像83の間のSAD(X,Y)は以下の式(1)で計算される。   Then, the motion detection unit 29 detects a position most similar to the processing target macroblock 71 from the reference area 81. The motion detection unit 29 uses, for example, an absolute difference sum (SAD) as a similarity criterion. SAD (X, Y) between the macro block 71 to be processed and the predicted image 83 at the position of the motion vector 82 shown in FIG. 8 is calculated by the following equation (1).

SAD(X,Y)=Σ|C(i,j)−R(X+i,Y+j)| (1)
ここで、i=0,1,2,・・・,15、j=0,1,2,・・・,15であり、Σは256画素分の累積加算を表す。C(i,j)は処理対象のマクロブロック71の座標(i,j)の画素値、R(X+i,Y+j)は参照領域81の座標(X+i,Y+j)の画素値を表す。CとRの差が小さい、すなわち、処理対象のマクロブロック71の画素値と予測画像83の画素値が近いときSADが小さくなるため、小さいSADをもつ予測画像83ほど、類似していることになる。動き検出部29は、参照領域81中の任意の動きベクトルの中から、最も小さいSADを持つ動きベクトル82を検出する。
SAD (X, Y) = Σ | C (i, j) −R (X + i, Y + j) | (1)
Here, i = 0, 1, 2,..., 15, j = 0, 1, 2,..., 15 and Σ represents cumulative addition for 256 pixels. C (i, j) represents the pixel value of the coordinate (i, j) of the macro block 71 to be processed, and R (X + i, Y + j) represents the pixel value of the coordinate (X + i, Y + j) of the reference area 81. Since the SAD is small when the difference between C and R is small, that is, when the pixel value of the macroblock 71 to be processed is close to the pixel value of the predicted image 83, the predicted image 83 having a smaller SAD is more similar. Become. The motion detector 29 detects a motion vector 82 having the smallest SAD from arbitrary motion vectors in the reference area 81.

このように、予測画像83が処理対象のマクロブロック71と最も類似した画像となるように動きベクトル82を選択すれば、誤差画像の情報量が最も小さくなり、最終的にエントロピー符号化後のビットストリームの情報量が最も小さくなる。   In this way, if the motion vector 82 is selected so that the predicted image 83 is the image most similar to the macro block 71 to be processed, the information amount of the error image is minimized, and finally the bit after entropy coding is used. The amount of stream information is the smallest.

動き検出部29が検出した動きベクトルは、動き補償部30とエントロピー符号化部23とに供給される。動きベクトルを取得した動き補償部30は、画像メモリ16から読み出した参照画像データから、動きベクトルに対応する座標の画像ブロックを抽出し、画面間予測画像データを生成する。   The motion vector detected by the motion detection unit 29 is supplied to the motion compensation unit 30 and the entropy encoding unit 23. The motion compensation unit 30 that has acquired the motion vector extracts an image block having coordinates corresponding to the motion vector from the reference image data read out from the image memory 16, and generates inter-screen prediction image data.

この画面間予測画像データは、予測方式切り替え部31により画面間予測方式が選択された場合に、誤差画像生成部21及び再構成画像生成部25に供給される。
ところで、左目視点の撮像部11による撮影で得られた画像データは、一度画像メモリ15に格納された後、符号化部13cから符号化処理を行う順で読み出されながら処理されるので、任意の参照関係をとることができる。
The inter-screen prediction image data is supplied to the error image generation unit 21 and the reconstructed image generation unit 25 when the inter-screen prediction method is selected by the prediction method switching unit 31.
By the way, the image data obtained by the imaging by the imaging unit 11 for the left eye viewpoint is once stored in the image memory 15 and then processed while being read out in the order of performing the encoding process from the encoding unit 13c. Can be referred to.

図9は、左目視点用の符号化部における符号化処理の一例を示す図である。
横軸は時間である。図9では、各撮影時刻で取得されるフレームの例と、各符号化時刻において符号化されるフレームの例を示している。また、図9では、各時刻における画像メモリ15への原画像データの蓄積状況と、画像メモリ16への再構成画像データの蓄積状況を示している。
FIG. 9 is a diagram illustrating an example of the encoding process in the encoding unit for the left eye viewpoint.
The horizontal axis is time. FIG. 9 shows an example of a frame acquired at each shooting time and an example of a frame encoded at each encoding time. Further, FIG. 9 shows the accumulation state of the original image data in the image memory 15 and the accumulation state of the reconstructed image data in the image memory 16 at each time.

図9において、時刻t0からt1にかけて、撮像部11で撮影された左視点の原画像データ(フレームI0)は、データ保持部13aを経由して画像メモリ15に保持される。同様に、時刻t1からt2にかけてフレームB1が、時刻t2からt3にかけてフレームB2が、時刻t3からt4にかけてフレームP3が画像メモリ15に保持される。後続の左視点の原画像データも同様に画像メモリ15に格納される。   In FIG. 9, from the time t0 to t1, the original image data (frame I0) of the left viewpoint imaged by the imaging unit 11 is held in the image memory 15 via the data holding unit 13a. Similarly, the image memory 15 holds the frame B1 from time t1 to t2, the frame B2 from time t2 to t3, and the frame P3 from time t3 to t4. Subsequent left viewpoint original image data is also stored in the image memory 15 in the same manner.

左目視点用の符号化部13cは、時刻t3からt4にかけてフレームI0、時刻t4からt5にかけてフレームP3、時刻t5からt6にかけてフレームB1、時刻t6からt7にかけてフレームB2の符号化処理を行う。符号化部13cは後続の左視点の原画像データに対しても同様に符号化処理を行う。   The encoding unit 13c for the left eye viewpoint performs encoding processing of frame I0 from time t3 to t4, frame P3 from time t4 to t5, frame B1 from time t5 to t6, and frame B2 from time t6 to t7. The encoding unit 13c performs the same encoding process on the subsequent left-viewpoint original image data.

なお、フレームI0,I15,・・・はイントラフレームを表す。イントラフレームでは、図9に示す符号化処理において、フレーム内のすべてのマクロブロックを画面内予測でのみ符号化処理される。   Frames I0, I15,... Represent intra frames. In an intra frame, in the encoding process shown in FIG. 9, all macroblocks in a frame are encoded only by intra prediction.

フレームP3,P6,P9,・・・は直前のフレームInまたはフレームPnを参照領域として用いて符号化されるフレームを表している。たとえば、フレームP3はフレームI0を、フレームP6はフレームP3を、フレームP9はフレームP6を参照フレームとして用いて符号化処理する。   Frames P3, P6, P9,... Represent frames that are encoded using the immediately preceding frame In or frame Pn as a reference area. For example, the frame P3 is encoded using the frame I0, the frame P6 is encoded using the frame P3, and the frame P9 is encoded using the frame P6 as the reference frame.

フレームB1,B2,B4,B5,・・・は撮影順で直前のフレームInまたはフレームPnと、直後のフレームInまたはフレームPnの2フレームを参照フレームとして用いて符号化処理される。たとえば、フレームB1は、再構成画像データとして画像メモリ16に保持されているフレームI0とフレームP3の画像データを参照画像データとして符号化処理される。フレームB1は、フレームP3よりも撮影時刻は前だが、このような参照関係が可能である。同様に、たとえば、フレームB2はフレームI0とフレームP3、フレームB4はフレームP3とフレームP6、フレームB5はフレームP3とフレームP6を参照フレームとして用いて符号化処理される。   Frames B1, B2, B4, B5,... Are encoded using two frames, ie, the immediately preceding frame In or frame Pn and the immediately following frame In or frame Pn as reference frames. For example, the frame B1 is encoded using the image data of the frames I0 and P3 held in the image memory 16 as reconstructed image data as reference image data. Although the frame B1 has a shooting time before the frame P3, such a reference relationship is possible. Similarly, for example, frame B2 is encoded using frame I0 and frame P3, frame B4 is encoded using frame P3 and frame P6, and frame B5 is encoded using frame P3 and frame P6 as reference frames.

このように、左視点用の符号化部13cでは、フレームBnにおいて、任意の2枚の参照フレームの中から参照領域を選択し、動きベクトルを検出することができるので、より小さいSADを持つ予測画像を選択することができる。   In this way, the encoding unit 13c for the left viewpoint can select a reference region from any two reference frames and detect a motion vector in the frame Bn, so that a prediction having a smaller SAD can be performed. An image can be selected.

次に、右目視点用の符号化部13dにおける符号化処理について、図3を用いて説明する。
(右目視点用の符号化部13dによる符号化処理)
データ保持部13bから処理対象のマクロブロックが入力されると、誤差画像生成部41は、そのマクロブロックと予測画像データとの差分画像である誤差画像データを生成する。直交変換・量子化部42は、誤差画像データを入力し、直交変換と量子化処理とを実行して、量子化された変換係数を求める。この量子化後の変換係数は、エントロピー符号化部43と、逆量子化・逆直交変換部44に供給される。
Next, the encoding process in the encoding unit 13d for the right eye viewpoint will be described with reference to FIG.
(Encoding process by the encoding unit 13d for the right eye viewpoint)
When the processing target macroblock is input from the data holding unit 13b, the error image generation unit 41 generates error image data that is a difference image between the macroblock and the predicted image data. The orthogonal transform / quantization unit 42 receives the error image data, executes orthogonal transform and quantization processing, and obtains a quantized transform coefficient. The quantized transform coefficients are supplied to the entropy coding unit 43 and the inverse quantization / inverse orthogonal transform unit 44.

エントロピー符号化部43は、量子化された変換係数をエントロピー符号化し、情報量が圧縮された画像情報であるビットストリームを生成する。また、エントロピー符号化部43は、量子化後の変換係数とともに動きベクトルに関する情報をエントロピー符号化し、ビットストリーム中に動きベクトルに関する情報を含ませる。   The entropy encoding unit 43 entropy encodes the quantized transform coefficient, and generates a bit stream that is image information in which the information amount is compressed. The entropy encoding unit 43 entropy-encodes information related to the motion vector together with the quantized transform coefficient, and includes information related to the motion vector in the bitstream.

一方、逆量子化・逆直交変換部44は、量子化後の変換係数に対して逆量子化と逆直交変換とを実行し、誤差画像データを復元する。そして、再構成画像生成部45は、復元された誤差画像データと誤差画像生成部41で用いた予測画像データとから、再構成画像データを生成し、ラインメモリ46に保持させる。   On the other hand, the inverse quantization / inverse orthogonal transform unit 44 performs inverse quantization and inverse orthogonal transform on the quantized transform coefficients to restore error image data. Then, the reconstructed image generation unit 45 generates reconstructed image data from the restored error image data and the predicted image data used by the error image generation unit 41 and stores the reconstructed image data in the line memory 46.

誤差画像生成部41及び再構成画像生成部45で用いられる予測画像データのうち、画面内予測画像データの生成については、前述した左目視点用の符号化部13dの処理と同じである。一方、画面間予測画像データの生成については、前述した左目視点用の符号化部13dの処理とは異なっている。   Of the prediction image data used in the error image generation unit 41 and the reconstructed image generation unit 45, the generation of the intra-screen prediction image data is the same as the processing of the encoding unit 13d for the left eye viewpoint described above. On the other hand, the generation of inter-screen prediction image data is different from the processing of the encoding unit 13d for the left eye viewpoint described above.

動き検出部48は、処理対象のマクロブロックと、同時刻に入力される左目視点の原画像データをデータ保持部13aから参照画像データとして入力する。右目視点におけるマクロブロックの動き検出を同時刻の左目視点の原画像データを用いて行う場合、被写体は2つの撮像部11,12の設置方向である水平方向に視差をもって撮影されるため、検出すべき動きベクトルは水平方向のベクトルとなる。つまり、動きベクトルの垂直方向成分は0となる。   The motion detection unit 48 inputs the macroblock to be processed and the original image data of the left-eye viewpoint input at the same time as reference image data from the data holding unit 13a. When the motion detection of the macroblock at the right eye viewpoint is performed using the original image data of the left eye viewpoint at the same time, the subject is captured with parallax in the horizontal direction, which is the installation direction of the two imaging units 11 and 12, and thus detection is performed The power vector is a horizontal vector. That is, the vertical component of the motion vector is zero.

図10は、右目視点用の符号化部の動き検出部が読み出す参照領域の一例を示す図である。
右目視点の画像データにおいて、動き検出部48が、処理対象のマクロブロック90に対して動き検出を行う場合について図示されている。
FIG. 10 is a diagram illustrating an example of a reference area read by the motion detection unit of the encoding unit for the right eye viewpoint.
The case where the motion detection unit 48 performs motion detection on the macroblock 90 to be processed in the image data of the right eye viewpoint is illustrated.

前述のように撮像部11,12が水平方向に配置されている場合、動き検出部48は、水平方向にのみ動きベクトルを探索する。したがって、動き検出部48が参照画像データとしてデータ保持部13aから読み出す左目視点の原画像データは、たとえば、処理対象のマクロブロック90と同位置のマクロブロック91に対して水平方向に位置する領域92となる。領域92は、マクロブロック91を中心として、たとえば、左右に16×16画素分拡張した大きさとする。なお、領域92の大きさは、撮像部11,12間の距離などに応じて適宜変更可能である。   As described above, when the imaging units 11 and 12 are arranged in the horizontal direction, the motion detection unit 48 searches for a motion vector only in the horizontal direction. Therefore, the original image data of the left eye viewpoint read out from the data holding unit 13a as the reference image data by the motion detection unit 48 is, for example, an area 92 positioned in the horizontal direction with respect to the macro block 91 at the same position as the macro block 90 to be processed. It becomes. The area 92 has a size expanded by 16 × 16 pixels left and right, for example, with the macro block 91 as the center. The size of the region 92 can be changed as appropriate according to the distance between the imaging units 11 and 12.

以上のような符号化部13c,13dで生成されたビットストリームは、ビットストリームメモリに書き込まれ、ビットストリーム並べ替え部17で適切な順序に並べ替えられたのち、ビットストリームメモリ14に書き戻される。   The bit streams generated by the encoding units 13c and 13d as described above are written to the bit stream memory, rearranged in an appropriate order by the bit stream rearrangement unit 17, and then written back to the bit stream memory 14. .

その後、各視点のビットストリームは、たとえば、図示しないハードディスクドライブなどの記憶装置やDVD(Digital Versatile Disc)などの記憶メディアに記憶されたり、3D対応の表示装置で復号化され3D表示される。なお、撮像装置10自体が、記憶装置、復号部または表示部などを内蔵してもよい。復号部は半導体集積回路13に内蔵するようにしてもよい。   Thereafter, the bit stream of each viewpoint is stored in, for example, a storage device such as a hard disk drive (not shown) or a storage medium such as a DVD (Digital Versatile Disc), or decoded by a 3D display device and displayed in 3D. Note that the imaging device 10 itself may include a storage device, a decoding unit, a display unit, or the like. The decoding unit may be built in the semiconductor integrated circuit 13.

ところで、上記のように符号化した左目視点の画像データを復号する際には、図示しない復号部は、たとえば、符号化されている誤差画像データを復号し、その誤差画像データと1フレーム前の左目視点の復号データとから画像データを生成する。また、復号部は、ある時刻の右目視点の画像データを復号する際には、符号化されている誤差画像データを復号し、その誤差画像データと同時刻の左目視点の復号データとから画像データを復号すればよい。   By the way, when decoding the left-eye viewpoint image data encoded as described above, a decoding unit (not shown) decodes the encoded error image data, for example, and decodes the error image data and the previous frame of the error image data. Image data is generated from the decoded data of the left eye viewpoint. In addition, when decoding the right-eye viewpoint image data at a certain time, the decoding unit decodes the encoded error image data, and the image data is obtained from the error image data and the left-eye viewpoint decoded data at the same time. Should be decrypted.

以上のように本実施の形態の半導体集積回路13、符号化方法及び撮像装置10によれば、右目視点の原画像データの符号化で使用する参照画像データとして、左目視点の原画像データを使用する。これにより、画像メモリ15,16は、左目視点の原画像データを符号化する際に限定して使用することができるので、複数の視点の原画像データの符号化処理において、画像メモリに対するデータ転送量を削減できる。   As described above, according to the semiconductor integrated circuit 13, the encoding method, and the imaging apparatus 10 of the present embodiment, the original image data of the left eye viewpoint is used as the reference image data used for encoding the original image data of the right eye viewpoint. To do. As a result, the image memories 15 and 16 can be used only when encoding the original image data of the left-eye viewpoint. Therefore, in the encoding process of the original image data of a plurality of viewpoints, data transfer to the image memory is performed. The amount can be reduced.

また、これにより、単位時間あたりにデータを読み書きするデータ量を削減できるので、画像メモリとして安価な半導体メモリを用いることが可能になり撮像装置10のコストを削減できる。   This also reduces the amount of data that is read and written per unit time, so that an inexpensive semiconductor memory can be used as the image memory, and the cost of the imaging apparatus 10 can be reduced.

以上、実施の形態に基づき、本発明の半導体集積回路、符号化方法及び撮像装置の一観点について説明してきたが、これらは一例にすぎず、上記の記載に限定されるものではない。   As described above, one aspect of the semiconductor integrated circuit, the encoding method, and the imaging apparatus of the present invention has been described based on the embodiments. However, these are merely examples, and the present invention is not limited to the above description.

たとえば、図2、図3では、H.264/AVC規格に対応した符号化部13c,13dを説明したが、MPEG−2に対応した符号化部であってもよい。その場合も一方の視点の原画像データを符号化する符号化部において、動き検出を行う場合、他方の視点の原画像データを参照画像データとして用いることで、同様の効果を得ることができる。   For example, in FIGS. Although the encoding units 13c and 13d corresponding to the H.264 / AVC standard have been described, an encoding unit corresponding to MPEG-2 may be used. In this case as well, when motion detection is performed in the encoding unit that encodes the original image data of one viewpoint, the same effect can be obtained by using the original image data of the other viewpoint as the reference image data.

また、上記では2視点の場合について説明したが、3つ以上の視点の原画像データを符号化する際にも同様に適用可能である。その場合、各視点に対応したデータ保持部及び符号化部が設けられ、ある視点のマクロブロックを符号化する際の動き検出の際に、基準となる視点の原画像データを参照画像データとして用いることで同様の効果を得ることが可能である。   In the above description, the case of two viewpoints has been described. However, the present invention can be similarly applied when encoding original image data of three or more viewpoints. In that case, a data holding unit and an encoding unit corresponding to each viewpoint are provided, and the original image data of the reference viewpoint is used as reference image data in motion detection when encoding a macroblock of a certain viewpoint. It is possible to obtain the same effect.

10 撮像装置
11,12 撮像部
13 半導体集積回路
13a,13b データ保持部
13c,13d 符号化部
14 ビットストリームメモリ
15,16 画像メモリ
17 ビットストリーム並べ替え部
DESCRIPTION OF SYMBOLS 10 Image pick-up device 11, 12 Image pick-up part 13 Semiconductor integrated circuit 13a, 13b Data holding part 13c, 13d Encoding part 14 Bit stream memory 15, 16 Image memory 17 Bit stream rearrangement part

Claims (5)

第1の視点の原画像データを符号化処理する第1の符号化部と、
第2の視点の原画像データを符号化処理する第2の符号化部と、
を有し、
前記第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、動き検出することを特徴とする半導体集積回路。
A first encoding unit that encodes original image data of the first viewpoint;
A second encoding unit that encodes the original image data of the second viewpoint;
Have
The second encoding unit, when performing the encoding process, performs motion detection using the original image data of the first viewpoint as reference image data.
水平方向に位置する前記第1の視点及び前記第2の視点のうち前記第1の視点の前記原画像データを保持する第1のデータ保持部を有し、
前記第1のデータ保持部は、前記第2の符号化部における処理単位の前記原画像データに対して画面上で水平方向に位置する前記第1の視点の前記原画像データを、前記参照画像データとして前記第2の符号化部に送出することを特徴とする請求項1に記載の半導体集積回路。
A first data holding unit that holds the original image data of the first viewpoint out of the first viewpoint and the second viewpoint located in a horizontal direction;
The first data holding unit converts the original image data of the first viewpoint positioned in a horizontal direction on the screen with respect to the original image data of the processing unit in the second encoding unit, and the reference image The semiconductor integrated circuit according to claim 1, wherein the data is sent as data to the second encoding unit.
水平方向に位置する前記第1の視点及び前記第2の視点のうち前記第2の視点の前記原画像データを保持する第2のデータ保持部を有し、
前記第2のデータ保持部は、前記第2の符号化部における前記符号化処理の処理単位となる前記原画像データを一行分取得して保存する間に、取得済みの他の行の前記処理単位の前記原画像データを前記第2の符号化部に送出することを特徴とする請求項1または2に記載の半導体集積回路。
A second data holding unit that holds the original image data of the second viewpoint among the first viewpoint and the second viewpoint located in a horizontal direction;
While the second data holding unit acquires and stores one line of the original image data, which is a processing unit of the encoding process in the second encoding unit, the processing of the other acquired lines 3. The semiconductor integrated circuit according to claim 1, wherein the original image data of a unit is sent to the second encoding unit.
第1の符号化部は第1の視点の原画像データを符号化処理し、
第2の視点の原画像データを符号化処理する第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、前記第2の視点の原画像データを符号化処理することを特徴とする符号化方法。
The first encoding unit encodes the original image data of the first viewpoint,
When performing the encoding process, the second encoding unit that encodes the original image data of the second viewpoint uses the original image data of the first viewpoint as reference image data, and performs the second viewpoint. An original encoding method for encoding original image data.
第1の視点で撮影を行い、原画像データを出力する第1の撮像部と、
第2の視点で撮影を行い、原画像データを出力する第2の撮像部と、
前記第1の視点の前記原画像データを符号化処理する第1の符号化部と、
前記第2の視点の前記原画像データを符号化処理する第2の符号化部と、
を有し、
前記第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、動き検出することを特徴とする撮像装置。
A first imaging unit that performs imaging from a first viewpoint and outputs original image data;
A second imaging unit that performs imaging from a second viewpoint and outputs original image data;
A first encoding unit that encodes the original image data of the first viewpoint;
A second encoding unit that encodes the original image data of the second viewpoint;
Have
The second encoding unit, when performing the encoding process, performs motion detection using the original image data of the first viewpoint as reference image data.
JP2009281207A 2009-12-11 2009-12-11 Semiconductor integrated circuit, coding method and imaging device Pending JP2011124822A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009281207A JP2011124822A (en) 2009-12-11 2009-12-11 Semiconductor integrated circuit, coding method and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009281207A JP2011124822A (en) 2009-12-11 2009-12-11 Semiconductor integrated circuit, coding method and imaging device

Publications (1)

Publication Number Publication Date
JP2011124822A true JP2011124822A (en) 2011-06-23

Family

ID=44288276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281207A Pending JP2011124822A (en) 2009-12-11 2009-12-11 Semiconductor integrated circuit, coding method and imaging device

Country Status (1)

Country Link
JP (1) JP2011124822A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61206395A (en) * 1985-03-11 1986-09-12 Nippon Hoso Kyokai <Nhk> Stereoscopic television image transmitting system
JPH04196998A (en) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd Stereoscopic image encoding device
JPH06113335A (en) * 1992-09-29 1994-04-22 Fujitsu Ltd Picture high efficiency coding system
JPH0759115A (en) * 1993-07-09 1995-03-03 Rca Thomson Licensing Corp Method and apparatus for processing of stereo video signal
JPH07325924A (en) * 1994-06-02 1995-12-12 Canon Inc Compound eye image pickup device
JPH0993614A (en) * 1995-09-27 1997-04-04 Nec Corp Three-dimension image coder
JPH11355583A (en) * 1998-06-03 1999-12-24 Hitachi Ltd Picture signal processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61206395A (en) * 1985-03-11 1986-09-12 Nippon Hoso Kyokai <Nhk> Stereoscopic television image transmitting system
JPH04196998A (en) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd Stereoscopic image encoding device
JPH06113335A (en) * 1992-09-29 1994-04-22 Fujitsu Ltd Picture high efficiency coding system
JPH0759115A (en) * 1993-07-09 1995-03-03 Rca Thomson Licensing Corp Method and apparatus for processing of stereo video signal
JPH07325924A (en) * 1994-06-02 1995-12-12 Canon Inc Compound eye image pickup device
JPH0993614A (en) * 1995-09-27 1997-04-04 Nec Corp Three-dimension image coder
JPH11355583A (en) * 1998-06-03 1999-12-24 Hitachi Ltd Picture signal processor

Similar Documents

Publication Publication Date Title
US10412413B2 (en) Image processing device and image processing method
JP6545672B2 (en) View synthesis prediction method and merge candidate list construction method using the same in multi-view video coding
EP2887663B1 (en) Method, apparatus and system for encoding and decoding video
JP6042536B2 (en) Method and apparatus for inter-view candidate derivation in 3D video coding
AU2013284038B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
US20100215104A1 (en) Method and System for Motion Estimation
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
US10356417B2 (en) Method and system of video coding using projected motion vectors
JP2015525997A5 (en)
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
JP4185086B2 (en) Image processing device
WO2014156648A1 (en) Method for encoding a plurality of input images and storage medium and device for storing program
KR20170059902A (en) Method and apparatus for encoding/dicoding a multi-perspective video
JPWO2013031071A1 (en) Moving picture decoding apparatus, moving picture decoding method, and integrated circuit
JP4874578B2 (en) Image encoding device
JP2011130030A (en) Image encoding method and image encoder
JP4235209B2 (en) Motion vector detection apparatus and motion vector detection method
JP2009218965A (en) Image processor, imaging device mounted with the same and image reproduction device
JP2011124822A (en) Semiconductor integrated circuit, coding method and imaging device
JP2009071642A (en) Moving image encoding device
US20180124376A1 (en) Video decoding device and image display device
JP2002300600A (en) Stereoscopic image encoder and stereoscopic image decoder
KR102127212B1 (en) Method and apparatus for decoding multi-view video information
JP2007166555A (en) Encoding device and method
JP2018166306A (en) Coding apparatus, imaging apparatus, coding method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130813