JP2011124822A - Semiconductor integrated circuit, coding method and imaging device - Google Patents
Semiconductor integrated circuit, coding method and imaging device Download PDFInfo
- Publication number
- JP2011124822A JP2011124822A JP2009281207A JP2009281207A JP2011124822A JP 2011124822 A JP2011124822 A JP 2011124822A JP 2009281207 A JP2009281207 A JP 2009281207A JP 2009281207 A JP2009281207 A JP 2009281207A JP 2011124822 A JP2011124822 A JP 2011124822A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- encoding
- viewpoint
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、半導体集積回路、符号化方法及び撮像装置に関する。 The present invention relates to a semiconductor integrated circuit, an encoding method, and an imaging apparatus.
近年、デジタル動画像符号化処理技術の発達にともない、動画像を3D(3次元)表示することが可能なディスプレイ(3Dディスプレイ)の開発が進められている。また、このような3Dディスプレイに表示再生させることが可能な3次元動画像データを撮影、圧縮符号化する3次元動画像撮影装置や3次元動画像符号化装置の開発が進められている。3次元動画像符号化の国際標準規格として、MPEG(Moving Picture Experts Group)−2のMVC(Multi-view Video Coding)やH.264のMVCが提案されている。 In recent years, with the development of digital moving image encoding processing technology, development of a display (3D display) capable of displaying a moving image in 3D (3D) has been advanced. Further, development of a three-dimensional moving image photographing device and a three-dimensional moving image coding device for photographing and compression-coding three-dimensional moving image data that can be displayed and reproduced on such a 3D display has been underway. As an international standard for 3D video coding, MVC (Multi-view Video Coding) of MPEG (Moving Picture Experts Group) -2, H.264, etc. H.264 MVC has been proposed.
従来、3次元動画像符号化処理で必要となる動き検出処理の際に、左目視点画像と右目視点画像の間では視差方向にのみ被写体のずれが発生することを利用して、右目視点画像の動き検出処理を左右方向に限定することで計算量を削減する方法が提案されている。 Conventionally, during motion detection processing required in 3D moving image encoding processing, a shift of the subject occurs only in the parallax direction between the left-eye viewpoint image and the right-eye viewpoint image. There has been proposed a method for reducing the amount of calculation by limiting the motion detection process in the left-right direction.
また、符号化処理対象の画像データをフレーム単位ではなく、スライス単位で蓄積保存することで、画像データを一時蓄積するバッファメモリの容量を削減する方法が提案されている。 In addition, there has been proposed a method for reducing the capacity of a buffer memory for temporarily storing image data by storing and storing image data to be encoded in units of slices instead of in units of frames.
従来の3次元動画像の符号化処理では、各視点のカメラで撮像された画像データは一旦画像メモリに蓄積され、符号化部はその画像メモリから画像データを読み出しながら随時符号化処理を行い、符号化データを生成している。そのため、符号化処理時における画像メモリに対するデータ転送量が、1視点の場合と比べて増加してしまうという問題があった。 In the conventional 3D moving image encoding process, image data captured by the camera of each viewpoint is temporarily stored in the image memory, and the encoding unit performs the encoding process as needed while reading the image data from the image memory, Encoded data is generated. For this reason, there has been a problem that the amount of data transferred to the image memory during the encoding process is increased compared to the case of one viewpoint.
上記の点を鑑みて、本発明は、複数視点の画像データの符号化処理時に、画像メモリに対するデータ転送量を削減可能な半導体集積回路、符号化方法及び撮像装置を提供することを目的とする。 In view of the above, it is an object of the present invention to provide a semiconductor integrated circuit, an encoding method, and an imaging apparatus that can reduce the amount of data transferred to an image memory when encoding image data of a plurality of viewpoints. .
上記目的を達成するために、以下のような半導体集積回路が提供される。
この半導体集積回路は、第1の視点の原画像データを符号化処理する第1の符号化部と、第2の視点の原画像データを符号化処理する第2の符号化部と、を有し、前記第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、動き検出する。
In order to achieve the above object, the following semiconductor integrated circuit is provided.
The semiconductor integrated circuit includes a first encoding unit that encodes original image data of a first viewpoint and a second encoding unit that encodes original image data of a second viewpoint. Then, when performing the encoding process, the second encoding unit performs motion detection using the original image data of the first viewpoint as reference image data.
開示の半導体集積回路、符号化方法及び撮像装置によれば、複数視点の画像データの符号化処理時に、画像メモリに対するデータ転送量を削減することができる。 According to the disclosed semiconductor integrated circuit, encoding method, and imaging apparatus, it is possible to reduce the amount of data transferred to the image memory when encoding image data of a plurality of viewpoints.
以下、本発明の半導体集積回路、符号化方法及び撮像装置の実施の形態を、図面を参照しつつ説明する。
図1は、実施の形態の撮像装置及び半導体集積回路の構成を示す図である。
Embodiments of a semiconductor integrated circuit, an encoding method, and an imaging apparatus according to the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an imaging device and a semiconductor integrated circuit according to an embodiment.
ここでは、2つの視点において動画像を撮像する撮像装置10の例を示している。
撮像装置10は、撮像部11,12、半導体集積回路13、ビットストリームメモリ14、画像メモリ15,16、ビットストリーム並べ替え部17を有している。
Here, an example of the
The
撮像部11,12は、たとえば、水平方向に並べて配置されており、それぞれの視点において撮影を行い、原画像データを出力する。
なお、以下の説明では、撮像部11は左目視点の原画像データを出力し、撮像部12は右目視点の原画像データを出力するとして説明するが、撮像部11が右目視点、撮像部12が左目視点であってもよい。また、撮像部11,12間の距離も、人間の左目と右目との間隔に限定するものではなく、立体感を強調させるために間隔を広げるようにしたり、適宜変更が可能である。
For example, the
In the following description, it is assumed that the
なお、撮像部11,12はCCD(Charge Coupled Device)素子もしくはCMOS(Complementary Metal-Oxide Semiconductor)素子などの撮像素子のほか、RGBフォーマットの画像データをYUVフォーマットに変換する変換部などを有している。図1ではこれらの構成については図示を省略している。
The
半導体集積回路13は、撮像部11,12から出力される原画像データを圧縮符号化する。
ビットストリームメモリ14は、符号化処理で生成された符号化データであるビットストリームを記憶する。
The semiconductor integrated circuit 13 compresses and encodes the original image data output from the
The
画像メモリ15,16は、符号化処理時に画像データを保持する。画像メモリ15,16は、たとえば、フレームメモリである。本実施の形態の撮像装置10では、画像メモリ15,16は、撮像部11から出力される原画像データを符号化処理する際に用いられ、撮像部12から出力される原画像データを符号化処理する際には必要としない。
The
ビットストリームメモリ14、画像メモリ15,16としては、たとえば、DRAM(Dynamic Random Access Memory)などの半導体メモリが適用可能である。たとえば、1つの半導体メモリの領域を分割して、ビットストリームメモリ14及び画像メモリ15,16として用いてもよい。
As the
ビットストリーム並べ替え部17はビットストリームメモリ14から左目視点と右目視点のビットストリームを読み出し、この2つのビットストリームを適切な順序に並べ替える。
The bit
本実施の形態の半導体集積回路13は、データ保持部13a,13b、符号化部13c,13dを有している。
データ保持部13a,13bは、たとえば、ラインバッファメモリなどのメモリである。データ保持部13aは撮像部11から出力される原画像データを一時的に蓄積し保持し、データ保持部13bは撮像部12から出力される原画像データを一時的に蓄積し保持する。
The semiconductor integrated circuit 13 of this embodiment includes
The
符号化部13cは、データ保持部13aを介して画像メモリ15に保持された左目視点の撮像部11から出力される原画像データに対して符号化処理を行う。また、符号化部13cは、後述する再構成画像データを画像メモリ16に保持させ、動き検出の際に参照画像データとして用いる。
The
符号化部13dは、データ保持部13bに保持された右目視点の撮像部12から出力される原画像データに対して符号化処理を行う。ただし、符号化部13dは、動き検出の際に用いる参照画像データとして、左目視点の撮像部11で撮像され、データ保持部13aに保持された原画像データを用いる。これにより、画像メモリ15,16は、左目視点の原画像データを符号化する際に限定して使用することができるので、画像メモリに対するデータ転送量を少なくすることができる。
The
以下、符号化部13c,13dの一例の構成を説明する。
(左目視点用の符号化部13cの構成)
図2は、左目視点用の符号化部の一例の構成を示す図である。
Hereinafter, an exemplary configuration of the
(Configuration of the
FIG. 2 is a diagram illustrating a configuration of an example of an encoding unit for the left eye viewpoint.
ここでは一例として、H.264/AVC規格に対応した符号化部のブロック図を示している。
符号化部13cは、誤差画像生成部21、直交変換・量子化部22、エントロピー符号化部23、逆量子化・逆直交変換部24、再構成画像生成部25、ラインメモリ26、画面内予測部27を有している。さらに、符号化部13cは、デブロッキングフィルタ部28、動き検出部29、動き補償部30、予測方式切り替え部31を有している。
Here, as an example, 2 is a block diagram of an encoding unit corresponding to the H.264 / AVC standard.
The
誤差画像生成部21は、画像メモリ15に保持されている左目視点の原画像データの着目マクロブロックと、予測画像データとの差分から誤差画像データを生成する。
直交変換・量子化部22は、誤差画像データに対して直交変換と量子化処理とを実行して、量子化された変換係数を求める。
The error
The orthogonal transform /
エントロピー符号化部23は、量子化後の変換係数をエントロピー符号化し、情報量圧縮された画像情報であるビットストリームを生成する。
逆量子化・逆直交変換部24は、量子化後の変換係数に対して逆量子化と逆直交変換とを実行し、誤差画像データを復元する。
The
The inverse quantization / inverse
再構成画像生成部25は、復元された誤差画像データと誤差画像生成部21で用いた予測画像データとから、再構成画像データを生成する。
ラインメモリ26は、再構成画像生成部25で生成された再構成画像データを記憶する。
The reconstructed
The
画面内予測部27は、着目マクロブロックが属する画面と同一画面の画像データをラインメモリ26から読み出して、画面内予測画像を生成する。
デブロッキングフィルタ部28は、直交変換・量子化処理と逆量子化・逆直交変換処理とにより再構成画像データに生じたブロック歪みを減少させる処理を行い、処理後の再構成画像データを画像メモリ16に書き込む。
The
The
動き検出部29は、入力された処理対象のマクロブロックと参照画像データに基づいて動きベクトルを検出する。
動き補償部30は、画像メモリ16から読み出した参照画像データから、動き検出部29にて検出された動きベクトルに対応する座標の画像ブロックを抽出し、画面間予測画像データを生成する。
The
The
予測方式切り替え部31は、たとえば、撮像装置10の図示しない制御部(プロセッサなど)からの制御信号に応じて、予測画像データの生成方式として、画面内予測方式と画面間予測方式との切り替えを行う。
(右目視点用の符号化部13dの構成)
図3は、右目視点用の符号化部の一例の構成を示す図である。
For example, the prediction
(Configuration of the
FIG. 3 is a diagram illustrating a configuration of an example of an encoding unit for the right eye viewpoint.
符号化部13dは、誤差画像生成部41、直交変換・量子化部42、エントロピー符号化部43、逆量子化・逆直交変換部44、再構成画像生成部45、ラインメモリ46、画面内予測部47を有している。さらに、符号化部13dは、動き検出部48、動き補償部49、予測方式切り替え部50を有している。
The
各部の機能は、前述した左目視点用の符号化部13cとほぼ同じであるが、右目視点用の符号化部13dでは、誤差画像生成部41と動き検出部48がデータ保持部13bから処理対象のマクロブロックを入力する点が異なる。また、動き検出部48と動き補償部49がデータ保持部13aに保持された左目視点の原画像データを参照画像データとして入力する点が異なる。
The function of each unit is almost the same as the
符号化部13dでは、参照画像データとしてデータ保持部13aに保持された左目視点の原画像データを用いることで、左目視点用の符号化部13cとは異なり、画像メモリ16との間のデータの読み書きが不要になる。
Unlike the
以下、本実施の形態の撮像装置10の動作を詳細に説明する。
(撮像装置10の動作)
撮像部11,12で撮影され出力される原画像データは、それぞれデータ保持部13a,13bに一時的に蓄積保持される。
Hereinafter, the operation of the
(Operation of the imaging device 10)
Original image data captured and output by the
図4は、撮像部からの原画像データの読み出しの様子を示す図である。
撮像部11,12からは、図4のように、ラスタスキャン順(画面上端のラインから下端のラインまで1ラインずつ、各ラインは左端の画素から右端の画素の順)で原画像データが読み出され、データ保持部13a,13bに蓄積される。
FIG. 4 is a diagram illustrating how the original image data is read from the imaging unit.
As shown in FIG. 4, the
その後、データ保持部13aに蓄積された左目視点の原画像データは画像メモリ15に保持される。左目視点用の符号化部13cは、画像メモリ15から原画像データを読み出しながら符号化処理を行う。一方の右目視点用の符号化部13dは、データ保持部13bに保持された右目視点の原画像データを読み出しながら符号化処理を行う。
Thereafter, the original image data of the left eye viewpoint accumulated in the
図5は、符号化部の処理単位を示す図である。
符号化部13c,13dは図5のようなフレーム60において、たとえば、16×16画素で構成されるマクロブロック61を処理単位として符号化処理を行う。
FIG. 5 is a diagram illustrating a processing unit of the encoding unit.
The
図6は、あるフレームにおけるk行目のマクロブロック群とk+1行目のマクロブロック群を示した図である。
データ保持部13bは、k+1行目のマクロブロック群62(k+1)の原画像データを1ラインずつ右目視点の撮像部12より取得して保存する。その間に、データ保持部13bは、取得済みのk行目のマクロブロック群62(k+1)のマクロブロック61の原画像データを符号化部13dに送出する。データ保持部13bは、同様の処理をフレーム60の1行目から最後の行まで繰り返す。
FIG. 6 is a diagram illustrating a macroblock group in the kth row and a macroblock group in the k + 1th row in a certain frame.
The
これにより、効率のよい符号化処理が可能となる。また、データ保持部13bとして、たとえば、2行分のマクロブロック群の画像データが格納できるだけの小さいメモリを用いることができる。2行分のマクロブロック群の画像データは、マクロブロック61が16×16画素からなる場合には、32ライン分の画像データに相当する。
Thereby, efficient encoding processing becomes possible. As the
他方のデータ保持部13aでは、右目視点用の符号化部13dがk行目のマクロブロック群62kを処理する間、動き検出の際に用いる参照画像データとして、左目視点のフレームのk行目のマクロブロック群の画像データを符号化部13dに送出する。このとき同時に、データ保持部13aでは、左目視点の撮像部11から、k+1行目のマクロブロック群の画像データを取得し保存する。データ保持部13aは、同様の処理をフレーム60の1行目から最後の行まで繰り返す。
In the other
したがって、データ保持部13aの容量としても、たとえば、2行分のマクロブロック群の画像データが格納できるだけあればよく、小さなメモリを用いることができる。
なお、符号化部13dが、参照画像データとして右目視点のマクロブロック群62kと同じ行のものを用いる理由については後述する(図10参照)。
Therefore, the capacity of the
The reason why the
次に、上記のような処理単位で符号化処理を行う符号化部13c,13dの動作の詳細を説明する。
まず、左目視点用の符号化部13cにおける符号化処理について、図2を用いて説明する。
(左目視点用の符号化部13cによる符号化処理)
画像メモリ15から処理対象のマクロブロックが入力されると、誤差画像生成部21は、そのマクロブロックと予測画像データとの差分画像である誤差画像データを生成する。直交変換・量子化部22は、誤差画像データを入力し、直交変換と量子化処理とを実行して、量子化された変換係数を求める。この量子化後の変換係数は、エントロピー符号化部23と、逆量子化・逆直交変換部24に供給される。
Next, details of the operations of the
First, the encoding process in the
(Encoding process by the
When a macroblock to be processed is input from the
エントロピー符号化部23は、量子化された変換係数をエントロピー符号化し、情報量が圧縮された画像情報であるビットストリームを生成する。また、エントロピー符号化部23は、量子化後の変換係数とともに動きベクトルに関する情報をエントロピー符号化し、ビットストリーム中に動きベクトルに関する情報を含ませる。動きベクトルの検出方法については後述する。
The
一方、逆量子化・逆直交変換部24は、量子化後の変換係数に対して逆量子化と逆直交変換とを実行し、誤差画像データを復元する。そして、再構成画像生成部25は、復元された誤差画像データと誤差画像生成部21で用いた予測画像データとから、再構成画像データを生成し、ラインメモリ26に保持させる。また、デブロッキングフィルタ部28は、直交変換・量子化処理と、逆量子化・逆直交変換処理とにより再構成画像データに生じたブロック歪みを減少させる処理を行い、処理後の再構成画像データを画像メモリ16に保持させる。
On the other hand, the inverse quantization / inverse
誤差画像生成部21及び再構成画像生成部25で用いられる予測画像データの生成は、以下のように行われる。
画面内予測部27は、着目マクロブロックが属する画面と同一画面の画像データをラインメモリ26から読み出して、画面内予測画像データを生成する。この画面内予測画像データは、エントロピー符号化部23に供給されるとともに、予測方式切り替え部31にて画面内予測方式が選択された場合に、誤差画像生成部21及び再構成画像生成部25に供給される。
Generation of predicted image data used in the error
The
一方、画面間予測画像データは以下のように生成される。
図7及び図8は、動き検出を説明する図である。
図7(A)では、ある時刻におけるフレーム70のマクロブロック71とその拡大図を示しており、図7(B)では、参照フレーム80内における参照領域81とその拡大図を示している。
On the other hand, the inter-screen prediction image data is generated as follows.
7 and 8 are diagrams for explaining motion detection.
7A shows a
また、図8では、参照領域81とマクロブロックにおける画素の位置をx−y座標系で示している。また、マクロブロック71の左上の角に対応する参照領域81での位置を原点(0,0)として、動きベクトル82を示している。
Further, in FIG. 8, pixel positions in the
動き検出部29は、処理対象のマクロブロックと最も類似している画像領域を参照フレームの中から探し出す。たとえば、動き検出部29は、画像メモリ15から、図7(A)のような処理対象のマクロブロック71を取得すると、画像メモリ16に保持されている図7(B)のような参照フレーム80から、参照領域81の画像データを参照画像データとして取得する。参照領域81として、たとえば、参照フレーム80において、処理対象のマクロブロック71と同じ位置にあるマクロブロックを中心とした矩形領域が選択される。
The
そして、動き検出部29は、参照領域81の中から、処理対象のマクロブロック71と最も類似している位置を検出する。動き検出部29は、類似度の基準として、たとえば、差分絶対和(SAD)を用いる。処理対象のマクロブロック71と、図8で示される動きベクトル82の位置の予測画像83の間のSAD(X,Y)は以下の式(1)で計算される。
Then, the
SAD(X,Y)=Σ|C(i,j)−R(X+i,Y+j)| (1)
ここで、i=0,1,2,・・・,15、j=0,1,2,・・・,15であり、Σは256画素分の累積加算を表す。C(i,j)は処理対象のマクロブロック71の座標(i,j)の画素値、R(X+i,Y+j)は参照領域81の座標(X+i,Y+j)の画素値を表す。CとRの差が小さい、すなわち、処理対象のマクロブロック71の画素値と予測画像83の画素値が近いときSADが小さくなるため、小さいSADをもつ予測画像83ほど、類似していることになる。動き検出部29は、参照領域81中の任意の動きベクトルの中から、最も小さいSADを持つ動きベクトル82を検出する。
SAD (X, Y) = Σ | C (i, j) −R (X + i, Y + j) | (1)
Here, i = 0, 1, 2,..., 15, j = 0, 1, 2,..., 15 and Σ represents cumulative addition for 256 pixels. C (i, j) represents the pixel value of the coordinate (i, j) of the
このように、予測画像83が処理対象のマクロブロック71と最も類似した画像となるように動きベクトル82を選択すれば、誤差画像の情報量が最も小さくなり、最終的にエントロピー符号化後のビットストリームの情報量が最も小さくなる。
In this way, if the
動き検出部29が検出した動きベクトルは、動き補償部30とエントロピー符号化部23とに供給される。動きベクトルを取得した動き補償部30は、画像メモリ16から読み出した参照画像データから、動きベクトルに対応する座標の画像ブロックを抽出し、画面間予測画像データを生成する。
The motion vector detected by the
この画面間予測画像データは、予測方式切り替え部31により画面間予測方式が選択された場合に、誤差画像生成部21及び再構成画像生成部25に供給される。
ところで、左目視点の撮像部11による撮影で得られた画像データは、一度画像メモリ15に格納された後、符号化部13cから符号化処理を行う順で読み出されながら処理されるので、任意の参照関係をとることができる。
The inter-screen prediction image data is supplied to the error
By the way, the image data obtained by the imaging by the
図9は、左目視点用の符号化部における符号化処理の一例を示す図である。
横軸は時間である。図9では、各撮影時刻で取得されるフレームの例と、各符号化時刻において符号化されるフレームの例を示している。また、図9では、各時刻における画像メモリ15への原画像データの蓄積状況と、画像メモリ16への再構成画像データの蓄積状況を示している。
FIG. 9 is a diagram illustrating an example of the encoding process in the encoding unit for the left eye viewpoint.
The horizontal axis is time. FIG. 9 shows an example of a frame acquired at each shooting time and an example of a frame encoded at each encoding time. Further, FIG. 9 shows the accumulation state of the original image data in the
図9において、時刻t0からt1にかけて、撮像部11で撮影された左視点の原画像データ(フレームI0)は、データ保持部13aを経由して画像メモリ15に保持される。同様に、時刻t1からt2にかけてフレームB1が、時刻t2からt3にかけてフレームB2が、時刻t3からt4にかけてフレームP3が画像メモリ15に保持される。後続の左視点の原画像データも同様に画像メモリ15に格納される。
In FIG. 9, from the time t0 to t1, the original image data (frame I0) of the left viewpoint imaged by the
左目視点用の符号化部13cは、時刻t3からt4にかけてフレームI0、時刻t4からt5にかけてフレームP3、時刻t5からt6にかけてフレームB1、時刻t6からt7にかけてフレームB2の符号化処理を行う。符号化部13cは後続の左視点の原画像データに対しても同様に符号化処理を行う。
The
なお、フレームI0,I15,・・・はイントラフレームを表す。イントラフレームでは、図9に示す符号化処理において、フレーム内のすべてのマクロブロックを画面内予測でのみ符号化処理される。 Frames I0, I15,... Represent intra frames. In an intra frame, in the encoding process shown in FIG. 9, all macroblocks in a frame are encoded only by intra prediction.
フレームP3,P6,P9,・・・は直前のフレームInまたはフレームPnを参照領域として用いて符号化されるフレームを表している。たとえば、フレームP3はフレームI0を、フレームP6はフレームP3を、フレームP9はフレームP6を参照フレームとして用いて符号化処理する。 Frames P3, P6, P9,... Represent frames that are encoded using the immediately preceding frame In or frame Pn as a reference area. For example, the frame P3 is encoded using the frame I0, the frame P6 is encoded using the frame P3, and the frame P9 is encoded using the frame P6 as the reference frame.
フレームB1,B2,B4,B5,・・・は撮影順で直前のフレームInまたはフレームPnと、直後のフレームInまたはフレームPnの2フレームを参照フレームとして用いて符号化処理される。たとえば、フレームB1は、再構成画像データとして画像メモリ16に保持されているフレームI0とフレームP3の画像データを参照画像データとして符号化処理される。フレームB1は、フレームP3よりも撮影時刻は前だが、このような参照関係が可能である。同様に、たとえば、フレームB2はフレームI0とフレームP3、フレームB4はフレームP3とフレームP6、フレームB5はフレームP3とフレームP6を参照フレームとして用いて符号化処理される。
Frames B1, B2, B4, B5,... Are encoded using two frames, ie, the immediately preceding frame In or frame Pn and the immediately following frame In or frame Pn as reference frames. For example, the frame B1 is encoded using the image data of the frames I0 and P3 held in the
このように、左視点用の符号化部13cでは、フレームBnにおいて、任意の2枚の参照フレームの中から参照領域を選択し、動きベクトルを検出することができるので、より小さいSADを持つ予測画像を選択することができる。
In this way, the
次に、右目視点用の符号化部13dにおける符号化処理について、図3を用いて説明する。
(右目視点用の符号化部13dによる符号化処理)
データ保持部13bから処理対象のマクロブロックが入力されると、誤差画像生成部41は、そのマクロブロックと予測画像データとの差分画像である誤差画像データを生成する。直交変換・量子化部42は、誤差画像データを入力し、直交変換と量子化処理とを実行して、量子化された変換係数を求める。この量子化後の変換係数は、エントロピー符号化部43と、逆量子化・逆直交変換部44に供給される。
Next, the encoding process in the
(Encoding process by the
When the processing target macroblock is input from the
エントロピー符号化部43は、量子化された変換係数をエントロピー符号化し、情報量が圧縮された画像情報であるビットストリームを生成する。また、エントロピー符号化部43は、量子化後の変換係数とともに動きベクトルに関する情報をエントロピー符号化し、ビットストリーム中に動きベクトルに関する情報を含ませる。
The
一方、逆量子化・逆直交変換部44は、量子化後の変換係数に対して逆量子化と逆直交変換とを実行し、誤差画像データを復元する。そして、再構成画像生成部45は、復元された誤差画像データと誤差画像生成部41で用いた予測画像データとから、再構成画像データを生成し、ラインメモリ46に保持させる。
On the other hand, the inverse quantization / inverse orthogonal transform unit 44 performs inverse quantization and inverse orthogonal transform on the quantized transform coefficients to restore error image data. Then, the reconstructed image generation unit 45 generates reconstructed image data from the restored error image data and the predicted image data used by the error
誤差画像生成部41及び再構成画像生成部45で用いられる予測画像データのうち、画面内予測画像データの生成については、前述した左目視点用の符号化部13dの処理と同じである。一方、画面間予測画像データの生成については、前述した左目視点用の符号化部13dの処理とは異なっている。
Of the prediction image data used in the error
動き検出部48は、処理対象のマクロブロックと、同時刻に入力される左目視点の原画像データをデータ保持部13aから参照画像データとして入力する。右目視点におけるマクロブロックの動き検出を同時刻の左目視点の原画像データを用いて行う場合、被写体は2つの撮像部11,12の設置方向である水平方向に視差をもって撮影されるため、検出すべき動きベクトルは水平方向のベクトルとなる。つまり、動きベクトルの垂直方向成分は0となる。
The
図10は、右目視点用の符号化部の動き検出部が読み出す参照領域の一例を示す図である。
右目視点の画像データにおいて、動き検出部48が、処理対象のマクロブロック90に対して動き検出を行う場合について図示されている。
FIG. 10 is a diagram illustrating an example of a reference area read by the motion detection unit of the encoding unit for the right eye viewpoint.
The case where the
前述のように撮像部11,12が水平方向に配置されている場合、動き検出部48は、水平方向にのみ動きベクトルを探索する。したがって、動き検出部48が参照画像データとしてデータ保持部13aから読み出す左目視点の原画像データは、たとえば、処理対象のマクロブロック90と同位置のマクロブロック91に対して水平方向に位置する領域92となる。領域92は、マクロブロック91を中心として、たとえば、左右に16×16画素分拡張した大きさとする。なお、領域92の大きさは、撮像部11,12間の距離などに応じて適宜変更可能である。
As described above, when the
以上のような符号化部13c,13dで生成されたビットストリームは、ビットストリームメモリに書き込まれ、ビットストリーム並べ替え部17で適切な順序に並べ替えられたのち、ビットストリームメモリ14に書き戻される。
The bit streams generated by the
その後、各視点のビットストリームは、たとえば、図示しないハードディスクドライブなどの記憶装置やDVD(Digital Versatile Disc)などの記憶メディアに記憶されたり、3D対応の表示装置で復号化され3D表示される。なお、撮像装置10自体が、記憶装置、復号部または表示部などを内蔵してもよい。復号部は半導体集積回路13に内蔵するようにしてもよい。
Thereafter, the bit stream of each viewpoint is stored in, for example, a storage device such as a hard disk drive (not shown) or a storage medium such as a DVD (Digital Versatile Disc), or decoded by a 3D display device and displayed in 3D. Note that the
ところで、上記のように符号化した左目視点の画像データを復号する際には、図示しない復号部は、たとえば、符号化されている誤差画像データを復号し、その誤差画像データと1フレーム前の左目視点の復号データとから画像データを生成する。また、復号部は、ある時刻の右目視点の画像データを復号する際には、符号化されている誤差画像データを復号し、その誤差画像データと同時刻の左目視点の復号データとから画像データを復号すればよい。 By the way, when decoding the left-eye viewpoint image data encoded as described above, a decoding unit (not shown) decodes the encoded error image data, for example, and decodes the error image data and the previous frame of the error image data. Image data is generated from the decoded data of the left eye viewpoint. In addition, when decoding the right-eye viewpoint image data at a certain time, the decoding unit decodes the encoded error image data, and the image data is obtained from the error image data and the left-eye viewpoint decoded data at the same time. Should be decrypted.
以上のように本実施の形態の半導体集積回路13、符号化方法及び撮像装置10によれば、右目視点の原画像データの符号化で使用する参照画像データとして、左目視点の原画像データを使用する。これにより、画像メモリ15,16は、左目視点の原画像データを符号化する際に限定して使用することができるので、複数の視点の原画像データの符号化処理において、画像メモリに対するデータ転送量を削減できる。
As described above, according to the semiconductor integrated circuit 13, the encoding method, and the
また、これにより、単位時間あたりにデータを読み書きするデータ量を削減できるので、画像メモリとして安価な半導体メモリを用いることが可能になり撮像装置10のコストを削減できる。
This also reduces the amount of data that is read and written per unit time, so that an inexpensive semiconductor memory can be used as the image memory, and the cost of the
以上、実施の形態に基づき、本発明の半導体集積回路、符号化方法及び撮像装置の一観点について説明してきたが、これらは一例にすぎず、上記の記載に限定されるものではない。 As described above, one aspect of the semiconductor integrated circuit, the encoding method, and the imaging apparatus of the present invention has been described based on the embodiments. However, these are merely examples, and the present invention is not limited to the above description.
たとえば、図2、図3では、H.264/AVC規格に対応した符号化部13c,13dを説明したが、MPEG−2に対応した符号化部であってもよい。その場合も一方の視点の原画像データを符号化する符号化部において、動き検出を行う場合、他方の視点の原画像データを参照画像データとして用いることで、同様の効果を得ることができる。
For example, in FIGS. Although the
また、上記では2視点の場合について説明したが、3つ以上の視点の原画像データを符号化する際にも同様に適用可能である。その場合、各視点に対応したデータ保持部及び符号化部が設けられ、ある視点のマクロブロックを符号化する際の動き検出の際に、基準となる視点の原画像データを参照画像データとして用いることで同様の効果を得ることが可能である。 In the above description, the case of two viewpoints has been described. However, the present invention can be similarly applied when encoding original image data of three or more viewpoints. In that case, a data holding unit and an encoding unit corresponding to each viewpoint are provided, and the original image data of the reference viewpoint is used as reference image data in motion detection when encoding a macroblock of a certain viewpoint. It is possible to obtain the same effect.
10 撮像装置
11,12 撮像部
13 半導体集積回路
13a,13b データ保持部
13c,13d 符号化部
14 ビットストリームメモリ
15,16 画像メモリ
17 ビットストリーム並べ替え部
DESCRIPTION OF
Claims (5)
第2の視点の原画像データを符号化処理する第2の符号化部と、
を有し、
前記第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、動き検出することを特徴とする半導体集積回路。 A first encoding unit that encodes original image data of the first viewpoint;
A second encoding unit that encodes the original image data of the second viewpoint;
Have
The second encoding unit, when performing the encoding process, performs motion detection using the original image data of the first viewpoint as reference image data.
前記第1のデータ保持部は、前記第2の符号化部における処理単位の前記原画像データに対して画面上で水平方向に位置する前記第1の視点の前記原画像データを、前記参照画像データとして前記第2の符号化部に送出することを特徴とする請求項1に記載の半導体集積回路。 A first data holding unit that holds the original image data of the first viewpoint out of the first viewpoint and the second viewpoint located in a horizontal direction;
The first data holding unit converts the original image data of the first viewpoint positioned in a horizontal direction on the screen with respect to the original image data of the processing unit in the second encoding unit, and the reference image The semiconductor integrated circuit according to claim 1, wherein the data is sent as data to the second encoding unit.
前記第2のデータ保持部は、前記第2の符号化部における前記符号化処理の処理単位となる前記原画像データを一行分取得して保存する間に、取得済みの他の行の前記処理単位の前記原画像データを前記第2の符号化部に送出することを特徴とする請求項1または2に記載の半導体集積回路。 A second data holding unit that holds the original image data of the second viewpoint among the first viewpoint and the second viewpoint located in a horizontal direction;
While the second data holding unit acquires and stores one line of the original image data, which is a processing unit of the encoding process in the second encoding unit, the processing of the other acquired lines 3. The semiconductor integrated circuit according to claim 1, wherein the original image data of a unit is sent to the second encoding unit.
第2の視点の原画像データを符号化処理する第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、前記第2の視点の原画像データを符号化処理することを特徴とする符号化方法。 The first encoding unit encodes the original image data of the first viewpoint,
When performing the encoding process, the second encoding unit that encodes the original image data of the second viewpoint uses the original image data of the first viewpoint as reference image data, and performs the second viewpoint. An original encoding method for encoding original image data.
第2の視点で撮影を行い、原画像データを出力する第2の撮像部と、
前記第1の視点の前記原画像データを符号化処理する第1の符号化部と、
前記第2の視点の前記原画像データを符号化処理する第2の符号化部と、
を有し、
前記第2の符号化部は、前記符号化処理を行う際、前記第1の視点の前記原画像データを参照画像データとして、動き検出することを特徴とする撮像装置。 A first imaging unit that performs imaging from a first viewpoint and outputs original image data;
A second imaging unit that performs imaging from a second viewpoint and outputs original image data;
A first encoding unit that encodes the original image data of the first viewpoint;
A second encoding unit that encodes the original image data of the second viewpoint;
Have
The second encoding unit, when performing the encoding process, performs motion detection using the original image data of the first viewpoint as reference image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009281207A JP2011124822A (en) | 2009-12-11 | 2009-12-11 | Semiconductor integrated circuit, coding method and imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009281207A JP2011124822A (en) | 2009-12-11 | 2009-12-11 | Semiconductor integrated circuit, coding method and imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011124822A true JP2011124822A (en) | 2011-06-23 |
Family
ID=44288276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009281207A Pending JP2011124822A (en) | 2009-12-11 | 2009-12-11 | Semiconductor integrated circuit, coding method and imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011124822A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61206395A (en) * | 1985-03-11 | 1986-09-12 | Nippon Hoso Kyokai <Nhk> | Stereoscopic television image transmitting system |
JPH04196998A (en) * | 1990-11-28 | 1992-07-16 | Matsushita Electric Ind Co Ltd | Stereoscopic image encoding device |
JPH06113335A (en) * | 1992-09-29 | 1994-04-22 | Fujitsu Ltd | Picture high efficiency coding system |
JPH0759115A (en) * | 1993-07-09 | 1995-03-03 | Rca Thomson Licensing Corp | Method and apparatus for processing of stereo video signal |
JPH07325924A (en) * | 1994-06-02 | 1995-12-12 | Canon Inc | Compound eye image pickup device |
JPH0993614A (en) * | 1995-09-27 | 1997-04-04 | Nec Corp | Three-dimension image coder |
JPH11355583A (en) * | 1998-06-03 | 1999-12-24 | Hitachi Ltd | Picture signal processor |
-
2009
- 2009-12-11 JP JP2009281207A patent/JP2011124822A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61206395A (en) * | 1985-03-11 | 1986-09-12 | Nippon Hoso Kyokai <Nhk> | Stereoscopic television image transmitting system |
JPH04196998A (en) * | 1990-11-28 | 1992-07-16 | Matsushita Electric Ind Co Ltd | Stereoscopic image encoding device |
JPH06113335A (en) * | 1992-09-29 | 1994-04-22 | Fujitsu Ltd | Picture high efficiency coding system |
JPH0759115A (en) * | 1993-07-09 | 1995-03-03 | Rca Thomson Licensing Corp | Method and apparatus for processing of stereo video signal |
JPH07325924A (en) * | 1994-06-02 | 1995-12-12 | Canon Inc | Compound eye image pickup device |
JPH0993614A (en) * | 1995-09-27 | 1997-04-04 | Nec Corp | Three-dimension image coder |
JPH11355583A (en) * | 1998-06-03 | 1999-12-24 | Hitachi Ltd | Picture signal processor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10412413B2 (en) | Image processing device and image processing method | |
JP6545672B2 (en) | View synthesis prediction method and merge candidate list construction method using the same in multi-view video coding | |
EP2887663B1 (en) | Method, apparatus and system for encoding and decoding video | |
JP6042536B2 (en) | Method and apparatus for inter-view candidate derivation in 3D video coding | |
AU2013284038B2 (en) | Method and apparatus of disparity vector derivation in 3D video coding | |
US20100215104A1 (en) | Method and System for Motion Estimation | |
US20150172714A1 (en) | METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING | |
US10356417B2 (en) | Method and system of video coding using projected motion vectors | |
JP2015525997A5 (en) | ||
US20150365649A1 (en) | Method and Apparatus of Disparity Vector Derivation in 3D Video Coding | |
JP4185086B2 (en) | Image processing device | |
WO2014156648A1 (en) | Method for encoding a plurality of input images and storage medium and device for storing program | |
KR20170059902A (en) | Method and apparatus for encoding/dicoding a multi-perspective video | |
JPWO2013031071A1 (en) | Moving picture decoding apparatus, moving picture decoding method, and integrated circuit | |
JP4874578B2 (en) | Image encoding device | |
JP2011130030A (en) | Image encoding method and image encoder | |
JP4235209B2 (en) | Motion vector detection apparatus and motion vector detection method | |
JP2009218965A (en) | Image processor, imaging device mounted with the same and image reproduction device | |
JP2011124822A (en) | Semiconductor integrated circuit, coding method and imaging device | |
JP2009071642A (en) | Moving image encoding device | |
US20180124376A1 (en) | Video decoding device and image display device | |
JP2002300600A (en) | Stereoscopic image encoder and stereoscopic image decoder | |
KR102127212B1 (en) | Method and apparatus for decoding multi-view video information | |
JP2007166555A (en) | Encoding device and method | |
JP2018166306A (en) | Coding apparatus, imaging apparatus, coding method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120815 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130813 |