JP2020120322A - Distance image coding device and program of the same, and distance image decoding device and program of the same - Google Patents

Distance image coding device and program of the same, and distance image decoding device and program of the same Download PDF

Info

Publication number
JP2020120322A
JP2020120322A JP2019011278A JP2019011278A JP2020120322A JP 2020120322 A JP2020120322 A JP 2020120322A JP 2019011278 A JP2019011278 A JP 2019011278A JP 2019011278 A JP2019011278 A JP 2019011278A JP 2020120322 A JP2020120322 A JP 2020120322A
Authority
JP
Japan
Prior art keywords
image
depth
distance image
decoding
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019011278A
Other languages
Japanese (ja)
Other versions
JP7257152B2 (en
Inventor
片山 美和
Miwa Katayama
美和 片山
河北 真宏
Masahiro Kawakita
真宏 河北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019011278A priority Critical patent/JP7257152B2/en
Publication of JP2020120322A publication Critical patent/JP2020120322A/en
Application granted granted Critical
Publication of JP7257152B2 publication Critical patent/JP7257152B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a distance image coding device capable of hierarchically coding a distance image in each depth range.SOLUTION: A distance image coding device 1 comprises: basic layer coding means 12 of roughly coding a distance image to generate a basic layer coding stream; local decoding means 13 of generating a decoding image from a quantization coefficient; decoding difference image generation means 14 of generating a difference between the distance image and a decoding image as a decoding difference image; region division means 11 of dividing a region of the distance image in each depth range which has been previously set; individual depth difference image generation means 15 of generating each image in each depth range from the decoding difference image as an individual depth difference image; expansion layer coding means 16 of generating an expansion layer coding stream by finely coding the individual depth difference image in each depth range; and stream coupling means 17 of coupling the expansion layer coding stream in each basic layer coding stream and each depth range.SELECTED DRAWING: Figure 1

Description

本発明は、距離画像を符号化する距離画像符号化装置およびそのプログラム、ならびに、符号化された距離画像を復号する距離画像復号装置およびそのプログラムに関する。 The present invention relates to a distance image encoding device that encodes a distance image and a program thereof, and a distance image decoding device that decodes an encoded distance image and a program thereof.

現在、立体画像(多視点画像)を伝送するにあたり、撮影画像と撮影位置(視点位置)からの奥行情報を示す距離画像(デプスマップ)とを、あわせて伝送する方式が検討されている。国際標準においては、多視点画像と距離画像とを符号化し、復号側で任意の視点画像を生成する3D−AVC、3D−HEVC等の符号化方式が決められている(非特許文献1,2参照)。
従来、距離画像の符号化は、基本的に、動き補償をベースとした撮影画像の符号化方式をそのまま適用している。また、撮影画像の符号化方式を適用しつつ、撮影画像と距離画像との統計的性質の違い、例えば、撮影画像の方が距離画像より高周波成分が多い等に着目して、撮影画像と距離画像とで量子化のパラメータを変えて符号化する手法(非特許文献3参照)や、画質に影響する領域境界の距離画像の圧縮を抑える手法(非特許文献4参照)が開示されている。
また、撮影画像の符号化方式には、伝送路や受信装置(復号装置)の仕様により、階層的に圧縮効率を変えて符号化を行う手法が存在する(特許文献1,2、非特許文献5参照)。
At present, in transmitting a stereoscopic image (multi-viewpoint image), a method of transmitting a captured image and a distance image (depth map) indicating depth information from a shooting position (viewpoint position) together is being studied. In the international standard, a coding method such as 3D-AVC, 3D-HEVC in which a multi-view image and a distance image are coded and a decoding side generates an arbitrary viewpoint image is determined (Non-Patent Documents 1 and 2). reference).
Conventionally, the coding of a captured image based on motion compensation is basically applied as it is to the coding of a distance image. Further, while applying the encoding method of the captured image, focusing on the difference in the statistical property between the captured image and the distance image, for example, the captured image has more high-frequency components than the distance image, There is disclosed a method of encoding by changing a quantization parameter for an image (see Non-Patent Document 3) and a technique of suppressing compression of a distance image at a region boundary that affects image quality (see Non-Patent Document 4).
In addition, as a coding method of a captured image, there is a method of performing coding by hierarchically changing the compression efficiency depending on the specifications of a transmission line and a receiving device (decoding device) (Patent Documents 1 and 2, Non-Patent Documents) 5).

特開2004−350072号公報JP, 2004-350072, A 特開2007−266748号公報JP, 2007-266748, A

志水、「デプスマップを用いた三次元映像符号化の国際標準化動向」、情報処理学会研究報告、Vol.2013-AVM-82、No.11、pp.1-6(2013).Shimizu, "International Standardization Trend of 3D Video Coding Using Depth Map", IPSJ Research Report, Vol.2013-AVM-82, No.11, pp.1-6 (2013). 妹尾,山本,大井,栗田、「MPEG多視点映像符号化の標準化活動」、情報通信研究機構季報、Vol.56、Nos.1/2、pp.79-90(2010).Senoo, Yamamoto, Oi, Kurita, "Standardization activity of MPEG multi-view video coding", National Institute of Information and Communications Technology, Vol.56, Nos.1/2, pp.79-90 (2010). Saldanha, Sanchez, Marcon, Agostini, “Block-level fast coding scheme for depth maps in three-dimensional high efficiency video coding”, Journal of Electronic Imaging, Vol.27(1), 64,010502-1-4(2018).Saldanha, Sanchez, Marcon, Agostini, “Block-level fast coding scheme for depth maps in three-dimensional high efficiency video coding”, Journal of Electronic Imaging, Vol.27(1), 64,010502-1-4(2018) . Oh, Vetro, Ho, “Depth Coding Using a Boundary Reconstruction Filter for 3-D Video Systems”, IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, Vol.21, No.3, pp.350-359(2011).Oh, Vetro, Ho, “Depth Coding Using a Boundary Reconstruction Filter for 3-D Video Systems”, IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, Vol.21, No.3, pp.350-359 (2011). 筑波,永吉,花村,富永、「独立階層による空間スケーラブル符号化方式に関する検討」、情報処理学会研究報告、Vol.2004-AVM-45、pp.29-34(2004).Tsukuba, Eikichi, Hanamura, Tominaga, "A Study on Spatial Scalable Coding Scheme with Independent Layers", IPSJ Research Report, Vol.2004-AVM-45, pp.29-34 (2004).

従来の距離画像の符号化方式は、基本的に撮影画像の符号化方式をそのまま適用している。そのため、伝送路の帯域、受信装置の性能等の制限による符号化データの圧縮を考慮した場合、撮影画像を階層的に符号化するとともに、距離画像も同様に階層的に符号化する必要がある。
しかし、従来の階層化手法をそのまま距離画像に適用すると、奥行きに関係なく距離画像を単に空間的に階層化することになる。
また、人の奥行感度は、視点からの距離が近い領域については感度が高く、視点からの距離が遠い領域については感度が低いことが知られている(以下の参考文献)。
(参考文献)長田、「視覚の奥行距離情報とその奥行感度」、一般社団法人映像情報メディア学会、テレビジョン、Vol.31、No.8、pp.649-655(1977)
そのため、距離画像を単に空間的に階層化しただけでは、伝送路の帯域が狭い場合、受信装置の性能が低い場合等、すべての階層が復号されない再生画像において、視点からの距離が近い領域で画質の劣化が目立ってしまうという問題がある。
As a conventional distance image encoding method, the captured image encoding method is basically applied as it is. Therefore, in consideration of compression of encoded data due to restrictions on the bandwidth of the transmission path, performance of the receiving device, etc., it is necessary to hierarchically encode the captured image and also hierarchically encode the distance image. ..
However, if the conventional layering method is applied to the range image as it is, the range image is simply layered spatially regardless of the depth.
In addition, it is known that human depth sensitivity is high in a region close to the viewpoint and low in a region far from the viewpoint (references below).
(References) Nagata, "Visual Depth Distance Information and Its Depth Sensitivity", The Institute of Image Information and Television Engineers, Television, Vol.31, No.8, pp.649-655 (1977)
Therefore, if the distance image is simply hierarchically layered, when the bandwidth of the transmission path is narrow, when the performance of the receiving device is low, etc., in the reproduced image in which all the layers are not decoded, in the area close to the viewpoint. There is a problem that the deterioration of image quality becomes noticeable.

本発明は、このような問題に鑑みてなされたものであり、距離画像を奥行範囲ごとに階層的に符号化/復号することが可能な距離画像符号化装置およびそのプログラム、ならびに、距離画像復号装置およびそのプログラムを提供することを課題とする。 The present invention has been made in view of such a problem, and a distance image encoding device and a program thereof capable of hierarchically encoding/decoding a distance image for each depth range, and a distance image decoding device. It is an object to provide a device and its program.

前記課題を解決するため、本発明に係る距離画像符号化装置は、被写体の奥行情報を示す距離画像を符号化する距離画像符号化装置であって、基本レイヤ符号化手段と、ローカル復号手段と、復号差分画像生成手段と、領域区分手段と、奥行別差分画像生成手段と、拡張レイヤ符号化手段と、ストリーム結合手段と、を備える構成とした。 In order to solve the above-mentioned problems, a distance image encoding device according to the present invention is a distance image encoding device that encodes a distance image indicating depth information of a subject, and includes a base layer encoding means and a local decoding means. The decoding differential image generating means, the area dividing means, the depth-based differential image generating means, the enhancement layer encoding means, and the stream combining means are provided.

かかる構成において、距離画像符号化装置は、基本レイヤ符号化手段によって、距離画像を周波数成分に変換して第1量子化ステップで量子化し、量子化係数を可変長符号化することで基本レイヤ符号化ストリームを生成する。なお、この第1量子化ステップは、後記する基本レイヤ符号化手段の第2量子化ステップよりも値を大きくすることで、基本レイヤ符号化手段は、距離画像の諧調のレベルを荒く量子化して符号化する。
そして、距離画像符号化装置は、ローカル復号手段によって、量子化係数を逆量子化し、周波数成分を逆変換することで、復号側で復号される距離画像の復号画像を再現する。
In such a configuration, the distance image encoding device converts the distance image into frequency components by the base layer encoding means, quantizes the frequency components in the first quantization step, and performs variable length encoding of the quantized coefficient to thereby obtain the base layer code. Generate a stream. The first quantization step has a larger value than the second quantization step of the base layer coding means described later, so that the base layer coding means roughly quantizes the gray level of the range image. Encode.
Then, the distance image encoding device reproduces the decoded image of the distance image decoded on the decoding side by dequantizing the quantized coefficient and inversely transforming the frequency component by the local decoding means.

さらに、距離画像符号化装置は、復号差分画像生成手段によって、距離画像と復号画像との差分を復号差分画像として生成する。
また、距離画像符号化装置は、領域区分手段によって、予め設定された奥行範囲ごとに、距離画像の領域を区分する。
そして、距離画像符号化装置は、奥行別差分画像生成手段によって、復号差分画像から、領域区分手段で区分された領域ごとの画像を奥行別差分画像として生成する。
Further, the distance image coding device generates the difference between the distance image and the decoded image as the decoded difference image by the decoded difference image generating means.
Further, in the distance image coding device, the area dividing unit divides the area of the distance image for each preset depth range.
Then, the distance image encoding device uses the depth difference image generation means to generate an image for each area divided by the area division means from the decoded difference image as a depth difference image.

そして、距離画像符号化装置は、拡張レイヤ符号化手段によって、奥行範囲ごとに、対応する奥行別差分画像を周波数成分に変換して第1量子化ステップよりも小さい第2量子化ステップで量子化し、量子化係数を可変長符号化することで拡張レイヤ符号化ストリームを生成する。なお、この第2量子化ステップは基本レイヤ符号化手段の第1量子化ステップよりも値が小さいため、拡張レイヤ符号化手段は、奥行別差分画像の諧調のレベルを細かく量子化して符号化することができる。 Then, in the distance image encoding device, the enhancement layer encoding means converts the corresponding depth-specific difference image into frequency components for each depth range, and quantizes them in a second quantization step smaller than the first quantization step. A variable length coding of the quantized coefficient generates an enhancement layer coded stream. Since the value of this second quantization step is smaller than that of the first quantization step of the base layer encoding means, the enhancement layer encoding means finely quantizes and encodes the gradation level of the depth difference image. be able to.

そして、距離画像符号化装置は、ストリーム結合手段によって、基本レイヤ符号化ストリームと、奥行範囲ごとの拡張レイヤ符号化ストリームとを結合して、距離画像の符号化ストリームを生成する。
これによって、距離画像を荒く符号化した基本レイヤ符号化ストリームと、荒く符号化した距離画像と元の距離画像との差分を細かく符号化した奥行範囲ごとの複数の拡張レイヤ符号化ストリームとによって、奥行範囲ごとに階層的に符号化したストリームが生成されることになる。
なお、距離画像符号化装置は、コンピュータを、前記した各手段として機能させるためのプログラムで動作させることができる。
Then, the distance image encoding device combines the base layer encoded stream and the enhancement layer encoded stream for each depth range by the stream combining means to generate an encoded stream of the distance image.
By this, by the base layer encoded stream roughly encoded distance image, a plurality of enhancement layer encoded stream for each depth range finely encoded the difference between the coarsely encoded distance image and the original distance image, A hierarchically encoded stream is generated for each depth range.
The distance image encoding device can operate a computer with a program for causing each of the above-described means to function.

また、前記課題を解決するため、本発明に係る距離画像復号装置は、第1量子化ステップで被写体の奥行情報を示す距離画像を符号化した基本レイヤ符号化ストリームと、前記基本レイヤ符号化ストリームとして符号化された距離画像と元の距離画像との差分を第1量子化ステップよりも小さい第2量子化ステップで符号化した奥行範囲ごとの複数の拡張レイヤ符号化ストリームとを連結した符号化ストリームを復号する距離画像復号装置であって、ストリーム分離手段と、基本レイヤ復号手段と、拡張レイヤ復号手段と、画像合成手段と、を備える構成とした。 Further, in order to solve the above-mentioned problems, the distance image decoding device according to the present invention provides a base layer encoded stream obtained by encoding a distance image indicating depth information of a subject in a first quantization step, and the base layer encoded stream. Encoding by concatenating a plurality of enhancement layer coded streams for each depth range, in which the difference between the distance image coded as "1" and the original distance image is coded in the second quantization step smaller than the first quantization step A distance image decoding device for decoding a stream, comprising a stream separating means, a base layer decoding means, an enhancement layer decoding means, and an image synthesizing means.

かかる構成において、距離画像復号装置は、ストリーム分離手段によって、符号化ストリームを、基本レイヤ符号化ストリームと複数の拡張レイヤ符号化ストリームとに分離する。 In such a configuration, the distance image decoding device separates the encoded stream into the base layer encoded stream and the plurality of enhancement layer encoded streams by the stream separating means.

そして、距離画像復号装置は、基本レイヤ復号手段によって、基本レイヤ符号化ストリームを、符号化側と同じ値の大きい第1量子化ステップを用いて復号し、基本レイヤ復号画像を生成する。これによって、諧調のレベルが大まかな距離画像が生成されることになる。
また、距離画像復号装置は、拡張レイヤ復号手段によって、複数の拡張レイヤ符号化ストリームを、符号化側と同じ小さい第2量子化ステップを用いて復号し、複数の拡張レイヤ復号画像を生成する。これによって、基本レイヤ符号化ストリームとして符号化された距離画像と元の距離画像との差分が細かい諧調のレベルまで精度よく再現されることになる。
Then, the distance image decoding device decodes the base layer encoded stream by the base layer decoding means using the first quantization step having the same large value as that on the encoding side to generate a base layer decoded image. As a result, a range image having a rough gradation level is generated.
Further, the distance image decoding device uses the enhancement layer decoding means to decode the plurality of enhancement layer encoded streams using the same small second quantization step as that on the encoding side to generate a plurality of enhancement layer decoded images. As a result, the difference between the distance image encoded as the base layer encoded stream and the original distance image can be accurately reproduced up to a fine gradation level.

そして、距離画像復号装置は、画像合成手段によって、基本レイヤ復号画像と複数の拡張レイヤ復号画像とを合成し、符号化ストリームを復号した距離画像を生成する。
これによって、距離画像復号装置は、階層的に符号化ストリームを復号することができる。
なお、距離画像復号装置は、コンピュータを、前記した各手段として機能させるためのプログラムで動作させることができる。
Then, the distance image decoding device synthesizes the base layer decoded image and the plurality of enhancement layer decoded images by the image synthesizing means to generate a distance image obtained by decoding the encoded stream.
Thereby, the distance image decoding device can hierarchically decode the encoded stream.
Note that the distance image decoding device can operate a computer by a program for causing each of the above-described means to function.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、距離画像を奥行範囲ごとに階層的に符号化/復号することができる。これによって、本発明は、伝送路の帯域に応じて階層数を限定したり、距離画像復号装置のCPUパワー等の性能に応じて奥行範囲に優先順位を付けて復号することが可能な符号化ストリームを生成することができる。
The present invention has the following excellent effects.
According to the present invention, a distance image can be hierarchically encoded/decoded for each depth range. As a result, the present invention enables coding in which the number of layers is limited according to the band of the transmission path, and the depth range is prioritized for decoding according to the performance of the distance image decoding device such as the CPU power. Streams can be created.

本発明の実施形態に係る距離画像符号化装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the distance image coding apparatus which concerns on embodiment of this invention. 距離画像を説明するための説明図であって、(a)はカメラ(3眼カメラ)と被写体との配置を示す斜視図、(b)は撮影画像、(c)は距離画像を示す。It is explanatory drawing for demonstrating a distance image, (a) is a perspective view which shows arrangement|positioning of a camera (trinocular camera) and a to-be-photographed object, (b) shows a picked-up image, (c) shows a distance image. 奥行範囲の閾値を説明するための説明図である。It is explanatory drawing for demonstrating the threshold value of a depth range. (a)〜(c)は奥行範囲ごとのマスクデータを示す図である。(A)-(c) is a figure which shows the mask data for every depth range. 本発明の実施形態に係る距離画像符号化装置の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the distance image coding apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る距離画像復号装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the distance image decoding apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る距離画像復号装置の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the distance image decoding apparatus which concerns on embodiment of this invention. 奥行範囲の他の閾値を説明するための説明図である。It is explanatory drawing for demonstrating the other threshold value of a depth range.

以下、本発明の実施形態について図面を参照して説明する。
〔距離画像符号化装置の構成〕
図1を参照して、本発明の実施形態に係る距離画像符号化装置1の構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Configuration of range image encoding device]
The configuration of the distance image encoding device 1 according to the embodiment of the present invention will be described with reference to FIG.

距離画像符号化装置1は、被写体の奥行情報を示す距離画像(デプスマップ)を、奥行きに応じて階層的に符号化するものである。
距離画像は、被写体を撮影した被写体空間における視点位置から被写体までの距離を、画素ごとに予め定めた奥行最小値から奥行最大値までの範囲に割り当てた画素値で表した画像である。なお、被写体を撮影した撮影画像が静止画像であれば、距離画像は1枚の画像である。また、撮影画像が動画像であれば、距離画像も撮影画像のフレームに対応した画像となる。
The distance image encoding device 1 hierarchically encodes a distance image (depth map) indicating depth information of a subject according to depth.
The distance image is an image in which the distance from the viewpoint position in the subject space where the subject is photographed to the subject is represented by pixel values assigned to a range from a depth minimum value to a depth maximum value that is predetermined for each pixel. If the captured image of the subject is a still image, the distance image is a single image. If the captured image is a moving image, the distance image will also be an image corresponding to the frame of the captured image.

ここで、図2を参照して、距離画像の例について説明する。
図2(a)に示すように、距離画像は、被写体空間上の被写体(ここでは、O〜O)をカメラ(3眼カメラ)Cで撮影した画像のうち2枚の画像(ステレオ画像)の視差に応じて画素ごとに画素値を割り当てることで生成することができる。
カメラCは、左眼カメラCと中央カメラCと右眼カメラCとを備え、それぞれを水平方向に等間隔に配置して構成している。
中央カメラCは、撮影画像として被写体を撮影するカメラである。
左眼カメラCおよび右眼カメラCは、視差を求めるための画像を撮影するカメラである。
Here, an example of the range image will be described with reference to FIG. 2.
As shown in FIG. 2A, the range image is two images (stereo image) of images obtained by photographing a subject (here, O 1 to O 3 ) in the subject space with a camera (trinocular camera) C. It can be generated by allocating a pixel value for each pixel according to the parallax of FIG.
The camera C includes a left-eye camera C L , a central camera C C, and a right-eye camera C R , which are arranged at equal intervals in the horizontal direction.
The central camera C C is a camera that captures a subject as a captured image.
The left-eye camera C L and the right-eye camera C R are cameras that capture images for obtaining parallax.

図2(b)は、図2(a)において中央カメラCで撮影した撮影画像Pを示している。距離画像は、左眼カメラCで撮影した撮影画像(不図示)と、右眼カメラCで撮影した撮影画像(不図示)とでマッチングを行い、対応する画素の水平方向の距離に応じた視差に対応する画素値を撮影画像Pの画素位置に割り当てたものである。
例えば、図2(b)の撮影画像Pに対応する奥行情報は、図2(c)のグレー画像で表される距離画像Dとなる。
ここでは、距離画像Dは、視点位置に近いほど白く、視点位置から遠いほど黒く表示している。例えば、距離画像の諧調を256階調としたとき、距離画像は、奥行最小値を“0”、奥行最大値を“255”とする。
なお、ここでは、距離画像をカメラCで撮影したステレオ画像から生成したものとしたが、投射したレーザの往復時間から距離を測定する距離画像センサ等、一般的な手法によって取得したものでもよい。
FIG. 2 (b) shows a photographic image P taken by the center camera C C in FIG. 2 (a). The distance image is matched with a photographed image (not shown) photographed by the left-eye camera C L and a photographed image (not shown) photographed by the right-eye camera C R , depending on the horizontal distance of the corresponding pixel. The pixel value corresponding to the parallax is assigned to the pixel position of the captured image P.
For example, the depth information corresponding to the captured image P in FIG. 2B is the distance image D represented by the gray image in FIG. 2C.
Here, the distance image D is displayed in white as it is closer to the viewpoint position and as black as it is farther from the viewpoint position. For example, when the gradation of the distance image is 256 gradations, the depth image has a minimum depth value of “0” and a maximum depth value of “255”.
Note that the distance image is generated here from the stereo image captured by the camera C, but it may be acquired by a general method such as a distance image sensor that measures the distance from the round trip time of the projected laser.

図1に戻って、距離画像符号化装置1の構成について説明を続ける。
図1に示すように、距離画像符号化装置1は、閾値設定手段10と、領域区分手段11と、基本レイヤ符号化手段12と、ローカル復号手段13と、復号差分画像生成手段14と、奥行別差分画像生成手段15と、拡張レイヤ符号化手段16と、ストリーム結合手段17と、を備える。
Returning to FIG. 1, the description of the configuration of the distance image encoding device 1 will be continued.
As shown in FIG. 1, the distance image encoding device 1 includes a threshold setting unit 10, a region dividing unit 11, a base layer encoding unit 12, a local decoding unit 13, a decoded difference image generating unit 14, and a depth. The differential image generation unit 15, the enhancement layer encoding unit 16, and the stream combining unit 17 are provided.

閾値設定手段10は、距離画像の奥行きを階層的に区分するための閾値を設定するものである。閾値は、距離画像を奥行範囲ごとに区分した奥行階層の境界を示す奥行値である。なお、ここでは、奥行階層数を“4”として説明するが、少なくとも“2”以上であればよい。
この閾値設定手段10は、距離画像において、最も小さい奥行値を探索し、その奥行値に予め定めた値を加算した奥行値を、第1の閾値Tと設定する。
これによって、視点位置(奥行最小値)からの距離が最も近い被写体を含んだ奥行範囲を特定することができる。
The threshold setting means 10 sets a threshold for hierarchically classifying the depth of the distance image. The threshold value is a depth value indicating the boundary of the depth layer in which the distance image is divided for each depth range. Note that, here, the number of depth layers is described as “4”, but it may be at least “2” or more.
The threshold value setting means 10 searches for the smallest depth value in the distance image, and sets the depth value obtained by adding a predetermined value to the depth value as the first threshold value T 1 .
This makes it possible to specify the depth range that includes the subject whose distance from the viewpoint position (minimum depth) is closest.

また、閾値設定手段10は、閾値Tから奥行最大値まで範囲を、予め定めた奥行階層数(ここでは、“4”)から“1”を減算した数で等分して、第2以降の閾値を設定する。
すなわち、閾値設定手段10は、閾値Tを設定後、以下の式(1)により、閾値T(iは2以上奥行階層数未満の整数)を設定する。なお、Dmaxは奥行最大値を示し、nは奥行階層数を示す。
Further, the threshold value setting means 10 equally divides the range from the threshold value T 1 to the maximum depth value by the number obtained by subtracting “1” from the predetermined depth hierarchy number (here, “4”), and the second and later. Set the threshold of.
That is, the threshold value setting unit 10 sets the threshold value T 1 and then sets the threshold value T i (i is an integer of 2 or more and less than the number of depth layers) by the following equation (1). Note that D max indicates the maximum depth value, and n indicates the number of depth layers.

これによって、図3に示すように、奥行最小値から閾値Tまでの奥行範囲を第1階層L、閾値Tから閾値Tまでの奥行範囲を第2階層L、閾値Tから閾値Tまでの奥行範囲を第3階層L、閾値Tから奥行最大値までの奥行範囲を第4階層Lとして、距離画像を階層的に区分することができる。このとき、第1階層Lの閾値間の距離はd(=T)、第2階層L〜第4階層Lのそれぞれの閾値間の距離はすべてd(=(Dmax−T)/3)となる。
閾値設定手段10は、設定した閾値(T〜T)を領域区分手段11に出力する。
なお、入力される距離画像が動画像に対応した連続したフレームで構成されている場合、閾値設定手段10は、フレームごとに閾値を設定することとしてもよいし、最初のフレームだけで閾値を設定することとしてもよい。
また、最も直近に配置される被写体までの距離が既知であれば、閾値設定手段10は、外部から、閾値Tを入力することとしてもよい。
As a result, as shown in FIG. 3, the depth range from the depth minimum value to the threshold T 1 is the first layer L 1 , the depth range from the threshold T 1 to the threshold T 2 is the second layer L 2 , and the threshold T 2 is The depth image up to the threshold value T 3 is the third layer L 3 , and the depth range from the threshold value T 3 to the maximum depth value is the fourth layer L 4 , whereby the distance image can be hierarchically divided. At this time, the distance between the thresholds of the first layer L 1 is d 1 (=T 1 ), and the distance between the thresholds of the second layer L 2 to the fourth layer L 4 is d m (=(D max − T 1 )/3).
The threshold setting means 10 outputs the set thresholds (T 1 to T 3 ) to the area dividing means 11.
When the input distance image is composed of continuous frames corresponding to the moving image, the threshold setting unit 10 may set the threshold for each frame, or set the threshold only for the first frame. It may be done.
In addition, if the distance to the closest object is known, the threshold setting unit 10 may input the threshold T 1 from the outside.

領域区分手段11は、設定された閾値で特定される奥行範囲ごとに、距離画像の領域を区分するものである。
この領域区分手段11は、奥行範囲ごとに、距離画像の対応する奥行値を有する画素の集合を、奥行範囲に対応する領域を示す領域情報とする。
ここでは、領域区分手段11は、奥行範囲ごとの領域情報をマスクデータとして生成する。具体的には、領域区分手段11は、奥行範囲ごとに、距離画像の画素値が奥行範囲に含まれる画素の画素値を“1”、それ以外の画素値を“0”としてマスクデータを生成する。なお、2つの奥行範囲を区分する閾値はいずれか一方の奥行範囲に含ませることとする。
The area dividing unit 11 divides the area of the distance image for each depth range specified by the set threshold.
The area dividing unit 11 sets, for each depth range, a set of pixels having a corresponding depth value in the distance image as area information indicating an area corresponding to the depth range.
Here, the area dividing unit 11 generates area information for each depth range as mask data. Specifically, the area dividing unit 11 generates mask data for each depth range by setting the pixel value of the pixel in which the pixel value of the distance image is included in the depth range to “1” and the other pixel values to “0”. To do. It should be noted that the threshold value that separates the two depth ranges is included in one of the depth ranges.

例えば、図2に示すように被写体O〜Oに対する距離画像が図2(c)の距離画像Dであって、図3に示すように被写体O〜Oが、第1階層L〜第3階層Lのそれぞれの奥行範囲に存在していたとする。
この場合、領域区分手段11は、第1階層Lについては、距離画像Dにおいて、奥行最小値以上、閾値T未満の奥行範囲の画素の画素値を“1”、それ以外の画素値を“0”として、図4(a)に示すマスクデータMを生成する。
また、領域区分手段11は、第2階層Lについては、距離画像Dにおいて、閾値T以上、閾値T未満の奥行範囲の画素の画素値を“1”、それ以外の画素値を“0”として、図4(b)に示すマスクデータMを生成する。
また、領域区分手段11は、第3階層Lについては、距離画像Dにおいて、閾値T以上、閾値T未満の奥行範囲の画素の画素値を“1”、それ以外の画素値を“0”として、図4(c)に示すマスクデータMを生成する。
なお、領域区分手段11は、第4階層Lについては、距離画像Dにおいて、閾値T以上、奥行最大値以下の奥行範囲の画素の画素値を“1”、それ以外の画素値を“0”としてマスクデータ(不図示)を生成する。
これによって、領域区分手段11は、閾値で特定される奥行範囲ごとに、距離画像の領域を区分することができる。
For example, as shown in FIG. 2, the distance image with respect to the objects O 1 to O 3 is the distance image D of FIG. 2C, and as shown in FIG. 3, the objects O 1 to O 3 have the first layer L 1 and it was present in each of the depth range between the third layer L 3.
In this case, for the first layer L 1 , the area dividing unit 11 sets “1” as the pixel value of the pixels in the depth range that is greater than or equal to the minimum depth value and less than the threshold value T 1 in the distance image D, and sets the other pixel values as the pixel values. As “0”, the mask data M 1 shown in FIG. 4A is generated.
In the distance image D, the area dividing unit 11 sets the pixel value of the pixels in the depth range equal to or more than the threshold value T 1 and less than the threshold value T 2 to “1” for the second layer L 2 , and sets the other pixel values to “1”. The mask data M 2 shown in FIG. 4B is generated as 0″.
In the distance image D, the area dividing unit 11 sets the pixel values of the pixels in the depth range equal to or larger than the threshold T 2 and smaller than the threshold T 3 to “1” for the third layer L 3 , and sets the other pixel values to “1”. The mask data M 3 shown in FIG. 4C is generated as 0″.
In the distance image D, the area dividing unit 11 sets the pixel value of the pixels in the depth range equal to or larger than the threshold value T 3 and equal to or smaller than the maximum depth value to “1” for the fourth layer L 4 , and sets the other pixel values to “1”. Mask data (not shown) is generated as 0″.
As a result, the area dividing unit 11 can divide the area of the distance image for each depth range specified by the threshold value.

領域区分手段11は、生成した領域情報(マスクデータ)を奥行別差分画像生成手段15に出力する。ここでは、領域区分手段11は、視点位置からの距離が近い順に、それぞれの奥行範囲の領域情報を、奥行別差分画像生成手段15A,15B,15C,15Dに出力する。 The area division unit 11 outputs the generated area information (mask data) to the depth-based difference image generation unit 15. Here, the area dividing unit 11 outputs the area information of each depth range to the depth difference image generating units 15A, 15B, 15C, and 15D in the order of increasing distance from the viewpoint position.

基本レイヤ符号化手段12は、距離画像を周波数成分に変換して量子化し、量子化係数を可変長符号化することで基本レイヤの符号化ストリーム(基本レイヤ符号化ストリーム)を生成するものである。
ここで、基本レイヤは、距離画像全体を符号化対象とする階層を示す。また、後記する拡張レイヤは、距離画像を奥行範囲ごとに符号化対象とする階層(奥行階層)を示す。
なお、基本レイヤ符号化手段12は、拡張レイヤ符号化手段16よりも大きい量子化ステップ(第1量子化ステップ)で、諧調のレベルを荒くして距離画像の量子化を行う。
基本レイヤ符号化手段12は、直交変換手段120と、量子化手段121と、可変長符号化手段122と、を備える。
The base layer encoding means 12 generates a base layer coded stream (base layer coded stream) by converting a distance image into frequency components, quantizing them, and variable-length coding the quantized coefficients. ..
Here, the base layer indicates a layer in which the entire range image is an encoding target. Further, the enhancement layer described below indicates a layer (depth layer) in which the distance image is to be encoded for each depth range.
The base layer coding unit 12 performs quantization of the range image by roughening the gradation level in a quantization step (first quantization step) larger than that of the enhancement layer coding unit 16.
The base layer coding unit 12 includes an orthogonal transforming unit 120, a quantizing unit 121, and a variable length coding unit 122.

直交変換手段120は、距離画像を所定の大きさのブロック(例えば、8×8画素)ごとに直交変換し、周波数成分に変換するものである。この直交変換は、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)である。直交変換手段120は、算出した周波数成分である変換係数を量子化手段121に出力する。 The orthogonal transformation unit 120 orthogonally transforms the distance image for each block (for example, 8×8 pixels) having a predetermined size, and transforms it into frequency components. This orthogonal transform is, for example, a discrete cosine transform (DCT). The orthogonal transforming unit 120 outputs the transform coefficient, which is the calculated frequency component, to the quantizing unit 121.

量子化手段121は、直交変換手段31が算出した周波数成分である変換係数を、予め設定した量子化ステップ(第1量子化ステップ)で量子化するものである。この量子化ステップは、変換係数を離散化するときの刻み幅(量子化幅)であって、拡張レイヤ符号化手段16で用いる量子化ステップよりも大きい値とする。なお、この量子化ステップは、予め設定された値であってもよいし、外部から量子化パラメータで指定される値であってもよい。
量子化手段121は、変換係数を量子化ステップのサイズで除算し、整数値に丸めることで、量子化係数を生成する。
量子化手段121は、量子化した変換係数(量子化係数)を、可変長符号化手段122およびローカル復号手段13に出力する。
The quantizing means 121 quantizes the transform coefficient which is the frequency component calculated by the orthogonal transforming means 31 in a preset quantizing step (first quantizing step). This quantization step is a step size (quantization width) when the transform coefficient is discretized, and has a larger value than the quantization step used by the enhancement layer encoding means 16. The quantization step may be a preset value or a value externally designated by a quantization parameter.
The quantizing means 121 generates a quantized coefficient by dividing the transform coefficient by the size of the quantization step and rounding it to an integer value.
The quantizing means 121 outputs the quantized transform coefficient (quantized coefficient) to the variable length coding means 122 and the local decoding means 13.

可変長符号化手段122は、量子化手段121で生成された量子化係数を、可変長符号化して、ストリームデータ(基本レイヤ符号化ストリーム)を生成するものである。なお、可変長符号化手段122における可変長符号化は、ハフマン符号化、算術符号化等、一般的な方式を用いればよい。
可変長符号化手段122は、生成した基本レイヤ符号化ストリームをストリーム結合手段17に出力する。
The variable length coding unit 122 performs variable length coding on the quantized coefficient generated by the quantization unit 121 to generate stream data (base layer coded stream). The variable length coding in the variable length coding means 122 may be a general method such as Huffman coding or arithmetic coding.
The variable length coding means 122 outputs the generated base layer coded stream to the stream combining means 17.

ローカル復号手段13は、基本レイヤ符号化手段12で生成された量子化係数を逆量子化し、周波数成分を逆変換することで距離画像を復号した復号画像を生成するものである。この復号画像は、復号側(動画像復号装置)で、基本レイヤの距離画像として復号される画像を、符号化側(距離画像符号化装置)でローカルに再現した画像である。
ローカル復号手段13は、逆量子化手段130と、逆直交変換手段131と、を備える。
The local decoding means 13 inversely quantizes the quantized coefficient generated by the base layer encoding means 12, and inversely transforms the frequency component to generate a decoded image obtained by decoding the distance image. This decoded image is an image that is locally reproduced on the encoding side (distance image encoding device), on the decoding side (moving image decoding device), as an image that is decoded as a distance image of the base layer.
The local decoding means 13 includes an inverse quantization means 130 and an inverse orthogonal transformation means 131.

逆量子化手段130は、基本レイヤ符号化手段12の量子化手段121が量子化した量子化係数に対して、量子化手段121で行った処理の逆の処理である逆量子化を行うものである。すなわち、逆量子化手段130は、量子化係数に量子化ステップのサイズを乗算することで、周波数成分である変換係数を生成する。
逆量子化手段130は、逆量子化後の変換係数を、逆直交変換手段131に出力する。
The inverse quantization means 130 performs inverse quantization, which is the inverse processing of the processing performed by the quantization means 121, on the quantized coefficient quantized by the quantization means 121 of the base layer encoding means 12. is there. That is, the inverse quantization unit 130 multiplies the quantized coefficient by the size of the quantization step to generate a transform coefficient that is a frequency component.
The inverse quantization unit 130 outputs the inversely quantized transform coefficient to the inverse orthogonal transform unit 131.

逆直交変換手段131は、逆量子化手段130が逆量子化した変換係数に対して、基本レイヤ符号化手段12の直交変換手段120で行った処理の逆の処理である逆直交変換(例えば、逆離散コサイン変換)を行うものである。この逆直交変換手段131で変換されたブロックごとの画像によって、復号側(動画像復号装置)で基本レイヤの距離画像として復号される画像(復号画像)を再現することができる。
逆直交変換手段131は、生成した復号画像を復号差分画像生成手段14に出力する。
The inverse orthogonal transform unit 131 performs an inverse orthogonal transform (for example, an inverse orthogonal transform) that is a process reverse to the process performed by the orthogonal transform unit 120 of the base layer coding unit 12 on the transform coefficient dequantized by the inverse quantization unit 130. Inverse Discrete Cosine Transform) is performed. An image (decoded image) that is decoded as a distance image of the base layer on the decoding side (moving image decoding device) can be reproduced by the image for each block converted by the inverse orthogonal transform unit 131.
The inverse orthogonal transformation unit 131 outputs the generated decoded image to the decoded difference image generation unit 14.

復号差分画像生成手段14は、符号化対象である元の距離画像と、ローカル復号手段13で復号された復号画像との差分を復号差分画像として生成するものである。
この復号差分画像生成手段14は、距離画像から復号画像を減算することで、符号化対象である元の距離画像と、基本レイヤで符号化される距離画像との差分を生成する。
復号差分画像生成手段14は、生成した復号差分画像を奥行別差分画像生成手段15(15A,15B,15C,15D)に出力する。
The decoded difference image generation means 14 generates a difference between the original distance image to be encoded and the decoded image decoded by the local decoding means 13 as a decoded difference image.
The decoded difference image generation unit 14 subtracts the decoded image from the distance image to generate a difference between the original distance image to be encoded and the distance image encoded in the base layer.
The decoded difference image generation means 14 outputs the generated decoded difference image to the depth-specific difference image generation means 15 (15A, 15B, 15C, 15D).

奥行別差分画像生成手段15は、復号差分画像生成手段14で生成された復号差分画像から、領域区分手段11で区分された領域ごとの画像を奥行別差分画像として生成するものである。
ここでは、奥行別差分画像生成手段15を、奥行範囲ごとに、拡張レイヤ数(奥行階層数)に応じた複数の奥行別差分画像生成手段15A,15B,15C,15Dで構成している。
奥行別差分画像生成手段15Aは、復号差分画像のうちで、領域区分手段11で区分された視点位置からの距離が最も近い奥行範囲の領域を、奥行別差分画像として生成するものである。
奥行別差分画像生成手段15Bは、復号差分画像のうちで、領域区分手段11で区分された視点位置からの距離が2番目に近い奥行範囲の領域を、奥行別差分画像として生成するものである。
同様に、奥行別差分画像生成手段15C,15Dは、それぞれ復号差分画像のうちで、領域区分手段11で区分された視点位置からの距離が3番目,4番目に近い奥行範囲の領域を、奥行別差分画像として生成するものである。
The depth-by-depth difference image generation means 15 generates an image for each area divided by the area division means 11 as a depth-by-depth difference image from the decoded difference image generated by the decoded difference image generation means 14.
Here, the depth-based difference image generation means 15 is configured by a plurality of depth-based difference image generation means 15A, 15B, 15C, and 15D corresponding to the number of enhancement layers (depth layers) for each depth range.
The depth-difference image generation unit 15A is configured to generate, as the depth-difference image, the region of the depth range having the shortest distance from the viewpoint position divided by the region division unit 11 in the decoded difference image.
The depth-difference image generation unit 15B is configured to generate, as the depth-difference image, a region in the depth range having the second closest distance from the viewpoint position divided by the region division unit 11 in the decoded difference image. ..
Similarly, the depth-by-depth difference image generation units 15C and 15D respectively determine the depth range regions whose distances from the viewpoint position divided by the region division unit 11 are the third and fourth distances from the decoded difference images. It is generated as another difference image.

なお、奥行別差分画像生成手段15A〜15Dは、復号差分画像から、所定の奥行範囲の領域の奥行別差分画像を生成する点で同じ処理を行う。
具体的には、奥行別差分画像生成手段15A〜15Dは、それぞれ、復号差分画像生成手段14で生成された復号差分画像に、領域区分手段11から出力される領域情報であるマスクデータを乗算することで、奥行範囲ごとの奥行別差分画像を生成する。
奥行別差分画像生成手段15は、生成した奥行範囲ごとの奥行別差分画像を拡張レイヤ符号化手段16に出力する。
It should be noted that the depth-specific difference image generation means 15A to 15D perform the same process in that the depth-specific difference images of the region of the predetermined depth range are generated from the decoded difference image.
Specifically, the depth-by-depth difference image generation units 15A to 15D each multiply the decoded difference image generated by the decoded difference image generation unit 14 by the mask data which is the region information output from the region classification unit 11. Thus, a depth-specific difference image for each depth range is generated.
The depth-specific difference image generation unit 15 outputs the generated depth-specific difference image for each depth range to the enhancement layer encoding unit 16.

拡張レイヤ符号化手段16は、奥行別差分画像生成手段15で生成された奥行別差分画像を周波数成分に変換して基本レイヤ符号化手段12よりも小さい量子化ステップ(第2量子化ステップ)で量子化し、量子化係数を可変長符号化することで拡張レイヤの符号化ストリーム(拡張レイヤ符号化ストリーム)を生成するものである。
ここでは、拡張レイヤ符号化手段16を、奥行範囲ごとに、拡張レイヤ数に応じた複数の拡張レイヤ符号化手段16A,16B,16C,16Dで構成している。
The enhancement layer encoding unit 16 converts the depth-specific difference image generated by the depth-specific difference image generating unit 15 into a frequency component, and performs the quantization step (second quantization step) smaller than that of the base layer encoding unit 12. Quantization and variable length coding of the quantized coefficient generate an encoded stream of the enhancement layer (enhancement layer encoded stream).
Here, the enhancement layer coding means 16 is configured by a plurality of enhancement layer coding means 16A, 16B, 16C, 16D according to the number of enhancement layers for each depth range.

拡張レイヤ符号化手段16Aは、奥行別差分画像生成手段15(15A)で生成される視点位置からの距離が最も近い奥行範囲の奥行別差分画像を符号化するものである。
拡張レイヤ符号化手段16Bは、奥行別差分画像生成手段15(15B)で生成される視点位置からの距離が2番目に近い奥行範囲の奥行別差分画像を符号化するものである。
同様に、拡張レイヤ符号化手段16C,16Dは、それぞれ奥行別差分画像生成手段15(15C,15D)で生成される視点位置からの距離が3番目,4番目に近い奥行範囲の奥行別差分画像を符号化するものである。
The enhancement layer encoding unit 16A encodes the depth-specific difference image in the depth range having the shortest distance from the viewpoint position generated by the depth-specific difference image generating unit 15 (15A).
The enhancement layer encoding unit 16B encodes the depth-specific difference image in the depth range having the second closest distance from the viewpoint position generated by the depth-specific difference image generation unit 15 (15B).
Similarly, the enhancement layer encoding units 16C and 16D respectively depth-difference images in the depth range whose distances from the viewpoint position generated by the depth-difference image generation unit 15 (15C and 15D) are the third and fourth closest, respectively. Is to be encoded.

なお、拡張レイヤ符号化手段16A〜16Dは、奥行別差分画像を符号化する点で同じ処理を行う。
拡張レイヤ符号化手段16A〜16Dは、同じ構成であるため、ここでは、拡張レイヤ符号化手段16Aの構成を例に説明する。
拡張レイヤ符号化手段16Aは、直交変換手段160と、量子化手段161と、可変長符号化手段162と、を備える。
Note that the enhancement layer coding units 16A to 16D perform the same processing in that the difference images for each depth are coded.
Since the enhancement layer coding means 16A to 16D have the same configuration, the configuration of the enhancement layer coding means 16A will be described here as an example.
The enhancement layer coding unit 16A includes an orthogonal transformation unit 160, a quantization unit 161, and a variable length coding unit 162.

直交変換手段160は、奥行別差分画像を所定の大きさのブロックごとに直交変換し、周波数成分に変換するものである。この直交変換は、例えば、離散コサイン変換(DCT)である。直交変換手段160は、算出した周波数成分である変換係数を量子化手段161に出力する。 The orthogonal transformation means 160 orthogonally transforms the depth difference image for each block of a predetermined size, and transforms it into frequency components. This orthogonal transform is, for example, a discrete cosine transform (DCT). The orthogonal transform means 160 outputs the transform coefficient, which is the calculated frequency component, to the quantizing means 161.

量子化手段161は、直交変換手段160が算出した周波数成分である変換係数を、予め設定した量子化ステップ(第2量子化ステップ)で量子化するものである。量子化手段161は、基本レイヤ符号化手段12で用いる量子化ステップよりも小さい値の量子化ステップで諧調のレベルを細かくして量子化する。
量子化手段161は、量子化した変換係数(量子化係数)を、可変長符号化手段162に出力する。
The quantizing unit 161 quantizes the transform coefficient, which is the frequency component calculated by the orthogonal transforming unit 160, in a preset quantizing step (second quantizing step). The quantizing means 161 finely quantizes the gradation level with a quantizing step having a smaller value than the quantizing step used in the base layer encoding means 12.
The quantizing means 161 outputs the quantized transform coefficient (quantized coefficient) to the variable length coding means 162.

可変長符号化手段162は、量子化手段161で生成された量子化係数を、可変長符号化して、ストリームデータ(拡張レイヤ符号化ストリーム)を生成するものである。
可変長符号化手段162は、生成した拡張レイヤ符号化ストリームをストリーム結合手段17に出力する。
このように、拡張レイヤ符号化手段16A〜16Dは、それぞれ奥行範囲ごとに奥行別差分画像を符号化し、符号化した拡張レイヤ符号化ストリームをストリーム結合手段17に出力する。
The variable length coding unit 162 performs variable length coding on the quantized coefficient generated by the quantization unit 161 to generate stream data (enhancement layer coded stream).
The variable length coding unit 162 outputs the generated enhancement layer coded stream to the stream combining unit 17.
In this way, the enhancement layer encoding units 16A to 16D encode the depth-specific difference images for each depth range, and output the encoded enhancement layer encoded stream to the stream combining unit 17.

ストリーム結合手段17は、基本レイヤ符号化手段12で生成された基本レイヤ符号化ストリームと、拡張レイヤ符号化手段16で生成された奥行範囲ごとの拡張レイヤ符号化ストリームとを結合するものである。
このストリーム結合手段17は、基本レイヤ符号化ストリームと奥行範囲ごとの拡張レイヤ符号化ストリームとを連結する。このとき、ストリーム結合手段17は、基本レイヤ符号化ストリームの次に拡張レイヤ符号化ストリームを連結する。また、ストリーム結合手段17は、複数の拡張レイヤ符号化ストリームについては、視点位置に近い奥行範囲の拡張レイヤ符号化ストリームほど前にして連結を行う。ここでは、ストリーム結合手段17は、拡張レイヤ符号化手段16A,16B,16C,16Dの順に、生成した拡張レイヤ符号化ストリームを基本レイヤ符号化ストリームに連結する。これによって、復号側では、基本レイヤ符号化ストリームの次に、優先度の高い拡張レイヤ符号化ストリームを復号することができる。
The stream combining means 17 combines the base layer coded stream generated by the base layer coding means 12 and the enhancement layer coded stream for each depth range generated by the enhancement layer coding means 16.
The stream combining unit 17 connects the base layer coded stream and the enhancement layer coded stream for each depth range. At this time, the stream combining unit 17 connects the enhancement layer coded stream next to the base layer coded stream. In addition, the stream combining unit 17 connects the plurality of enhancement layer coded streams earlier in the depth range closer to the viewpoint position. Here, the stream combining unit 17 connects the generated enhancement layer coded stream to the base layer coded stream in the order of the enhancement layer coding units 16A, 16B, 16C and 16D. As a result, the decoding side can decode the enhancement layer coded stream with the highest priority next to the base layer coded stream.

さらに、ストリーム結合手段17は、レイヤの構成(例えば、拡張レイヤ〔奥行階層〕の数)、距離画像の大きさ(水平画素数、垂直画素数)、基本レイヤ符号化ストリームのデータ長、各拡張レイヤ符号化ストリームのデータ長等のストリームの構成情報をヘッダ情報として生成する。
そして、ストリーム結合手段17は、基本レイヤ符号化ストリームと奥行範囲ごとの拡張レイヤ符号化ストリームとを連結したストリームに、ヘッダ情報を付加して、符号化ストリームを生成する。
なお、入力される距離画像が動画像に対応した連続したフレームで構成される場合、ストリーム結合手段17は、フレーム数だけ符号化ストリームを連続させて出力する。
Furthermore, the stream combining unit 17 configures the layers (for example, the number of extension layers [depth layers]), the size of the distance image (the number of horizontal pixels and the number of vertical pixels), the data length of the base layer encoded stream, and each extension. Stream configuration information such as the data length of the layer encoded stream is generated as header information.
Then, the stream combining unit 17 adds header information to the stream obtained by concatenating the base layer coded stream and the enhancement layer coded stream for each depth range to generate a coded stream.
When the input range image is composed of continuous frames corresponding to the moving image, the stream combining unit 17 continuously outputs the encoded streams by the number of frames.

以上説明したように距離画像符号化装置1を構成することで、距離画像符号化装置1は、距離画像全体を荒く量子化して符号化した基本レイヤ符号化ストリームと、距離画像を奥行範囲ごとに細かく量子化した符号化ストリームとによって、距離画像を階層的に符号化することができる。 By configuring the distance image encoding device 1 as described above, the distance image encoding device 1 allows the distance image encoding device 1 to roughly quantize and encode the entire distance image and encode the distance image for each depth range. The distance image can be hierarchically encoded by the finely quantized encoded stream.

これによって、符号化ストリームを復号する距離画像復号装置では、CPUパワー等の性能に応じて、基本レイヤと視点位置からの距離が最も近い拡張レイヤのみを復号する等、階層的に距離画像を復号することができる。
また、符号化ストリームは階層的に符号化されているため、伝送路上の帯域に応じて、優先度の低いレイヤの伝送を行わないようにすることができる。この場合でも、視点位置に近い奥行範囲のレイヤは、伝送対象となるため、復号装置において、精度よく奥行きを再現することができる。
なお、距離画像符号化装置1は、コンピュータを、前記した各手段として機能させるためのプログラム(距離画像符号化プログラム)で動作させることができる。
As a result, a range image decoding device that decodes an encoded stream decodes a range image hierarchically, such as decoding only the enhancement layer that is the closest to the base layer in distance from the viewpoint position, according to performance such as CPU power. can do.
Further, since the coded stream is hierarchically coded, it is possible to prevent transmission of a layer having a low priority according to the band on the transmission path. Even in this case, since the layer in the depth range close to the viewpoint position is the transmission target, the depth can be accurately reproduced in the decoding device.
It should be noted that the distance image encoding device 1 can operate a computer with a program (distance image encoding program) for causing each of the above-described means to function.

〔距離画像符号化装置の動作〕
次に、図5を参照(構成については、適宜図1参照)して、本発明の実施形態に係る距離画像符号化装置1の動作について説明する。なお、ここでは、距離画像は、動画像に対応した連続したフレームで構成されているものとする。
ステップS1において、閾値設定手段10は、距離画像の奥行きを階層的に区分するための閾値を設定する。この閾値によって、距離画像を、奥行最小値から奥行最大値までの範囲で、閾値を境界とする奥行範囲ごとに階層化することができる。
ステップS2において、領域区分手段11は、ステップS1で設定された閾値で特定される奥行範囲ごとに、距離画像の領域を区分する。ここでは、領域区分手段11は、奥行範囲ごとの領域情報をマスクデータとして生成する。
[Operation of range image encoding device]
Next, with reference to FIG. 5 (for the configuration, refer to FIG. 1 as needed), the operation of the distance image encoding device 1 according to the embodiment of the present invention will be described. Note that, here, the distance image is assumed to be composed of continuous frames corresponding to the moving image.
In step S1, the threshold setting means 10 sets a threshold for hierarchically dividing the depth of the distance image. With this threshold, the distance image can be hierarchized in the range from the minimum depth value to the maximum depth value for each depth range with the threshold as a boundary.
In step S2, the area dividing unit 11 divides the area of the distance image for each depth range specified by the threshold value set in step S1. Here, the area dividing unit 11 generates area information for each depth range as mask data.

ステップS3において、基本レイヤ符号化手段12は、基本レイヤとして、距離画像全体を符号化する。このステップS3では、基本レイヤ符号化手段12は、直交変換手段120によって、距離画像を所定の大きさのブロックごとに直交変換(DCT変換)し、周波数成分である変換係数を生成する。そして、基本レイヤ符号化手段12は、量子化手段121によって、拡張レイヤよりも大きい量子化ステップで変換係数を量子化し、量子化係数を生成する。そして、基本レイヤ符号化手段12は、可変長符号化手段122によって、量子化係数を可変長符号化し、ストリームデータ(基本レイヤ符号化ストリーム)を生成する。 In step S3, the base layer encoding means 12 encodes the entire distance image as a base layer. In this step S3, the base layer coding means 12 performs orthogonal transform (DCT transform) on the range image for each block of a predetermined size by the orthogonal transform means 120 to generate transform coefficients which are frequency components. Then, the base layer coding means 12 quantizes the transform coefficient by the quantizing means 121 in a quantization step larger than that of the enhancement layer, and generates a quantized coefficient. Then, the base layer coding means 12 performs variable length coding on the quantized coefficient by the variable length coding means 122 to generate stream data (base layer coded stream).

ステップS4において、ローカル復号手段13は、ステップS3で量子化によって生成された量子化係数から、基本レイヤ符号化手段12で符号化した距離画像を復号した復号画像を生成する。このステップS4では、ローカル復号手段13は、逆量子化手段130によって、量子化手段121で生成された量子化係数を逆量子化し、周波数成分である変換係数を生成する。そして、ローカル復号手段13は、逆直交変換手段131によって、変換係数を逆直交変換し、復号画像を生成する。
ステップS5において、復号差分画像生成手段14は、符号化対象である元の距離画像と、ステップS4で生成された復号画像との差分を復号差分画像として生成する。
In step S4, the local decoding means 13 generates a decoded image obtained by decoding the distance image encoded by the base layer encoding means 12 from the quantized coefficient generated by the quantization in step S3. In step S4, the local decoding unit 13 dequantizes the quantized coefficient generated by the quantizing unit 121 by the dequantizing unit 130 to generate a transform coefficient that is a frequency component. Then, the local decoding unit 13 performs inverse orthogonal transform on the transform coefficient by the inverse orthogonal transform unit 131 to generate a decoded image.
In step S5, the decoded difference image generation unit 14 generates a difference between the original distance image to be encoded and the decoded image generated in step S4 as a decoded difference image.

ステップS6において、奥行別差分画像生成手段15は、ステップS5で生成された復号差分画像から、ステップS2で区分された奥行範囲ごとの領域の画像を奥行別差分画像として生成する。ここでは、奥行別差分画像生成手段15は、ステップS5で生成された復号差分画像に、ステップS2で生成された奥行範囲ごとのマスクデータを乗算することで、奥行範囲ごとの奥行別差分画像を生成する。 In step S6, the depth-by-depth difference image generation unit 15 generates an image of a region for each depth range divided in step S2 as a depth-by-depth difference image from the decoded difference image generated in step S5. Here, the depth-specific difference image generation unit 15 multiplies the decoded difference image generated in step S5 by the mask data for each depth range generated in step S2 to generate the depth-specific difference image for each depth range. To generate.

ステップS7において、拡張レイヤ符号化手段16は、拡張レイヤとして、ステップS6で生成された奥行別差分画像を奥行範囲ごとに符号化する。このステップS7では、拡張レイヤ符号化手段16は、ステップS3と同様の符号化処理によって、奥行別差分画像を符号化し、ストリームデータ(拡張レイヤ符号化ストリーム)を生成する。なお、拡張レイヤ符号化手段16の符号化処理内における量子化は、ステップS3の基本レイヤ符号化手段12における量子化よりも量子化ステップの値を小さくして行う。 In step S7, the enhancement layer encoding unit 16 encodes the depth-specific difference image generated in step S6 for each depth range as an enhancement layer. In step S7, the enhancement layer encoding unit 16 encodes the depth difference image by the same encoding process as in step S3 to generate stream data (enhancement layer encoded stream). The quantization in the encoding process of the enhancement layer encoding means 16 is performed with a smaller value of the quantization step than the quantization in the base layer encoding means 12 in step S3.

ステップS8において、ストリーム結合手段17は、ステップS3で生成した基本レイヤ符号化ストリームと、ステップS7で生成された奥行範囲ごとの拡張レイヤ符号化ストリームとを結合して、符号化ストリームを生成する。
ここで、次フレームがさらに入力される場合(ステップS9でYes)、距離画像符号化装置1は、ステップS2に戻って動作を続ける。
一方、入力が終了した場合(ステップS9でNo)、距離画像符号化装置1は、動作を終了する。なお、距離画像が、静止画像の撮影画像に対応した画像の場合、ステップS9の動作は省略することができる。
In step S8, the stream combining unit 17 combines the base layer coded stream generated in step S3 and the enhancement layer coded stream for each depth range generated in step S7 to generate a coded stream.
Here, when the next frame is further input (Yes in step S9), the distance image encoding device 1 returns to step S2 and continues the operation.
On the other hand, when the input is completed (No in step S9), the distance image encoding device 1 ends the operation. If the distance image is an image corresponding to the captured image of the still image, the operation of step S9 can be omitted.

〔距離画像復号装置の構成〕
次に、図6を参照して、本発明の実施形態に係る距離画像復号装置2の構成について説明する。
[Configuration of range image decoding device]
Next, the configuration of the distance image decoding device 2 according to the embodiment of the present invention will be described with reference to FIG.

距離画像復号装置2は、距離画像符号化装置1(図1)で符号化された距離画像の符号化ストリームを復号するものである。
図6に示すように、距離画像復号装置2は、ストリーム分離手段20と、基本レイヤ復号手段21と、拡張レイヤ復号手段22と、画像合成手段23と、を備える。
The distance image decoding device 2 decodes the encoded stream of the distance image encoded by the distance image encoding device 1 (FIG. 1).
As shown in FIG. 6, the distance image decoding device 2 includes a stream separating unit 20, a base layer decoding unit 21, an enhancement layer decoding unit 22, and an image synthesizing unit 23.

ストリーム分離手段20は、符号化ストリームを、基本レイヤ符号化ストリームと、複数の拡張レイヤ符号化ストリームとに分離するものである。
このストリーム分離手段20は、符号化ストリームのヘッダ情報を参照して、符号化ストリームから、基本レイヤ符号化ストリームと、複数の拡張レイヤ符号化ストリームとを分離して抽出する。
ストリーム分離手段20は、分離した基本レイヤ符号化ストリームを基本レイヤ復号手段21に出力する。また、ストリーム分離手段20は、分離した拡張レイヤ符号化ストリームを拡張レイヤ復号手段22に出力する。ここでは、ストリーム分離手段20は、複数の拡張レイヤ符号化ストリームを、入力した順、すなわち、優先度の高い(視点位置からの距離が近い)順に、拡張レイヤ復号手段22A,22B,22C,22Dに出力する。
The stream separating means 20 separates the encoded stream into a base layer encoded stream and a plurality of enhancement layer encoded streams.
The stream separating means 20 refers to the header information of the coded stream and separates and extracts the base layer coded stream and the plurality of enhancement layer coded streams from the coded stream.
The stream separating means 20 outputs the separated base layer encoded stream to the base layer decoding means 21. Further, the stream separating means 20 outputs the separated enhancement layer encoded stream to the enhancement layer decoding means 22. Here, the stream separation unit 20 receives the plurality of enhancement layer encoded streams in the order of input, that is, in the order of high priority (closest distance from the viewpoint position), the enhancement layer decoding units 22A, 22B, 22C, 22D. Output to.

基本レイヤ復号手段21は、ストリーム分離手段20で分離された基本レイヤ符号化ストリームを復号するものである。
基本レイヤ復号手段21は、可変長復号手段210と、逆量子化手段211と、逆直交変換手段212と、を備える。
The base layer decoding means 21 decodes the base layer encoded stream separated by the stream separating means 20.
The base layer decoding unit 21 includes a variable length decoding unit 210, an inverse quantization unit 211, and an inverse orthogonal transformation unit 212.

可変長復号手段210は、基本レイヤ符号化ストリームに対して、可変長符号化手段122(図1)の逆変換となる可変長復号を行うものである。この可変長復号によって、基本レイヤ符号化ストリームから量子化係数が復号される。
可変長復号手段210は、復号した量子化係数を逆量子化手段211に出力する。
The variable length decoding unit 210 performs variable length decoding on the base layer coded stream, which is the inverse transform of the variable length coding unit 122 (FIG. 1). By this variable length decoding, the quantized coefficient is decoded from the base layer encoded stream.
The variable length decoding means 210 outputs the decoded quantized coefficient to the inverse quantization means 211.

逆量子化手段211は、可変長復号手段210で復号された量子化係数に対して、量子化手段121(図1)で行った処理の逆の処理である逆量子化を行うものである。すなわち、逆量子化手段130は、量子化係数に量子化手段121と同じ量子化ステップのサイズを乗算することで、周波数成分である変換係数を生成する。
逆量子化手段211は、逆量子化後の変換係数を、逆直交変換手段212に出力する。
The inverse quantizer 211 performs inverse quantization, which is the reverse of the process performed by the quantizer 121 (FIG. 1), on the quantized coefficient decoded by the variable length decoder 210. That is, the inverse quantization unit 130 multiplies the quantized coefficient by the size of the same quantization step as the quantization unit 121 to generate a transform coefficient that is a frequency component.
The inverse quantization unit 211 outputs the inversely quantized transform coefficient to the inverse orthogonal transform unit 212.

逆直交変換手段212は、逆量子化手段211が逆量子化した変換係数に対して、直交変換手段120(図1)で行った処理の逆の処理である逆直交変換(例えば、逆離散コサイン変換)を行うものである。この逆直交変換手段212で変換されたブロックごとの画像によって、基本レイヤ符号化ストリームを復号した画像(基本レイヤ復号画像)が生成される。この基本レイヤ復号画像は、単体でも距離画像となる画像であるが、荒く量子化されて符号化/復号された画像であるため、奥行きの精度は低い。
逆直交変換手段212は、生成した基本レイヤ復号画像を画像合成手段23に出力する。
また、逆直交変換手段212は、基本レイヤ復号画像を生成した後、拡張レイヤ復号手段22(22A)に拡張レイヤ符号化ストリームの復号開始を指示する。
The inverse orthogonal transform unit 212 performs an inverse orthogonal transform (for example, an inverse discrete cosine) that is the reverse process of the process performed by the orthogonal transform unit 120 (FIG. 1) on the transform coefficient inversely quantized by the inverse quantization unit 211. Conversion). An image obtained by decoding the base layer encoded stream (base layer decoded image) is generated by the image for each block converted by the inverse orthogonal transform unit 212. This base layer decoded image is an image that becomes a range image even by itself, but since it is an image that is roughly quantized and encoded/decoded, the depth accuracy is low.
The inverse orthogonal transform unit 212 outputs the generated base layer decoded image to the image synthesizing unit 23.
After generating the base layer decoded image, the inverse orthogonal transformation unit 212 instructs the enhancement layer decoding unit 22 (22A) to start decoding the enhancement layer encoded stream.

拡張レイヤ復号手段22は、ストリーム分離手段20で分離された拡張レイヤ符号化ストリームを復号するものである。
ここでは、拡張レイヤ復号手段22を、奥行範囲ごとに、拡張レイヤ数に応じた複数の拡張レイヤ復号手段22A,22B,22C,22Dで構成している。なお、ここでは、拡張レイヤ復号手段22を、距離画像符号化装置1(図1)の拡張レイヤ符号化手段16と同じ数の手段で構成しているが、拡張レイヤ復号手段22の数は、“1”以上、拡張レイヤのレイヤ数以下であればよい。ただし、距離画像を精度よく復号するには、拡張レイヤ復号手段22を、距離画像符号化装置1(図1)の拡張レイヤ符号化手段16と同じ数の手段で構成することが好ましい。
The enhancement layer decoding means 22 decodes the enhancement layer coded stream separated by the stream separating means 20.
Here, the enhancement layer decoding means 22 is composed of a plurality of enhancement layer decoding means 22A, 22B, 22C, 22D according to the number of enhancement layers for each depth range. Here, the enhancement layer decoding means 22 is composed of the same number of means as the enhancement layer coding means 16 of the distance image coding device 1 (FIG. 1), but the number of enhancement layer decoding means 22 is It may be "1" or more and less than the number of enhancement layers. However, in order to decode the distance image with high accuracy, it is preferable that the enhancement layer decoding means 22 is configured by the same number of means as the enhancement layer encoding means 16 of the distance image encoding device 1 (FIG. 1).

拡張レイヤ復号手段22Aは、ストリーム分離手段20で分離された優先度が最も高い拡張レイヤ符号化ストリームを復号した拡張レイヤ復号画像(奥行別差分画像)を生成するものである。
拡張レイヤ復号手段22Bは、ストリーム分離手段20で分離された優先度が2番目に高い拡張レイヤ符号化ストリームを復号した拡張レイヤ復号画像(奥行別差分画像)を生成するものである。
同様に、拡張レイヤ復号手段22C,22Dは、それぞれ、ストリーム分離手段20で分離された優先度が3番目,4番目に高い拡張レイヤ符号化ストリームを復号した拡張レイヤ復号画像(奥行別差分画像)を生成するものである。
The enhancement layer decoding means 22A is for generating an enhancement layer decoded image (depth difference image) obtained by decoding the enhancement layer encoded stream having the highest priority separated by the stream separation means 20.
The enhancement layer decoding means 22B is for generating the enhancement layer decoded image (depth difference image) obtained by decoding the enhancement layer coded stream having the second highest priority separated by the stream separation means 20.
Similarly, the enhancement layer decoding means 22C and 22D respectively decode the enhancement layer decoded image (depth difference image) obtained by decoding the enhancement layer encoded streams separated by the stream separating means 20 and having the third and fourth highest priorities. Is generated.

なお、拡張レイヤ復号手段22A〜22Dは、拡張レイヤ符号化ストリームから奥行別差分画像を復号する点で同じ処理を行う。
拡張レイヤ復号手段22A〜22Dは、同じ構成であるため、ここでは、拡張レイヤ復号手段22Aの構成を例に説明する。
拡張レイヤ復号手段22Aは、可変長復号手段220と、逆量子化手段221と、逆直交変換手段222と、を備える。
Note that the enhancement layer decoding means 22A to 22D perform the same process in that the depth-specific difference image is decoded from the enhancement layer encoded stream.
Since the enhancement layer decoding means 22A to 22D have the same configuration, the configuration of the enhancement layer decoding means 22A will be described here as an example.
The enhancement layer decoding unit 22A includes a variable length decoding unit 220, an inverse quantization unit 221, and an inverse orthogonal transformation unit 222.

可変長復号手段220、逆量子化手段221および逆直交変換手段222は、復号対象が拡張レイヤ符号化ストリームである点を除いて、それぞれ、可変長復号手段210、逆量子化手段211および逆直交変換手段212と同じ処理を行うものであるため、詳細な説明は省略する。ただし、逆量子化手段221で使用する量子化ステップは、逆量子化手段211で使用する量子化ステップよりも小さい値で、量子化手段161(図1)で使用する量子化ステップと同じである。
逆量子化手段221は、復号した拡張レイヤ復号画像(奥行別差分画像)を画像合成手段23に出力する。
なお、拡張レイヤ復号手段22Aは、基本レイヤ復号手段21(逆直交変換手段212)から、復号開始を指示された段階で、拡張レイヤ符号化ストリームの復号を開始する。
The variable length decoding unit 220, the dequantization unit 221, and the inverse orthogonal transformation unit 222 respectively include the variable length decoding unit 210, the dequantization unit 211, and the anti-orthogonal unit except that the decoding target is the enhancement layer coded stream. Since the same processing as that of the conversion means 212 is performed, detailed description will be omitted. However, the quantization step used by the inverse quantization means 221 has a smaller value than the quantization step used by the inverse quantization means 211, and is the same as the quantization step used by the quantization means 161 (FIG. 1). ..
The inverse quantization unit 221 outputs the decoded enhancement layer decoded image (depth-specific difference image) to the image synthesis unit 23.
The enhancement layer decoding means 22A starts decoding the enhancement layer coded stream at the stage when the base layer decoding means 21 (inverse orthogonal transformation means 212) instructs the start of decoding.

また、拡張レイヤ復号手段22Aは、優先度が1番目の拡張レイヤ符号化ストリームを復号した後、優先度の低い拡張レイヤ復号手段22Bに、優先度が2番目の拡張レイヤ符号化ストリームの復号開始を指示する。
このように、拡張レイヤ復号手段22A〜22Dは、優先度の高い拡張レイヤ符号化ストリームから順番に復号し、復号した奥行別差分画像を画像合成手段23に出力する。
Further, the enhancement layer decoding means 22A decodes the enhancement layer coded stream having the first priority, and then starts decoding the enhancement layer coded stream having the second priority to the enhancement layer decoding means 22B having the low priority. Instruct.
In this way, the enhancement-layer decoding units 22A to 22D sequentially decode the enhancement-layer encoded streams with higher priorities, and output the decoded depth-specific difference images to the image synthesizing unit 23.

画像合成手段23は、基本レイヤ復号手段21で復号された基本レイヤ復号画像と、拡張レイヤ復号手段22で復号された複数の拡張レイヤ復号画像(奥行別差分画像)とを合成するものである。
この画像合成手段23は、基本レイヤ復号画像に複数の拡張レイヤ復号画像を加算することで、奥行精度を高めた距離画像を生成する。
The image synthesizing unit 23 synthesizes the base layer decoded image decoded by the base layer decoding unit 21 and the plurality of enhancement layer decoded images (depth difference images) decoded by the enhancement layer decoding unit 22.
The image synthesizing unit 23 adds a plurality of enhancement layer decoded images to the base layer decoded image to generate a depth image with increased depth accuracy.

なお、画像合成手段23は、動画像の撮影画像に対応する距離画像を復号する場合には、撮影画像の1フレームの周期内で距離画像を復号する必要がある。そこで、距離画像復号装置2は、図示を省略したタイマ等の計時手段によって1フレーム分の符号化ストリームが入力された時点からの時間を計測する。そして、画像合成手段23は、フレーム周期の残り時間が、1レイヤ分の拡張フレームの復号時間に満たない場合、基本レイヤの距離画像と、その時点までに復号されている拡張レイヤの奥行別差分画像とを合成し、符号化ストリームに対する距離画像として出力する。なお、1レイヤ分の拡張フレームの復号時間は、例えば、固定的に予め定めた時間であってもよいし、基本フレームの復号時間としてもよい。 When decoding the range image corresponding to the captured image of the moving image, the image composition unit 23 needs to decode the range image within the cycle of one frame of the captured image. Therefore, the distance image decoding device 2 measures the time from the time point when the encoded stream for one frame is input by a timing unit such as a timer (not shown). Then, when the remaining time of the frame period is less than the decoding time of the enhancement frame for one layer, the image synthesizing means 23 determines the depth image difference between the depth image of the base layer and the enhancement layer decoded up to that point. The image is combined and output as a distance image for the encoded stream. It should be noted that the decoding time of the extension frame for one layer may be, for example, a fixed fixed time or the decoding time of the basic frame.

以上説明したように距離画像復号装置2を構成することで、距離画像復号装置2は、距離画像符号化装置1で距離画像を奥行範囲ごとに階層的に符号化された符号化ストリームを復号することができる。
また、距離画像復号装置2は、CPUパワー等の性能に応じて、基本レイヤと視点位置からの距離が最も近い拡張レイヤのみを優先的に復号する等、階層的に距離画像を復号することができる。
By configuring the distance image decoding device 2 as described above, the distance image decoding device 2 decodes the encoded stream in which the distance image encoding device 1 hierarchically encodes the distance image for each depth range. be able to.
Further, the distance image decoding device 2 can hierarchically decode the distance image, such as preferentially decoding only the enhancement layer having the closest distance from the base layer and the viewpoint position according to the performance such as CPU power. it can.

〔距離画像復号装置の動作〕
次に、図7を参照(構成については、適宜図6参照)して、本発明の実施形態に係る距離画像復号装置2の動作について説明する。なお、ここでは、距離画像は、動画像に対応した連続したフレームで構成されているものとする。
ステップS10において、ストリーム分離手段20は、フレームごとに、符号化ストリームを基本レイヤ符号化ストリームと複数の拡張レイヤ符号化ストリームとに分離する。なお、ここでは、距離画像復号装置2は、図示を省略した計時手段によって1フレーム分の符号化ストリームが入力された時点からの時間を計測する
[Operation of range image decoding device]
Next, the operation of the distance image decoding device 2 according to the embodiment of the present invention will be described with reference to FIG. 7 (for the configuration, refer to FIG. 6 as appropriate). Note that, here, the distance image is assumed to be composed of continuous frames corresponding to the moving image.
In step S10, the stream separating means 20 separates the coded stream into a base layer coded stream and a plurality of enhancement layer coded streams for each frame. Note that, here, the distance image decoding device 2 measures the time from the time point when the encoded stream for one frame is input by the timing means (not shown).

ステップS11において、基本レイヤ復号手段21は、ステップS10で分離された基本レイヤ符号化ストリームを復号する。このステップS11では、基本レイヤ復号手段21は、可変長復号手段210によって、基本レイヤ符号化ストリームを可変長復号することで量子化係数を生成する。そして、基本レイヤ復号手段21は、逆量子化手段211によって、逆量子化を行うことで、周波数成分である変換係数を生成する。そして、基本レイヤ復号手段21は、逆直交変換手段212によって、変換係数を逆直交変換(例えば、逆離散コサイン変換)することで、基本レイヤ符号化ストリームの復号結果となる画像(基本レイヤ復号画像)を生成する。 In step S11, the base layer decoding means 21 decodes the base layer coded stream separated in step S10. In step S11, the base layer decoding means 21 generates a quantized coefficient by performing variable length decoding on the base layer encoded stream by the variable length decoding means 210. Then, the base layer decoding means 21 performs inverse quantization by the inverse quantization means 211 to generate transform coefficients which are frequency components. Then, the base layer decoding unit 21 performs an inverse orthogonal transform (for example, an inverse discrete cosine transform) on the transform coefficient by the inverse orthogonal transform unit 212 to obtain an image that is a decoding result of the base layer encoded stream (base layer decoded image). ) Is generated.

ステップS12において、画像合成手段23は、フレーム周期の残り時間が、1レイヤ分の拡張フレームの復号時間以上あるか否かを判定する。
ここで、フレーム周期の残り時間が拡張フレームの復号時間未満の場合(ステップS12でNo)、距離画像復号装置2は、ステップS18に動作を進める。
一方、フレーム周期の残り時間が拡張フレームの復号時間以上の場合(ステップS12でYes)、ステップS13において、拡張レイヤ復号手段22は、拡張レイヤを識別するための変数iを初期化(ここでは、“1”に設定)する。
In step S12, the image synthesizing unit 23 determines whether the remaining time of the frame cycle is equal to or longer than the decoding time of the extended frame for one layer.
Here, when the remaining time of the frame period is less than the decoding time of the extension frame (No in step S12), the distance image decoding device 2 advances the operation to step S18.
On the other hand, when the remaining time of the frame cycle is equal to or longer than the decoding time of the enhancement frame (Yes in step S12), the enhancement layer decoding unit 22 initializes a variable i for identifying the enhancement layer (here, in step S13). Set to "1").

ステップS14において、拡張レイヤ復号手段22は、ステップS10で分離されたi番目の優先度の拡張レイヤ符号ストリームを復号する。このステップS14では、拡張レイヤ復号手段22は、ステップS11と同様の符号化処理によって、拡張レイヤ符号ストリームを復号し、拡張レイヤ復号画像を生成する。
ここで、フレーム周期の残り時間が拡張フレームの復号時間未満の場合(ステップS15でNo)、距離画像復号装置2は、ステップS18に動作を進める。
一方、フレーム周期の残り時間が拡張フレームの復号時間以上の場合(ステップS15でYes)、ステップS16において、拡張レイヤ復号手段22は、変数iに“1”を加算する。
In step S14, the enhancement layer decoding means 22 decodes the i-th priority enhancement layer codestream separated in step S10. In this step S14, the enhancement layer decoding means 22 decodes the enhancement layer code stream by the same encoding process as in step S11 to generate an enhancement layer decoded image.
Here, when the remaining time of the frame period is less than the decoding time of the extension frame (No in step S15), the distance image decoding device 2 advances the operation to step S18.
On the other hand, when the remaining time of the frame period is equal to or longer than the decoding time of the enhancement frame (Yes in step S15), the enhancement layer decoding means 22 adds "1" to the variable i in step S16.

ここで、拡張レイヤ復号手段22は、まだ、変数iが拡張レイヤ数(ここでは、“4”)に達していない場合(ステップS17でNo)、ステップS14に戻って、次の階層の拡張レイヤ符号ストリームを復号する。
一方、変数iが拡張レイヤ数に達した場合(ステップS17でYes)、拡張レイヤ復号手段22における復号処理を終了し、距離画像復号装置2は、ステップS18に動作を進める。
Here, if the variable i has not reached the number of enhancement layers (here, “4”) (No in step S17), the enhancement layer decoding unit 22 returns to step S14 and returns to the enhancement layer of the next layer. Decode the code stream.
On the other hand, when the variable i has reached the number of enhancement layers (Yes in step S17), the decoding process in the enhancement layer decoding means 22 ends, and the distance image decoding device 2 advances the operation to step S18.

ステップS18において、画像合成手段23は、ステップS11で復号された基本レイヤ復号画像と、ステップS14でフレーム期間内に復号された拡張レイヤ復号画とを合成することで、距離画像を生成する。
ここで、次フレームの符号化ストリームがさらに入力される場合(ステップS19でYes)、距離画像復号装置2は、ステップS10に戻って動作を続ける。
一方、入力が終了した場合(ステップS19でNo)、距離画像復号装置2は、動作を終了する。
なお、復号対象の距離画像が、静止画像の撮影画像に対応した画像の場合、ステップS9の動作は省略することができる。また、ステップS12,S15の動作も省略することができる。
In step S18, the image synthesizing unit 23 synthesizes the base layer decoded image decoded in step S11 and the enhancement layer decoded image decoded in the frame period in step S14 to generate a distance image.
Here, when the encoded stream of the next frame is further input (Yes in step S19), the distance image decoding device 2 returns to step S10 and continues the operation.
On the other hand, when the input is completed (No in step S19), the distance image decoding device 2 ends the operation.
If the distance image to be decoded is an image corresponding to the captured image of the still image, the operation of step S9 can be omitted. Also, the operations of steps S12 and S15 can be omitted.

〔変形例〕
以上、本発明の実施形態に係る距離画像符号化装置1および距離画像復号装置2の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
[Modification]
Although the configurations and operations of the range image encoding device 1 and the range image decoding device 2 according to the embodiment of the present invention have been described above, the present invention is not limited to this embodiment.

(変形例その1)
ここでは、距離画像符号化装置1の閾値設定手段10は、視点位置から直近の閾値を設定し、それよりも遠方の奥行値を等分するように閾値を設定した。
しかし、閾値は、図8に示すように、奥行きが奥に行くほど、奥行範囲を広くするように設定してもよい。この場合、視点位置から直近の閾値Tは、少なくとも奥行最大値を奥行階層数で除算した値よりも小さい値とする。
具体的には、閾値設定手段10は、閾値Tを設定後、以下の式(2)により、閾値T(iは2以上奥行階層数未満の整数)を設定する。ここで、dは視点位置から区分した1番目の奥行範囲の距離を示す。すなわち、d=Tである。また、rは“1”より大きい整数を示す。
(Modification 1)
Here, the threshold value setting means 10 of the distance image encoding device 1 sets the threshold value closest to the viewpoint position, and sets the threshold value so as to equally divide the depth value farther than that.
However, as shown in FIG. 8, the threshold value may be set such that the depth range becomes wider as the depth becomes deeper. In this case, the threshold value T 1 closest to the viewpoint position is at least smaller than the value obtained by dividing the maximum depth value by the number of depth layers.
Specifically, the threshold setting means 10 sets the threshold T 1 and then sets the threshold T i (i is an integer of 2 or more and less than the number of depth layers) by the following equation (2). Here, d 1 indicates the distance of the first depth range divided from the viewpoint position. That is, d 1 =T 1 . Further, r represents an integer larger than “1”.

奥行最大値をDmaxとしたとき、奥行範囲の距離dは、以下の式(3)の関係を有する。なお、nは奥行階層数を示し、jは視点位置からの奥行範囲の順番を示す番号(1以上n以下)を示す。また、a=d=Tである。 When the depth maximum value is D max , the depth range distance d j has the relationship of the following expression (3). Note that n indicates the number of depth layers, and j indicates a number (1 or more and n or less) indicating the order of the depth range from the viewpoint position. Also, a=d 1 =T 1 .

よって、式(2)のrは、以下の式(4)の方程式の解として求めることができる。 Therefore, r of the equation (2) can be obtained as a solution of the equation of the following equation (4).

(変形例その2)
ここでは、距離画像符号化装置1の閾値設定手段10は、距離画像から、あるいは、外部から指定されることで閾値を設定した。
しかし、これらの閾値は、距離画像符号化装置1の内部メモリ等に予め設定されているものとしてもよい。この場合、距離画像符号化装置1は、構成から閾値設定手段10を省略してもよい。また、この場合、領域区分手段11は、予め設定されている閾値によって、距離画像の領域を区分すればよい。
(Modification 2)
Here, the threshold value setting unit 10 of the distance image encoding device 1 sets the threshold value by being specified from the distance image or externally.
However, these thresholds may be set in advance in the internal memory of the distance image encoding device 1 or the like. In this case, the distance image encoding device 1 may omit the threshold setting means 10 from the configuration. Further, in this case, the area dividing unit 11 may divide the area of the distance image by a preset threshold value.

(変形例その3)
ここでは、距離画像符号化装置1の奥行別差分画像生成手段15を、拡張レイヤ数に応じた複数の奥行別差分画像生成手段15A,15B,15C,15Dで、並列に動作させる構成とした。また、拡張レイヤ符号化手段16も、拡張レイヤ数に応じた複数の拡張レイヤ符号化手段16A,16B,16C,16Dで、並列に動作させる構成とした。
しかし、奥行別差分画像生成手段15および拡張レイヤ符号化手段16は、それぞれ、必ずしも並列に動作を行う構成とする必要はない。
すなわち、奥行別差分画像生成手段15および拡張レイヤ符号化手段16は、それぞれ、単一の構成とし、拡張レイヤごとに順番に動作することとしてもよい。
(Modification 3)
Here, the depth-difference image generation means 15 of the distance image encoding device 1 is configured to be operated in parallel by a plurality of depth-difference image generation means 15A, 15B, 15C, 15D according to the number of enhancement layers. Further, the enhancement layer coding means 16 is also configured to be operated in parallel by the plurality of enhancement layer coding means 16A, 16B, 16C, 16D according to the number of enhancement layers.
However, the depth-based difference image generation unit 15 and the enhancement layer encoding unit 16 do not necessarily have to be configured to operate in parallel.
That is, the depth-by-depth difference image generating unit 15 and the enhancement layer encoding unit 16 may each have a single configuration and operate sequentially for each enhancement layer.

(変形例その4)
ここで、距離画像復号装置2の拡張レイヤ復号手段22を、拡張レイヤ数に応じた複数の拡張レイヤ復号手段22A,22B,22C,22Dで、優先度の高い拡張レイヤから順に動作させる構成とした。
しかし、距離画像復号装置2は、CPUパワー等の性能に余裕があれば、基本レイヤ復号手段21を含め、拡張レイヤ復号手段22A,22B,22C,22Dを、並列に動作させる構成としてもよい。
(Modification 4)
Here, the enhancement layer decoding means 22 of the distance image decoding device 2 is configured to operate in order from the enhancement layer having the highest priority among the plurality of enhancement layer decoding means 22A, 22B, 22C, 22D according to the number of enhancement layers. ..
However, the distance image decoding device 2 may be configured to operate the enhancement layer decoding means 22A, 22B, 22C, 22D including the base layer decoding means 21 in parallel as long as there is a margin in performance such as CPU power.

(変形例その5)
ここでは、距離画像符号化装置1は、奥行別差分画像生成手段15および拡張レイヤ符号化手段16において、視点位置からの距離が近い奥行範囲ほど、優先度の高い拡張レイヤに割り当てて符号化した。そして、距離画像符号化装置1は、ストリーム結合手段17で、基本レイヤ符号化ストリームの次にその優先度に応じて拡張レイヤ符号化ストリームを連結することとした。
しかし、拡張レイヤの優先度は、必ずしも視点位置からの距離が近いことで定める必要はない。例えば、光線再生型の立体ディスプレイで画像を表示する場合、スクリーン面近傍で表示される奥行範囲ほど優先度の高い拡張レイヤに割り当てることが好ましい。また、例えば、インテグラル立体方式で画像を表示する場合、レンズアレイ面近傍で表示される奥行範囲ほど優先度の高い拡張レイヤに割り当てることが好ましい。
これによって、高画質に表示したい奥行範囲を優先的に符号化/復号することができる。
(Modification 5)
Here, in the distance image encoding device 1, in the depth difference image generating means 15 and the enhancement layer encoding means 16, the depth range closer to the viewpoint position is assigned to the enhancement layer having higher priority and encoded. .. Then, in the distance image coding device 1, the stream combining means 17 connects the enhancement layer coded stream next to the base layer coded stream according to its priority.
However, the priority of the enhancement layer does not necessarily need to be set because the distance from the viewpoint position is short. For example, when displaying an image on a ray reproduction type three-dimensional display, it is preferable that the depth range displayed near the screen surface be assigned to an enhancement layer having a higher priority. Further, for example, when displaying an image in the integral stereoscopic method, it is preferable that the depth range displayed near the lens array surface is assigned to the enhancement layer having higher priority.
Thereby, it is possible to preferentially encode/decode the depth range desired to be displayed with high image quality.

1 距離画像符号化装置
10 閾値設定手段
11 領域区分手段
12 基本レイヤ符号化手段
120 直交変換手段
121 量子化手段
122 可変長符号化手段
13 ローカル復号手段
130 逆量子化手段
131 逆直交変換手段
14 復号差分画像生成手段
15,15A,15B,15C,15D 奥行別差分画像生成手段
16,16A,16B,16C,16D 拡張レイヤ符号化手段
160 直交変換手段
161 量子化手段
162 可変長符号化手段
17 ストリーム結合手段
2 距離画像復号手段
20 ストリーム分離手段
21 基本レイヤ復号手段
210 可変長復号手段
211 逆量子化手段
212 逆直交変換手段
22,22A,22B,22C,22D 拡張レイヤ復号手段
23 画像合成手段
DESCRIPTION OF SYMBOLS 1 Distance image coding apparatus 10 Threshold setting means 11 Area dividing means 12 Base layer coding means 120 Orthogonal transformation means 121 Quantization means 122 Variable length coding means 13 Local decoding means 130 Inverse quantization means 131 Inverse orthogonal transformation means 14 Decoding Difference image generating means 15, 15A, 15B, 15C, 15D Depth-by-depth difference image generating means 16, 16A, 16B, 16C, 16D Enhancement layer coding means 160 Orthogonal transformation means 161 Quantization means 162 Variable length coding means 17 Stream combination Means 2 Distance image decoding means 20 Stream separation means 21 Base layer decoding means 210 Variable length decoding means 211 Inverse quantization means 212 Inverse orthogonal transformation means 22, 22A, 22B, 22C, 22D Enhancement layer decoding means 23 Image combining means

Claims (8)

被写体の奥行情報を示す距離画像を符号化する距離画像符号化装置であって、
前記距離画像を周波数成分に変換して第1量子化ステップで量子化し、量子化係数を可変長符号化することで基本レイヤ符号化ストリームを生成する基本レイヤ符号化手段と、
前記量子化係数を逆量子化し、周波数成分を逆変換することで前記距離画像を復号した復号画像を生成するローカル復号手段と、
前記距離画像と前記復号画像との差分を復号差分画像として生成する復号差分画像生成手段と、
予め設定された奥行範囲ごとに、前記距離画像の領域を区分する領域区分手段と、
前記復号差分画像から、前記領域区分手段で区分された領域ごとの画像を奥行別差分画像として生成する奥行別差分画像生成手段と、
前記奥行範囲ごとに、対応する前記奥行別差分画像を周波数成分に変換して前記第1量子化ステップよりも小さい第2量子化ステップで量子化し、量子化係数を可変長符号化することで拡張レイヤ符号化ストリームを生成する拡張レイヤ符号化手段と、
前記基本レイヤ符号化ストリームと、前記奥行範囲ごとの前記拡張レイヤ符号化ストリームとを結合して、前記距離画像の符号化ストリームを生成するストリーム結合手段と、
を備えることを特徴とする距離画像符号化装置。
A distance image encoding device that encodes a distance image indicating depth information of a subject,
Base layer coding means for generating a base layer coded stream by converting the distance image into frequency components, quantized in the first quantization step, and variable length coding the quantized coefficients;
Dequantizing the quantized coefficient, local decoding means for generating a decoded image obtained by decoding the distance image by inversely transforming the frequency component,
A decoded difference image generation means for generating a difference between the distance image and the decoded image as a decoded difference image,
Area dividing means for dividing the area of the distance image for each preset depth range;
From the decoded difference image, depth-by-depth difference image generation means for generating an image for each area divided by the area division means as a depth-specific difference image,
For each depth range, the corresponding depth difference image is converted into frequency components, quantized in a second quantization step smaller than the first quantization step, and quantized coefficients are variable-length coded for expansion. Enhancement layer coding means for generating a layer coded stream,
Stream combining means for combining the base layer encoded stream and the enhancement layer encoded stream for each depth range to generate an encoded stream of the distance image,
A range image encoding device comprising:
前記奥行範囲を予め定めた基準で区分するための閾値を設定する閾値設定手段をさらに備えることを特徴とする請求項1に記載の距離画像符号化装置。 The distance image coding apparatus according to claim 1, further comprising a threshold setting unit that sets a threshold for dividing the depth range on a predetermined basis. 前記領域区分手段は、前記奥行範囲ごとに、前記距離画像の領域を区分するマスクデータを生成し、
前記奥行別差分画像生成手段は、前記復号差分画像に前記マスクデータを乗算することで、前記奥行別差分画像を生成することを特徴とする請求項1または請求項2に記載の距離画像符号化装置。
The area dividing unit generates mask data for dividing the area of the distance image for each depth range,
The distance image encoding according to claim 1 or 2, wherein the depth-specific difference image generation means generates the depth-specific difference image by multiplying the decoded difference image by the mask data. apparatus.
前記拡張レイヤ符号化手段は、予め定めた奥行きに近い奥行範囲ほど優先度の高いレイヤとして前記奥行別差分画像から前記拡張レイヤ符号化ストリームを生成し、
前記ストリーム結合手段が、前記基本レイヤ符号化ストリームに、前記優先度の高い順で前記奥行範囲ごとの拡張レイヤ符号化ストリームを連結することを特徴とする請求項1から請求項3のいずれか一項に記載の距離画像符号化装置。
The enhancement layer coding means generates the enhancement layer coded stream from the depth difference image as a layer having a higher priority in a depth range closer to a predetermined depth,
4. The stream combining means connects the enhancement layer coded stream for each depth range to the base layer coded stream in the descending order of priority, according to any one of claims 1 to 3. The range image encoding device according to the item.
コンピュータを、請求項1から請求項4のいずれか一項に記載の距離画像符号化装置として機能させるための距離画像符号化プログラム。 A distance image coding program for causing a computer to function as the distance image coding device according to any one of claims 1 to 4. 第1量子化ステップで被写体の奥行情報を示す距離画像を符号化した基本レイヤ符号化ストリームと、前記基本レイヤ符号化ストリームを復号した距離画像と元の距離画像との差分を前記第1量子化ステップよりも小さい第2量子化ステップで符号化した奥行範囲ごとの複数の拡張レイヤ符号化ストリームと、を連結した符号化ストリームを復号する距離画像復号装置であって、
前記符号化ストリームを、前記基本レイヤ符号化ストリームと前記複数の拡張レイヤ符号化ストリームとに分離するストリーム分離手段と、
前記基本レイヤ符号化ストリームを、前記第1量子化ステップを用いて復号し、基本レイヤ復号画像を生成する基本レイヤ復号手段と、
前記複数の拡張レイヤ符号化ストリームを、前記第2量子化ステップを用いて復号し、複数の拡張レイヤ復号画像を生成する拡張レイヤ復号手段と、
前記基本レイヤ復号画像と前記複数の拡張レイヤ復号画像とを合成し、前記符号化ストリームを復号した距離画像を生成する画像合成手段と、
を備えることを特徴とする距離画像復号装置。
In the first quantization step, the difference between the base layer encoded stream obtained by encoding the distance image indicating the depth information of the subject and the distance image obtained by decoding the base layer encoded stream and the original distance image is obtained by the first quantization. A distance image decoding device for decoding a coded stream in which a plurality of enhancement layer coded streams for each depth range coded in a second quantization step smaller than the step is concatenated,
Stream separation means for separating the encoded stream into the base layer encoded stream and the plurality of enhancement layer encoded streams;
Base layer decoding means for decoding the base layer coded stream using the first quantization step to generate a base layer decoded image;
Enhancement layer decoding means for decoding the plurality of enhancement layer coded streams using the second quantization step to generate a plurality of enhancement layer decoded images;
An image synthesizing unit that synthesizes the base layer decoded image and the plurality of enhancement layer decoded images to generate a distance image by decoding the encoded stream,
A range image decoding device comprising:
前記符号化ストリームは、動画像の撮影画像に対応する距離画像を符号化したストリームであって、
前記拡張レイヤ復号手段は、前記符号化ストリームに連結されている拡張レイヤ符号化ストリームを連結順に復号し、
前記画像合成手段は、前記基本レイヤ復号画像と、フレーム周期内で復号された前記拡張レイヤ復号画像とを合成することを特徴とする請求項6に記載の距離画像復号装置。
The encoded stream is a stream obtained by encoding a distance image corresponding to a captured image of a moving image,
The enhancement layer decoding means decodes the enhancement layer coded streams that are linked to the coded stream in a linking order,
7. The distance image decoding device according to claim 6, wherein the image synthesizing unit synthesizes the base layer decoded image and the enhancement layer decoded image decoded within a frame period.
コンピュータを、請求項6または請求項7に記載の距離画像復号装置として機能させるための距離画像復号プログラム。 A distance image decoding program for causing a computer to function as the distance image decoding device according to claim 6.
JP2019011278A 2019-01-25 2019-01-25 Distance image coding device and its program, and distance image decoding device and its program Active JP7257152B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019011278A JP7257152B2 (en) 2019-01-25 2019-01-25 Distance image coding device and its program, and distance image decoding device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019011278A JP7257152B2 (en) 2019-01-25 2019-01-25 Distance image coding device and its program, and distance image decoding device and its program

Publications (2)

Publication Number Publication Date
JP2020120322A true JP2020120322A (en) 2020-08-06
JP7257152B2 JP7257152B2 (en) 2023-04-13

Family

ID=71891365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019011278A Active JP7257152B2 (en) 2019-01-25 2019-01-25 Distance image coding device and its program, and distance image decoding device and its program

Country Status (1)

Country Link
JP (1) JP7257152B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075428A1 (en) * 2020-10-09 2022-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP7393931B2 (en) 2019-12-11 2023-12-07 日本放送協会 Image encoding device and its program, and image decoding device and its program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152776A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for encoding and decoding distance image
JP2005079953A (en) * 2003-09-01 2005-03-24 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for encoding hierarchical image, and recording medium recorded with the program
JP2010177828A (en) * 2009-01-28 2010-08-12 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for encoding scalable image, and computer-readable recording medium with the program recorded therein

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152776A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for encoding and decoding distance image
JP2005079953A (en) * 2003-09-01 2005-03-24 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for encoding hierarchical image, and recording medium recorded with the program
JP2010177828A (en) * 2009-01-28 2010-08-12 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for encoding scalable image, and computer-readable recording medium with the program recorded therein

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANWEI LIU, ET AL.: "Joint video/depth/FEC rate allocation with considering 3D visual saliency for scalable 3D video stre", 2013 VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP), JPN6023008185, 17 November 2013 (2013-11-17), pages 1 - 6, XP032543633, ISSN: 0005005413, DOI: 10.1109/VCIP.2013.6706339 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7393931B2 (en) 2019-12-11 2023-12-07 日本放送協会 Image encoding device and its program, and image decoding device and its program
WO2022075428A1 (en) * 2020-10-09 2022-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device

Also Published As

Publication number Publication date
JP7257152B2 (en) 2023-04-13

Similar Documents

Publication Publication Date Title
US8953898B2 (en) Image processing apparatus and method
US8879840B2 (en) Image processor, image processing method, and program for shift-changing depth data of an image
KR101160818B1 (en) Dynamic image encoding device, dynamic image decoding device, dynamic image encoding method, dynamic image decoding method, dynamic image encoding program, and dynamic image decoding program
US20060133493A1 (en) Method and apparatus for encoding and decoding stereoscopic video
KR101702948B1 (en) Rate-Distortion Optimization Apparatus and Method for depth-image encoding
JP6027143B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program
JP6307152B2 (en) Image encoding apparatus and method, image decoding apparatus and method, and program thereof
US20150249839A1 (en) Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media
JP7257152B2 (en) Distance image coding device and its program, and distance image decoding device and its program
US20150016517A1 (en) Encoding device and encoding method, and decoding device and decoding method
Perra et al. Light field compression on sliced lenslet array
US10911779B2 (en) Moving image encoding and decoding method, and non-transitory computer-readable media that code moving image for each of prediction regions that are obtained by dividing coding target region while performing prediction between different views
WO2011080892A1 (en) Stereo image encoding device and method
JP2006246351A (en) Image coding unit and image decoding unit
JP7393931B2 (en) Image encoding device and its program, and image decoding device and its program
JP2015128252A (en) Prediction image generating method, prediction image generating device, prediction image generating program, and recording medium
JP6386466B2 (en) Video encoding apparatus and method, and video decoding apparatus and method
JP4860763B2 (en) Image encoding apparatus, image encoding apparatus control method, control program, and recording medium
JP3080486B2 (en) Orthogonal transform coding method for multi-view stereoscopic video
JP2005149227A (en) Image processor, image processing method, program, information recording medium, and image pickup device
Santos et al. Disparity compensation of light fields for improved efficiency in 4D transform-based encoders
KR20090078114A (en) Multi-view image coding method and apparatus using variable gop prediction structure, multi-view image decoding apparatus and recording medium storing program for performing the method thereof
JP4458408B2 (en) Image processing apparatus, image processing method, program, and information recording medium
JP2022171028A (en) Multi-viewpoint image encoder and program thereof, and multi-viewpoint image decoder and program thereof
KR20150020593A (en) Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230403

R150 Certificate of patent or registration of utility model

Ref document number: 7257152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150