JP7417388B2 - Encoding device, decoding device, and program - Google Patents
Encoding device, decoding device, and program Download PDFInfo
- Publication number
- JP7417388B2 JP7417388B2 JP2019164370A JP2019164370A JP7417388B2 JP 7417388 B2 JP7417388 B2 JP 7417388B2 JP 2019164370 A JP2019164370 A JP 2019164370A JP 2019164370 A JP2019164370 A JP 2019164370A JP 7417388 B2 JP7417388 B2 JP 7417388B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- depth map
- frame
- image
- thinning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000006866 deterioration Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007591 painting process Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Description
本発明は、符号化装置、復号装置、及びプログラムに関し、特に、インテグラル3D(3次元)映像の表示や自由視点映像の表示に必要となる多視点画像の符号化装置、復号装置、及びプログラムに関する。 The present invention relates to an encoding device, a decoding device, and a program, and in particular to an encoding device, a decoding device, and a program for multi-view images necessary for displaying integral 3D (three-dimensional) video and free-view video. Regarding.
インテグラル3D映像を表示する要素画像群を撮影することができるカメラとして、撮像素子のセンサーの手前にレンズアレイを配置するライトフィールドカメラが製品化されている。しかし、一般にライトフィールドカメラは撮影後のリフォーカス機能を目的としている。そのため、ライトフィールドカメラで撮影した画像を用いてインテグラル3D映像を表示すると、ライトフィールドカメラを構成するメインレンズの直径が、被写体までの距離に比べて小さな値となることから、運動視差が小さく、3次元映像の奥行を十分に再現することができない。この問題は、メインレンズの直径を大きくすることやカメラと被写体との距離を短くすることで理論上は解決することができるが、これらの対策による問題解決は実用的ではない。 A light field camera in which a lens array is arranged in front of a sensor of an image pickup device has been commercialized as a camera capable of photographing a group of elemental images that display an integral 3D image. However, light field cameras are generally intended for a refocusing function after shooting. Therefore, when displaying integral 3D images using images taken with a light field camera, the diameter of the main lens that makes up the light field camera is small compared to the distance to the subject, so motion parallax is small. , it is not possible to sufficiently reproduce the depth of 3D images. This problem can theoretically be solved by increasing the diameter of the main lens or shortening the distance between the camera and the subject, but these measures are not practical.
そこで、通常のカメラを水平・垂直の2次元配列に並べたカメラアレイを用いて、多視点映像を撮影することが考えられている。この場合の要素画像群の生成は、カメラアレイで撮影された複数の映像から視点内挿処理を用いることでカメラ間の視点映像を生成、その後、カメラアレイで撮影した映像と視点内挿映像から要素画像群に変換する処理が行われる(特許文献1)。ここで、カメラアレイのカメラ間距離は、カメラから被写体までの距離や、視点内挿が実用的に可能な距離、表示装置で再現できる視域角によって設計できることが知られている。また、視点内挿処理ではカメラから被写体までの距離を相対的に表現するデプスマップ(奥行き画像)を用いることで高精度な内挿画像の生成が行われている。デプスマップは、画像処理技術による奥行き推定や赤外線を用いて光学的に距離を測定する方法で生成される。このデプスマップ生成の精度を上げると、視点内挿の精度も向上する。 Therefore, it has been considered to capture multi-view images using a camera array in which ordinary cameras are arranged in a two-dimensional array horizontally and vertically. In this case, the element image group is generated by using viewpoint interpolation processing from multiple images taken by the camera array to generate viewpoint images between the cameras, and then from the images taken by the camera array and the viewpoint interpolation images. A process of converting into a group of elemental images is performed (Patent Document 1). Here, it is known that the inter-camera distance of the camera array can be designed based on the distance from the camera to the subject, the distance where viewpoint interpolation is practically possible, and the viewing angle that can be reproduced by the display device. Furthermore, in viewpoint interpolation processing, a highly accurate interpolated image is generated by using a depth map (depth image) that relatively expresses the distance from the camera to the subject. The depth map is generated by estimating depth using image processing technology or optically measuring distance using infrared rays. Increasing the accuracy of this depth map generation also improves the accuracy of viewpoint interpolation.
インテグラル3D映像の表示について、3次元映像を再現できる奥行は隣接する多視点画像間の視差、レンズアレイの焦点距離、および要素画像の画素数に関係する。その中でも3次元映像を再現できる奥行きを広げるためには、要素画像の画素数を増やすことが有効であると知られている。この場合、要素画像の画素数は多視点画像の視点数と等しくなることから、奥行きのある3次元映像を生成するためには符号化対象となる多視点画像の視点数が多く必要になり、3次元映像を表示するための情報量は膨大となる。 Regarding the display of an integral 3D image, the depth at which a 3D image can be reproduced is related to the parallax between adjacent multi-view images, the focal length of the lens array, and the number of pixels of the element images. Among these, it is known that increasing the number of pixels of elemental images is effective in increasing the depth at which three-dimensional images can be reproduced. In this case, the number of pixels in the elemental image is equal to the number of viewpoints in the multi-view image, so in order to generate a three-dimensional video with depth, a large number of viewpoints in the multi-view image to be encoded is required. The amount of information needed to display three-dimensional images is enormous.
インテグラル3D映像の伝送や記録では、3次元映像を表示するための膨大な情報量を符号化する。符号化では、要素画像群を多視点画像群に変換後に多視点映像符号化を行う方法や、変換後の多視点映像を符号化時に間引き、復号時に視点内挿する方法が知られている。この方法では多視点画像を間引くことで符号化対象画像を減らし、3次元映像の表示に必要な情報量を低減させている。 In transmitting and recording integral 3D video, a huge amount of information is encoded to display the 3D video. In encoding, methods are known in which multi-view video encoding is performed after converting a group of elemental images into a group of multi-view images, and a method in which the converted multi-view video is thinned out at the time of encoding and viewpoint interpolation is performed at the time of decoding. In this method, the number of images to be encoded is reduced by thinning out multi-view images, thereby reducing the amount of information required to display a three-dimensional image.
図9に、従来の符号化対象画像の例を示す。図9は、多視点映像及び多視点映像に対応するデプスマップの1フレームを表しており、これがNフレーム集まって映像を構成している。各フレームにおいて、例えば、13×13=169視点の多視点画像を等間隔で間引いて5×5=25視点の多視点画像とし、同様に、13×13=169視点のデプスマップを等間隔で間引いて5×5=25視点のデプスマップとしている。破線で表されている画像は、符号化しない多視点画像である。符号化対象画像は同視点の多視点画像とデプスマップがそれぞれ等間隔に並ぶ配置となっている。 FIG. 9 shows an example of a conventional encoding target image. FIG. 9 shows a multi-view video and one frame of a depth map corresponding to the multi-view video, and a collection of N frames constitutes a video. In each frame, for example, a multi-view image of 13 x 13 = 169 viewpoints is thinned out at equal intervals to create a multi-view image of 5 x 5 = 25 viewpoints, and similarly, a depth map of 13 x 13 = 169 viewpoints is thinned out at equal intervals. The depth map is thinned out and has 5×5=25 viewpoints. Images represented by broken lines are multi-view images that are not encoded. In the encoding target image, multi-view images and depth maps of the same viewpoint are arranged at equal intervals.
この符号化対象画像の符号化においては、隣接する視点画像(多視点画像のうちの1視点の画像を「視点画像」と言うこととする。)の相関の高さを利用して、基準となる視点画像と符号化対象の視点画像との差分を求めて符号化する方法、及び、視点画像と対応するデプスマップとの相関の高さを利用して符号化を行う方法等を用いて、多視点画像とデプスマップを1フレームとして一体的に符号化処理し、高い圧縮率の符号化が行われる。 In encoding this encoding target image, the high correlation between adjacent viewpoint images (an image of one viewpoint among multi-view images is referred to as a "viewpoint image") is used to A method of encoding by determining the difference between a viewpoint image and a viewpoint image to be encoded, and a method of encoding using the high correlation between a viewpoint image and a corresponding depth map, etc. The multi-view image and the depth map are integrally encoded as one frame, resulting in high compression rate encoding.
また、復号側では、符号化対象画像の復号を行った後、間引かれた(不足している)多視点画像の視点内挿を行う。視点内挿は最初にデプスマップの内挿を行い、例えば、5×5=25視点のデプスマップから13×13=169視点のデプスマップを再生する。次いで、全視点のデプスマップと復号された視点画像をもとに、復号された視点間の視点画像の内挿を行う。 Furthermore, on the decoding side, after decoding the encoding target image, viewpoint interpolation is performed for the thinned out (missing) multi-view images. In viewpoint interpolation, a depth map is first interpolated, and for example, a depth map of 13×13=169 viewpoints is reproduced from a depth map of 5×5=25 viewpoints. Next, interpolation of viewpoint images between the decoded viewpoints is performed based on the depth maps of all viewpoints and the decoded viewpoint images.
より奥行きのあるインテグラル3D映像を表示するためには画素数の多い要素画像群が必要であり、このため多視点画像の視点数が多く必要になる。視点数の多い多視点画像のデータ量を圧縮するために、視点の間引きを多くし、符号化する視点の間隔を広げて、符号化対象画像を減らす方法が考えられる。 In order to display an integral 3D video with greater depth, a group of elemental images with a large number of pixels is required, and therefore a large number of viewpoints in a multi-view image is required. In order to compress the data amount of a multi-view image with a large number of viewpoints, a method can be considered to increase the thinning of the viewpoints, widen the interval between the viewpoints to be encoded, and reduce the number of images to be encoded.
しかし、視点を多く間引いて符号化対象画像を減らす方法では、伝送や記録において、3次元映像を表示するための情報量を減らすことができる一方で、復号後の視点内挿による画質劣化が発生する。これは、視点内挿で必要となるデプスマップの生成にて、符号化対象画像を減らすことから隣接画像間の距離が遠くなり生成するデプスマップの精度が低下することに起因する。また、視点内挿の予測にて視差が大きくなることからオクルージョン領域を埋めるインペイント処理の精度が低下することも原因として挙げられる。視点内挿による画質劣化には、デプスマップの視点内挿による画質劣化と多視点画像の視点内挿による画質劣化が含まれる。さらに、符号化処理では、符号化の対象である多視点画像間の視差が大きくなることから視点補償予測の精度が低下し、符号化効率を悪化させる。 However, while the method of reducing the number of images to be encoded by thinning out many viewpoints can reduce the amount of information needed to display 3D images during transmission and recording, it also causes deterioration in image quality due to viewpoint interpolation after decoding. do. This is because when generating the depth map required for viewpoint interpolation, the number of images to be encoded is reduced, so the distance between adjacent images increases and the accuracy of the generated depth map decreases. Another cause is that the accuracy of the in-painting process for filling in the occlusion area decreases because the parallax increases in the prediction of viewpoint interpolation. Image quality deterioration due to viewpoint interpolation includes image quality deterioration due to viewpoint interpolation of depth maps and image quality deterioration due to viewpoint interpolation of multi-view images. Furthermore, in the encoding process, since the parallax between the multi-view images to be encoded increases, the accuracy of viewpoint compensation prediction decreases, and the encoding efficiency deteriorates.
したがって、上記のような問題点に鑑みてなされた本発明の目的は、符号化において、多視点映像及びデプスマップの伝送データ量を効率的に削減し、復号において、視点内挿画像の画質劣化を抑えることができる符号化装置、復号装置、及びプログラムを提供することにある。 Therefore, an object of the present invention, which was made in view of the above-mentioned problems, is to efficiently reduce the amount of transmitted data of multi-view videos and depth maps in encoding, and to reduce the image quality deterioration of viewpoint interpolated images in decoding. An object of the present invention is to provide an encoding device, a decoding device, and a program that can suppress the problem.
上記課題を解決するために本発明に係る符号化装置は、多視点映像と前記多視点映像に対応するデプスマップを符号化する符号化装置であって、各フレームにおいて前記多視点映像と前記デプスマップの視点を間引く視点間引き部と、前記多視点映像と前記デプスマップのフレームを間引くフレーム間引き部と、視点間引き及びフレーム間引きされた多視点映像とデプスマップを符号化する符号化部とを備えた符号化装置において、前記フレーム間引き部は、各フレームの各視点において視点画像とデプスマップの一方を間引くとともに、間引く対象をフレーム毎に切り替えることを特徴とする。 In order to solve the above problems, an encoding device according to the present invention is an encoding device that encodes a multi-view video and a depth map corresponding to the multi-view video, and the encoding device encodes a multi-view video and a depth map corresponding to the multi-view video in each frame. A viewpoint thinning unit that thins out the viewpoints of the map, a frame thinning unit that thins out the frames of the multi-view video and the depth map, and an encoding unit that encodes the multi-view video and the depth map that have been thinned out by the viewpoint thinning and frames. In the encoding device, the frame thinning unit thins out either the viewpoint image or the depth map at each viewpoint of each frame, and switches the thinning target for each frame.
また、前記符号化装置は、前記フレーム間引き部が、各フレームにおいて、一視点の視点画像とデプスマップの一方を間引くとともに、前記一視点に隣接する少なくとも一つの視点において視点画像とデプスマップの他方を間引くことが望ましい。 Further, in the encoding device, the frame thinning unit thins out one of the viewpoint image and the depth map of one viewpoint in each frame, and the other of the viewpoint image and the depth map in at least one viewpoint adjacent to the one viewpoint. It is desirable to thin out.
また、前記符号化装置は、前記フレーム間引き部が、視点間引きされた各フレームにおいて、視点画像又はデプスマップが市松模様となるように間引くことが望ましい。 Further, in the encoding device, it is preferable that the frame thinning unit thins out the viewpoint image or the depth map in each viewpoint thinned frame so as to form a checkered pattern.
また、前記符号化装置は、前記フレーム間引き部が、視点間引きされた各フレームにおいて、視点画像とデプスマップが交互に列配置又は行配置となるように間引くことが望ましい。 Further, in the encoding device, it is preferable that the frame thinning unit thins out the viewpoint images and the depth map in each frame thinned out so that the viewpoint images and the depth map are arranged alternately in columns or rows.
上記課題を解決するために本発明に係る復号装置は、映像符号化データから、多視点映像とデプスマップを復号する復号部と、前記多視点映像と前記デプスマップに対して、間引きされたフレームを内挿するフレーム内挿部と、各フレームにおいて、間引きされた視点画像とデプスマップを視点内挿する視点内挿部とを備え、前記映像符号化データから復号された前記視点画像及び前記デプスマップの信頼度を、内挿された前記視点画像及び前記デプスマップの信頼度よりも高い値に設定し、前記視点内挿部は、参照画像の信頼度の重みに基づいて、視点画像の予測を行うことを特徴とする。 In order to solve the above problems, a decoding device according to the present invention includes a decoding unit that decodes a multi-view video and a depth map from encoded video data, and a decoding unit that decodes a multi-view video and a depth map from video encoded data, and and a viewpoint interpolation unit that interpolates the thinned-out viewpoint image and the depth map in each frame, and the viewpoint interpolation unit interpolates the viewpoint image and the depth map decoded from the video encoded data. The reliability of the map is set to a higher value than the reliability of the interpolated viewpoint image and the depth map, and the viewpoint interpolation unit predicts the viewpoint image based on the reliability weight of the reference image. It is characterized by doing the following .
上記課題を解決するために本発明に係るプログラムは、コンピュータを、上記の符号化装置として機能させることを特徴とする。 In order to solve the above problems, a program according to the present invention is characterized by causing a computer to function as the above encoding device.
上記課題を解決するために本発明に係るプログラムは、コンピュータを、上記の復号装置として機能させることを特徴とする。 In order to solve the above problems, a program according to the present invention is characterized by causing a computer to function as the above decoding device.
本発明における符号化装置、復号装置、及びプログラムによれば、符号化において、多視点映像及びデプスマップの伝送データ量を効率的に削減し、復号において、視点内挿画像の画質劣化を抑えることができる。 According to the encoding device, decoding device, and program of the present invention, it is possible to efficiently reduce the amount of transmission data of multi-view videos and depth maps during encoding, and suppress image quality deterioration of viewpoint interpolated images during decoding. I can do it.
以下、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below.
図1に、本発明の符号化装置及び復号装置のブロック図の例を示す。符号化装置10と復号装置20は、全体として符号化・復号システムを構成する。符号化装置10と復号装置20の間は、情報通信が可能な任意の伝送路で結ばれていてもよく、この場合は、両者は送信装置10と受信装置20として機能する。このときの送受信方法としては、放送システム、電波通信、有線・無線ネットワーク等を利用することができる。また、両者をそれぞれ独立した装置とし、記録媒体等を用いて符号化装置10から復号装置20へのデータの授受を行ってもよい。
FIG. 1 shows an example of a block diagram of an encoding device and a decoding device of the present invention.
以下、符号化装置10、復号装置20それぞれについて、詳細に説明する。
Each of the
[符号化装置]
符号化装置10は、視点間引き部11、フレーム間引き部12、及び符号化部13を備えている。
[Encoding device]
The
入力画像は、例えば、カメラ(例えば、CMOSセンサ)が縦横13×13個(=169個)配列された多視点カメラで取得した多視点映像と、当該多視点映像に対応するデプスマップである。多視点映像の1視点の画像(視点画像)のそれぞれは、カラーのテクスチャー画像であり、デプスマップは、多視点映像と同じ視点とフレームを有する多視点の奥行き画像の映像である。入力画像は、視点間引き部11に入力される。
The input image is, for example, a multi-view video obtained by a multi-view camera in which cameras (for example, CMOS sensors) are arranged in 13×13 (=169) rows and columns, and a depth map corresponding to the multi-view video. Each one-viewpoint image (viewpoint image) of the multi-view video is a color texture image, and the depth map is a multi-view depth image having the same viewpoint and frame as the multi-view video. The input image is input to the
なお、本実施形態では、デプスマップは外部で生成されて、符号化装置10に入力されるものとしたが、入力映像として多視点映像のみが符号化装置10に入力され、多視点映像に基づく奥行き推定処理等を行い、デプスマップを符号化装置10内で生成することもできる。
Note that in this embodiment, the depth map is generated externally and inputted to the
視点間引き部11は、入力された多視点映像及び多視点映像に対応するデプスマップについて、各フレームにおいて、等間隔で視点を間引く視点間引き処理を行う。例えば、13×13=169視点の多視点画像を等間隔で間引いて5×5=25視点の多視点画像に縮小する。また、デプスマップも同様に、13×13=169視点のデプスマップを間引いて5×5=25視点のデプスマップとする。視点間引きの結果得られた多視点映像及びデプスマップは、図9の従来の符号化対象画像(符号化対象映像)と同じであり、各フレームにおいて、多視点画像とデプスマップがそれぞれ同視点で等間隔に並ぶ配置となっている。視点間引きされた多視点映像及びデプスマップは、フレーム間引き部12に出力される。
The
フレーム間引き部12は、入力された(視点間引きされた)多視点映像とデプスマップのフレームを間引きする。ここで、フレーム間引きの処理の一例について、図2、図3を用いて説明する。
The
図2は、フレーム間引きされた多視点映像及びデプスマップの偶数(2n:nは整数)フレーム目を示しており、図3は、フレーム間引きされた多視点映像及びデプスマップの奇数(2n+1)フレーム目を示している。すなわち、図2は偶数フレーム目の符号化対象画像の一例を示しており、図3は奇数フレーム目の符号化対象画像の一例を示している。各フレームでは、視点間引きされた5×5=25視点において、多視点画像とデプスマップの一方が間引き(フレーム間引き)される。図2と図3を対比すると明らかなように、ある視点において、偶数フレームでデプスマップが間引きされた場合は、奇数フレームでは視点画像が間引きされる。偶数フレームで視点画像が間引きされた視点は、奇数フレームではデプスマップが間引きされる。すなわち、視点画像とデプスマップの間引く対象をフレーム毎に交互に切り替える。 Figure 2 shows the even-numbered (2n: n is an integer) frame of the multi-view video and depth map with frame thinning, and Figure 3 shows the odd-numbered (2n+1) frame of the frame-thinned multi-view video and depth map. Showing eyes. That is, FIG. 2 shows an example of an image to be encoded in an even frame, and FIG. 3 shows an example of an image to be encoded in an odd frame. In each frame, one of the multi-view image and the depth map is thinned out (frame thinning) among 5×5=25 thinned-out viewpoints. As is clear from comparing FIG. 2 and FIG. 3, in a certain viewpoint, when the depth map is thinned out in even frames, the viewpoint image is thinned out in odd frames. For viewpoints whose viewpoint images are thinned out in even-numbered frames, depth maps are thinned out in odd-numbered frames. That is, the thinning target of the viewpoint image and the depth map is alternately switched for each frame.
さらに、視点間引きされた各フレームにおいて、ある視点でデプスマップを間引いた場合、その視点に(視点間引き後)隣接する少なくとも一つの視点においては視点画像を間引くことが望ましい。すなわち、一視点において視点画像とデプスマップの一方を間引いたとき、その一視点に隣接する少なくとも一つの視点において視点画像とデプスマップの他方を間引くことが望ましい。これにより、隣接する視点において視点画像とデプスマップがそれぞれ符号化される。そして、復号側で視点内挿を行う際に、隣接する視点画像の少なくとも一方が、復号された精度の高い画像となる。 Furthermore, in each frame where the viewpoints have been thinned out, when the depth map is thinned out at a certain viewpoint, it is desirable to thin out the viewpoint images at at least one viewpoint adjacent to that viewpoint (after viewpoint thinning). That is, when one of the viewpoint image and the depth map is thinned out at one viewpoint, it is desirable to thin out the other of the viewpoint image and the depth map at at least one viewpoint adjacent to the one viewpoint. As a result, the viewpoint images and depth maps are respectively encoded at adjacent viewpoints. Then, when viewpoint interpolation is performed on the decoding side, at least one of the adjacent viewpoint images becomes a highly accurate decoded image.
図2の例では、ある視点でデプスマップを間引いて視点画像を符号化対象画像としたとき、その上下左右の(視点間引き後)隣接する視点は、視点画像を間引いてデプスマップを符号化対象画像とする。図3の奇数フレームにおいても、視点画像とデプスマップの配置は反対であるが、ある視点とそれに隣接する上下左右の視点において、視点画像とデプスマップが交互に符号化対象画像となっている。このように、図2、図3では、視点間引きされた各フレームにおいて、視点画像(又はデプスマップ)が市松模様となるようにフレーム間引きされる。 In the example in Figure 2, when the depth map is thinned out at a certain viewpoint and the viewpoint image is used as the encoding target image, the adjacent viewpoints on the upper, lower, left, and right sides (after viewpoint thinning) are thinned out and the depth map is used as the encoding target image. Make it an image. Even in the odd-numbered frames in FIG. 3, the positions of the viewpoint image and the depth map are opposite, but the viewpoint image and the depth map alternately serve as encoding target images for a certain viewpoint and the adjacent viewpoints on the upper, lower, left, and right sides. In this way, in FIGS. 2 and 3, the frames are thinned out so that the perspective images (or depth maps) form a checkered pattern in each frame that has been thinned out.
フレーム間引きの処理の別の例について、図4、図5を用いて説明する。 Another example of frame thinning processing will be described using FIGS. 4 and 5.
図4は、フレーム間引きされた多視点映像及びデプスマップの偶数(2n:nは整数)フレーム目を示しており、図5は、フレーム間引きされた多視点映像及びデプスマップの奇数(2n+1)フレーム目を示している。すなわち、図4は偶数フレーム目の符号化対象画像の別の例を示しており、図5は奇数フレーム目の符号化対象画像の別の例を示している。各フレームでは、視点間引きされた5×5=25視点において、多視点画像とデプスマップの一方が間引き(フレーム間引き)される。図4と図5を対比すると明らかなように、ある視点において、偶数フレームでデプスマップが間引きされた場合は、奇数フレームでは視点画像が間引きされ、偶数フレームで視点画像が間引きされた視点は、奇数フレームではデプスマップが間引きされる。 FIG. 4 shows the even-numbered (2n: n is an integer) frame of the multi-view video and depth map with frame thinning, and FIG. 5 shows the odd-numbered (2n+1) frame of the multi-view video with frame thinning and the depth map. Showing eyes. That is, FIG. 4 shows another example of an image to be encoded in an even frame, and FIG. 5 shows another example of an image to be encoded in an odd frame. In each frame, one of the multi-view image and the depth map is thinned out (frame thinning) among 5×5=25 thinned-out viewpoints. As is clear from comparing FIG. 4 and FIG. 5, in a certain viewpoint, when the depth map is thinned out in even frames, the viewpoint image is thinned out in odd frames, and the viewpoint image is thinned out in even frames. In odd frames, the depth map is thinned out.
図4の例では、ある視点でデプスマップを間引いて視点画像を符号化対象画像としたとき、その左右の(視点間引き後)隣接する視点は、視点画像を間引いてデプスマップを符号化対象画像とする。図5の奇数フレームにおいても、視点画像とデプスマップの配置は反対であるが、ある視点とそれに隣接する左右の視点において、視点画像とデプスマップが交互に符号化対象画像となっている。このように、図4、図5では、視点間引きされた各フレームにおいて、視点画像及びデプスマップが交互に列配置となるように間引きされることが望ましい。 In the example shown in FIG. 4, when the depth map is thinned out at a certain viewpoint and the viewpoint image is used as the encoding target image, the adjacent viewpoints on the left and right (after viewpoint thinning) are thinned out and the depth map is used as the encoding target image. shall be. Even in the odd-numbered frames in FIG. 5, the positions of the viewpoint image and the depth map are reversed, but the viewpoint image and the depth map are alternately encoding target images in a certain viewpoint and the adjacent left and right viewpoints. In this way, in FIGS. 4 and 5, it is desirable that the viewpoint images and depth maps are thinned out so that they are alternately arranged in columns in each frame where the viewpoints have been thinned out.
フレーム間引きの処理の更に別の例について、図6、図7を用いて説明する。 Still another example of frame thinning processing will be described with reference to FIGS. 6 and 7.
図6は、フレーム間引きされた多視点映像及びデプスマップの偶数(2n:nは整数)フレーム目を示しており、図7は、フレーム間引きされた多視点映像及びデプスマップの奇数(2n+1)フレーム目を示している。すなわち、図6は偶数フレーム目の符号化対象画像の更に別の例を示しており、図7は奇数フレーム目の符号化対象画像の更に別のを示している。各フレームでは、視点間引きされた5×5=25視点において、多視点画像とデプスマップの一方が間引き(フレーム間引き)され、図6と図7を対比すると明らかなように、各視点において、視点画像とデプスマップの間引く対象をフレーム毎に交互に切り替える。 FIG. 6 shows the even-numbered (2n: n is an integer) frame of the frame-thinned multi-view video and depth map, and FIG. 7 shows the odd-numbered (2n+1) frame of the frame-thinned multi-view video and depth map. Showing eyes. That is, FIG. 6 shows yet another example of the image to be encoded in the even-numbered frame, and FIG. 7 shows still another example of the image to be encoded in the odd-numbered frame. In each frame, one of the multi-view image and the depth map is thinned out (frame thinning) in 5×5=25 viewpoints, and as is clear from comparing FIG. 6 and FIG. The image and depth map thinning targets are alternately switched for each frame.
図6の例では、ある視点でデプスマップを間引いて視点画像を符号化対象画像としたとき、その上下の(視点間引き後)隣接する視点は、視点画像を間引いてデプスマップを符号化対象画像とする。図7の奇数フレームにおいても、視点画像とデプスマップの配置は反対であるが、ある視点とそれに隣接する上下の視点において、視点画像とデプスマップが交互に符号化対象画像となっている。このように、図6、図7では、視点間引きされた各フレームにおいて、視点画像及びデプスマップが交互に行配置となるように間引きされることが望ましい。 In the example of FIG. 6, when the depth map is thinned out at a certain viewpoint and the viewpoint image is used as the encoding target image, the adjacent viewpoints above and below (after viewpoint thinning) are thinned out and the depth map is used as the encoding target image. shall be. Even in the odd-numbered frames in FIG. 7, the positions of the viewpoint image and the depth map are opposite, but the viewpoint image and the depth map are alternately encoding target images in a certain viewpoint and the adjacent upper and lower viewpoints. In this way, in FIGS. 6 and 7, it is desirable that the viewpoint images and depth maps are thinned out so that they are alternately arranged in rows in each frame where the viewpoints have been thinned out.
図1に戻って、フレーム間引きされた多視点映像とデプスマップ(多視点画像とデプスマップの符号化対象画像)は、符号化部13に出力される。
Returning to FIG. 1, the frame-thinned multi-view video and depth map (multi-view image and depth map encoding target image) are output to the
符号化部13は、フレーム間引きされた多視点映像とデプスマップ(入力された符号化対象画像)を符号化する。符号化処理は、従来から使用されている符号化ツール(例えば、H.265/HEVC(High Efficiency Video Coding)の拡張規格、等)によって圧縮・符号化を行う。符号化対象の多視点映像とデプスマップの相関の高さを利用した予測処理により高効率なデータ圧縮を行うことができる。
The
符号化部13で生成された映像符号化データは、符号化装置10の出力として、出力される。
The encoded video data generated by the
本実施形態の符号化装置によれば、符号化対象画像(図2~図7)の視点間距離は従来例(図9)と同じでありながら、各視点の視点画像とデプスマップのフレームを交互に間引いており、符号化の情報量を半分に低減させることができる。 According to the encoding device of this embodiment, although the distance between viewpoints of the encoding target image (FIGS. 2 to 7) is the same as that of the conventional example (FIG. 9), the viewpoint image of each viewpoint and the depth map frame are The data are alternately thinned out, and the amount of information to be encoded can be reduced by half.
[復号装置]
復号装置20は、復号部21、フレーム内挿部22、視点内挿部23、及び多視点画像要素画像変換部24を備えている。
[Decoding device]
The
符号化装置10にて符号化された映像符号化データが、復号部21に入力される。復号部21は、入力された映像符号化データを、符号化に対応する復号方法により復号する。復号処理により、フレーム間引きされた多視点映像とデプスマップ(符号化対象画像)が復号される。復号された映像(画像)データは、フレーム内挿部22に出力される。
Video encoded data encoded by the
フレーム内挿部22は、フレーム間引きされた多視点映像とデプスマップのフレーム内挿を行う。例えば、2nフレームにおいてデプスマップが間引きされた視点では、2n-1フレームの同じ視点のデプスマップと、2n+1フレームの同じ視点のデプスマップとを用いた補間処理等により、2nフレームのデプスマップを予測し、デプスマップのフレームを内挿する。なお、2nフレーム内の隣接するデプスマップを用いて、イントラ予測を利用してもよい。奇数(2n+1)フレームの間引きされたデプスマップも同様にフレーム内挿を行う。
The
また、多視点映像のフレーム内挿については、例えば、2nフレームにおいて視点画像が間引きされた視点では、2n-1フレームの同じ視点の視点画像と、2n+1フレームの同じ視点の視点画像とを用いた補間処理に加え、2nフレームの当該視点のデプスマップを利用して、2nフレームの視点画像を予測し、視点画像のフレームを内挿することが望ましい。当該視点のデプスマップは符号化データを復号して得られた精度の高いデプスマップであり、フレーム内挿する視点画像の精度を高めることができる。奇数(2n+1)フレームの間引きされた視点画像も同様にフレーム内挿を行う。 Regarding frame interpolation of multi-view video, for example, for a viewpoint where the viewpoint images are thinned out in 2n frames, the viewpoint images of the same viewpoint of 2n-1 frames and the viewpoint images of the same viewpoint of 2n+1 frames are used. In addition to the interpolation process, it is desirable to use the depth map of the 2n-frame viewpoint to predict the 2n-frame viewpoint image and interpolate the frame of the viewpoint image. The depth map of the viewpoint is a highly accurate depth map obtained by decoding the encoded data, and it is possible to improve the accuracy of the viewpoint image for frame interpolation. Frame interpolation is similarly performed on the thinned-out viewpoint images of odd number (2n+1) frames.
このように、各フレームの各視点において、フレームが間引かれた多視点映像とデプスマップのフレーム内挿を行う。この結果、フレーム内挿後の多視点映像とデプスマップの情報量と視点の位置関係は、図9と同じになる。フレーム内挿された多視点映像とデプスマップを、視点内挿部23へ出力する。
In this way, frame interpolation is performed between the frame-thinned multi-view video and the depth map at each viewpoint of each frame. As a result, the information amount of the multi-view video and the depth map after frame interpolation, and the positional relationship between the viewpoints are the same as in FIG. 9 . The frame interpolated multi-view video and depth map are output to the
視点内挿部23は、フレーム内挿された多視点映像とデプスマップを用いることで、視点間の符号化されなかった多視点画像を視点内挿によって生成する。すなわち、フレーム内挿後の5×5個の多視点画像とデプスマップ(視点間引きされた画像:図9を参照。)から、視点内挿処理によって視点間の視点画像を予測・内挿し、視点間引きを行う前の13×13=169視点の多視点画像(図9の全体)を再生する。
The
視点内挿部23における視点内挿処理を、図8を参照して説明する。図8において、各視点を左上の視点を基準とした二次元座標で表すこととする。例えば、座標(1,1)の視点画像と座標(4,4)の視点画像は、映像符号化データから復号された視点画像であり、座標(1,4)の視点画像と座標(4,1)の視点画像は、フレーム内挿によって生成された視点画像であるとする。また、座標(1,4)のデプスマップと座標(4,1)のデプスマップは、映像符号化データから復号されたデプスマップであり、座標(1,1)のデプスマップと座標(4,4)のデプスマップは、フレーム内挿によって生成されたデプスマップであるとする。
The viewpoint interpolation process in the
本実施形態においては、参照画像である多視点画像とデプスマップの信頼度の重み(係数)を設定する。この信頼度の設定では、フレーム内挿で生成した多視点画像とデプスマップの信頼度を小さくし、伝送や記録された映像符号化データから復号された多視点画像とデプスマップの信頼度を高い値に設定する。 In this embodiment, reliability weights (coefficients) of a multi-view image that is a reference image and a depth map are set. This reliability setting reduces the reliability of multi-view images and depth maps generated by frame interpolation, and increases the reliability of multi-view images and depth maps decoded from transmitted and recorded video encoded data. Set to value.
視点内挿は、従来と同様に、最初にデプスマップの視点内挿を行う。すなわち、5×5=25視点のデプスマップから視点間の全デプスマップを生成して内挿する。図8の例では、ある視点(例えば、座標(3,3))のデプスマップを生成する際には、その周囲の復号された又はフレーム内挿されたデプスマップ(座標(1,1)、(1,4)、(4,1)、(4,4))を参照画像とし、参照画像からの距離に基づいて(例えば、距離の逆数を信頼度として)画像を補間し、当該視点のデプスマップを生成する。 In viewpoint interpolation, viewpoint interpolation of a depth map is first performed as in the conventional method. That is, from the depth maps of 5×5=25 viewpoints, all depth maps between viewpoints are generated and interpolated. In the example of FIG. 8, when generating a depth map for a certain viewpoint (for example, coordinates (3, 3)), the decoded or frame interpolated depth map (coordinates (1, 1), (1, 4), (4, 1), (4, 4)) as a reference image, interpolate the image based on the distance from the reference image (for example, using the reciprocal of the distance as the reliability), and Generate a depth map.
本実施形態では、このときに、参照画像であるデプスマップの信頼度の重みを計算要素として加える。すなわち、参照画像からの距離に基づいた信頼度に対して、フレーム内挿で生成したデプスマップ(座標(1,1)、(4,4))に基づく信頼度を小さくするよう補正し、符号化データから復号されたデプスマップ(座標(1,4)、(4,1))に基づく信頼度を高い値に補正する。例えば、内挿されたデプスマップについては0.5の重み係数で信頼度を補正し、復号されたデプスマップについては1.0の重み係数で信頼度を補正する。なお、係数は調整可能である。補正された信頼度に基づいて、参照画像に基づく補間処理を行い、視点間のデプスマップを生成して内挿する。同様の処理を、他の視点のデプスマップについても行う。 In this embodiment, at this time, the weight of the reliability of the depth map, which is the reference image, is added as a calculation element. In other words, the reliability based on the depth map (coordinates (1, 1), (4, 4)) generated by frame interpolation is corrected to be smaller than the reliability based on the distance from the reference image, and the The reliability based on the depth map (coordinates (1, 4), (4, 1)) decoded from the encoded data is corrected to a high value. For example, the reliability of an interpolated depth map is corrected with a weighting factor of 0.5, and the reliability of a decoded depth map is corrected with a weighting factor of 1.0. Note that the coefficient can be adjusted. Based on the corrected reliability, interpolation processing is performed based on the reference image to generate and interpolate a depth map between viewpoints. Similar processing is performed for depth maps of other viewpoints.
次いで、すべてのデプスマップの視点内挿後に、多視点画像の視点内挿を行う。例えば、フレーム内挿後の5×5=25視点の多視点画像と全デプスマップから、視点間の視点画像を生成して内挿する。ある視点(例えば、座標(3,3))の視点画像を生成する際には、その周囲の復号された又はフレーム内挿された視点画像(座標(1,1)、(1,4)、(4,1)、(4,4))を参照画像とし、参照画像からの距離に基づいて(例えば、距離の逆数を信頼度として)画像を補間し、さらに各視点のデプスマップを用いて、当該視点の視点画像を生成する。 Next, after viewpoint interpolation of all depth maps, viewpoint interpolation of multi-view images is performed. For example, from a multi-view image of 5×5=25 viewpoints after frame interpolation and all depth maps, a viewpoint image between viewpoints is generated and interpolated. When generating a viewpoint image at a certain viewpoint (for example, coordinates (3, 3)), the surrounding decoded or frame interpolated viewpoint images (coordinates (1, 1), (1, 4), (4,1), (4,4)) as a reference image, interpolate the image based on the distance from the reference image (for example, using the reciprocal of the distance as the confidence level), and further use the depth map of each viewpoint. , generate a viewpoint image of the viewpoint.
本実施形態では、このときに、参照画像である視点画像の信頼度の重みを計算要素として加える。すなわち、参照画像からの距離に基づいた信頼度に対して、フレーム内挿で生成した視点画像(座標(1,4)、(4,1))に基づく信頼度を小さくするよう補正し、符号化データから復号された視点画像(座標(1,1)、(4,4))に基づく信頼度を高い値に補正する。例えば、内挿された視点画像については0.5の重み係数で信頼度を補正し、復号された視点画像については1.0の重み係数で信頼度を補正する。なお、係数は調整可能である。また、デプスマップの利用においても、フレーム内挿又は視点内挿で生成したデプスマップの信頼度を小さくし、符号化データから復号されたデプスマップの信頼度を高く設定して利用する。補正された信頼度に基づいて、参照画像に基づく補間処理を行い、多視点画像を生成して内挿する。同様の処理を、他の視点の視点画像についても行う。 In this embodiment, at this time, the reliability weight of the viewpoint image that is the reference image is added as a calculation element. In other words, the reliability based on the viewpoint image (coordinates (1, 4), (4, 1)) generated by frame interpolation is corrected to be smaller than the reliability based on the distance from the reference image, and the The reliability based on the viewpoint image (coordinates (1, 1), (4, 4)) decoded from the encoded data is corrected to a high value. For example, the reliability of interpolated viewpoint images is corrected with a weighting coefficient of 0.5, and the reliability of decoded viewpoint images is corrected with a weighting coefficient of 1.0. Note that the coefficient can be adjusted. Furthermore, when using a depth map, the reliability of a depth map generated by frame interpolation or viewpoint interpolation is set low, and the reliability of a depth map decoded from encoded data is set high. Based on the corrected reliability, interpolation processing is performed based on the reference image to generate and interpolate a multi-view image. Similar processing is performed for viewpoint images of other viewpoints.
こうして、多視点画像の内挿を行い、再生された多視点画像群を、多視点画像要素画像変換部24へ出力する。
In this way, multi-view images are interpolated, and the reproduced multi-view image group is output to the multi-view image element
多視点画像要素画像変換部24は、入力された多視点画像を要素画像群に変換する。要素画像群は、多視点画像から変換して作成することができる。すなわち、多視点画像を構成する各視点画像から、互いに同じ座標位置にある1画素を抽出し、多視点画像の全体の配置を保ったまま集積することで、1つの要素画像を生成する。例えば、13×13個のカメラで撮影した多視点画像群の各視点画像の1画素から、13×13画素の要素画像が生成される。他の要素画像も同様に生成することにより、多視点画像を、13×13画素の要素画像が視点画像の画素数集合した、要素画像群に変換することができる。これを復号装置20の出力画像とする。この出力画像により、インテグラル3D映像を表示することができる。
The multi-view image element
なお、本実施形態では、出力画像に基づいてインテグラル3D映像を表示させることを前提として、要素画像群を出力画像としたが、例えば、多視点映像を表示させるためには、多視点画像要素画像変換部24を設けることなく、視点内挿後の多視点画像を復号装置の出力画像としてもよい。
Note that in this embodiment, the element image group is the output image on the premise that an integral 3D video is displayed based on the output image, but for example, in order to display a multi-view video, the multi-view image element The multi-view image after viewpoint interpolation may be used as the output image of the decoding device without providing the
本実施形態の復号装置によれば、各視点の画像の信頼度を利用することにより、精度の高い視点内挿ができる。また、視点間引き後の視点間距離を比較的短くすることで、視点内挿画像の画質劣化を抑えることが可能になる。 According to the decoding device of this embodiment, highly accurate viewpoint interpolation can be performed by using the reliability of images of each viewpoint. Furthermore, by making the distance between viewpoints relatively short after viewpoint thinning, it is possible to suppress deterioration in the image quality of the viewpoint interpolation image.
上記の実施の形態では、符号化装置10の構成と動作について説明したが、本発明はこれに限らず、多視点画像を符号化する符号化方法として構成されてもよい。すなわち、図1のデータの流れに従って、多視点画像から映像符号化データを生成する符号化方法として構成されてもよい。また、復号装置20の構成と動作について説明したが、本発明はこれに限らず、映像符号化データを復号する復号方法として構成されてもよい。すなわち、図1のデータの流れに従って、映像符号化データから、要素画像群の出力画像を生成する復号方法として構成されてもよい。
In the above embodiment, the configuration and operation of the
なお、上述した符号化装置10又は復号装置20として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、符号化装置10又は復号装置20の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。
Note that a computer can be suitably used to function as the
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the embodiments described above have been described as representative examples, it will be apparent to those skilled in the art that many modifications and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited to the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, it is possible to combine a plurality of configuration blocks described in the embodiments into one, or to divide one configuration block.
10 符号化装置
11 視点間引き部
12 フレーム間引き部
13 符号化部
20 復号装置
21 復号部
22 フレーム内挿部
23 視点内挿部
24 多視点画像要素画像変換部
10
Claims (7)
各フレームにおいて前記多視点映像と前記デプスマップの視点を間引く視点間引き部と、
前記多視点映像と前記デプスマップのフレームを間引くフレーム間引き部と、
視点間引き及びフレーム間引きされた多視点映像とデプスマップを符号化する符号化部と
を備えた符号化装置において、
前記フレーム間引き部は、各フレームの各視点において視点画像とデプスマップの一方を間引くとともに、間引く対象をフレーム毎に切り替えることを特徴とする、符号化装置。 An encoding device that encodes a multi-view video and a depth map corresponding to the multi-view video, comprising:
a viewpoint thinning unit that thins out the viewpoints of the multi-view video and the depth map in each frame;
a frame thinning unit that thins out frames of the multi-view video and the depth map;
In an encoding device including an encoding unit that encodes a multi-view video that has undergone viewpoint thinning and frame thinning and a depth map,
The encoding device is characterized in that the frame thinning unit thins out either the viewpoint image or the depth map at each viewpoint of each frame, and switches the thinning target for each frame.
前記フレーム間引き部は、各フレームにおいて、一視点の視点画像とデプスマップの一方を間引くとともに、前記一視点に隣接する少なくとも一つの視点において視点画像とデプスマップの他方を間引くことを特徴とする、符号化装置。 The encoding device according to claim 1,
The frame thinning unit is characterized in that in each frame, one of the viewpoint image and the depth map of one viewpoint is thinned out, and the other of the viewpoint image and the depth map of at least one viewpoint adjacent to the one viewpoint is thinned out. Encoding device.
前記フレーム間引き部は、視点間引きされた各フレームにおいて、視点画像又はデプスマップが市松模様となるように間引くことを特徴とする、符号化装置。 The encoding device according to claim 1 or 2,
The encoding device is characterized in that the frame thinning unit thins out viewpoint images or depth maps in each frame subjected to viewpoint thinning so as to form a checkered pattern.
前記フレーム間引き部は、視点間引きされた各フレームにおいて、視点画像とデプスマップが交互に列配置又は行配置となるように間引くことを特徴とする、符号化装置。 The encoding device according to claim 1 or 2,
The encoding device is characterized in that the frame thinning unit thins out viewpoint images and depth maps in each frame subjected to viewpoint thinning so that they are alternately arranged in columns or rows.
前記多視点映像と前記デプスマップに対して、間引きされたフレームを内挿するフレーム内挿部と、
各フレームにおいて、間引きされた視点画像とデプスマップを視点内挿する視点内挿部と
を備え、
前記映像符号化データから復号された前記視点画像及び前記デプスマップの信頼度を、内挿された前記視点画像及び前記デプスマップの信頼度よりも高い値に設定し、
前記視点内挿部は、参照画像の信頼度の重みに基づいて、視点画像の予測を行うことを特徴とする、復号装置。 a decoding unit that decodes a multi-view video and a depth map from video encoded data;
a frame interpolation unit that interpolates thinned frames to the multi-view video and the depth map;
Each frame includes a viewpoint interpolation unit that interpolates the thinned-out viewpoint image and the depth map ,
setting the reliability of the viewpoint image and the depth map decoded from the video encoded data to a higher value than the reliability of the interpolated viewpoint image and the depth map;
The decoding device is characterized in that the viewpoint interpolation unit predicts the viewpoint image based on a reliability weight of the reference image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019164370A JP7417388B2 (en) | 2019-09-10 | 2019-09-10 | Encoding device, decoding device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019164370A JP7417388B2 (en) | 2019-09-10 | 2019-09-10 | Encoding device, decoding device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021044658A JP2021044658A (en) | 2021-03-18 |
JP7417388B2 true JP7417388B2 (en) | 2024-01-18 |
Family
ID=74863238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019164370A Active JP7417388B2 (en) | 2019-09-10 | 2019-09-10 | Encoding device, decoding device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7417388B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013098739A (en) | 2011-10-31 | 2013-05-20 | Canon Inc | Image processing device and control method therefor |
JP2019004271A (en) | 2017-06-14 | 2019-01-10 | 日本放送協会 | Image encoding apparatus and image decoding apparatus, and image encoding program and image decoding program |
JP2019041341A (en) | 2017-08-29 | 2019-03-14 | 日本放送協会 | Multi-view image coding device, multi-view image decoding device, and program thereof |
-
2019
- 2019-09-10 JP JP2019164370A patent/JP7417388B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013098739A (en) | 2011-10-31 | 2013-05-20 | Canon Inc | Image processing device and control method therefor |
JP2019004271A (en) | 2017-06-14 | 2019-01-10 | 日本放送協会 | Image encoding apparatus and image decoding apparatus, and image encoding program and image decoding program |
JP2019041341A (en) | 2017-08-29 | 2019-03-14 | 日本放送協会 | Multi-view image coding device, multi-view image decoding device, and program thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2021044658A (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111615715A (en) | Method, apparatus and stream for encoding/decoding volumetric video | |
US10652577B2 (en) | Method and apparatus for encoding and decoding light field based image, and corresponding computer program product | |
US20120014590A1 (en) | Multi-resolution, multi-window disparity estimation in 3d video processing | |
JP5883153B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium | |
US9609192B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
KR20130053452A (en) | Calculating disparity for three-dimensional images | |
CN102918846A (en) | Multiview video encoding method, multiview video decoding method, multiview video encoding apparatus, multiview video decoding apparatus, and program | |
JP6027143B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program | |
JP6307152B2 (en) | Image encoding apparatus and method, image decoding apparatus and method, and program thereof | |
JP7105062B2 (en) | Image processing device, content processing device, content processing system, and image processing method | |
JP6039178B2 (en) | Image encoding apparatus, image decoding apparatus, method and program thereof | |
KR20150079905A (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium | |
JP7171169B2 (en) | Method and Apparatus for Encoding Signals Representing Lightfield Content | |
JP4944046B2 (en) | Video encoding method, decoding method, encoding device, decoding device, program thereof, and computer-readable recording medium | |
JP7417388B2 (en) | Encoding device, decoding device, and program | |
JP6979290B2 (en) | Image coding device and image decoding device, as well as image coding program and image decoding program. | |
JP6941505B2 (en) | Multi-viewpoint image coding device and its program, and stereoscopic image display system | |
JP4815004B2 (en) | Multi-view image encoding device | |
JP7389565B2 (en) | Encoding device, decoding device, and program | |
JP2013150071A (en) | Encoder, encoding method, program and storage medium | |
JP7382186B2 (en) | Encoding device, decoding device, and program | |
JP2021093641A (en) | Image coding device and program for the same as well as image decoding device and program for the same | |
WO2012108315A1 (en) | Predicted information generating method, image encoding method, image decoding method, predicted information generating apparatus, predicted information generating program, image encoding apparatus, image encoding program, image decoding apparatus and image decoding program | |
JP2015162709A (en) | Image encoder, image decoder, image encoding program and image decoding program | |
JP6232117B2 (en) | Image encoding method, image decoding method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7417388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |