JP2021174406A - Depth map super-resolution device, depth map super-resolution method, and depth map super-resolution program - Google Patents

Depth map super-resolution device, depth map super-resolution method, and depth map super-resolution program Download PDF

Info

Publication number
JP2021174406A
JP2021174406A JP2020079826A JP2020079826A JP2021174406A JP 2021174406 A JP2021174406 A JP 2021174406A JP 2020079826 A JP2020079826 A JP 2020079826A JP 2020079826 A JP2020079826 A JP 2020079826A JP 2021174406 A JP2021174406 A JP 2021174406A
Authority
JP
Japan
Prior art keywords
depth map
super
resolution
boundary
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020079826A
Other languages
Japanese (ja)
Other versions
JP7405370B2 (en
Inventor
泰洋 八尾
Yasuhiro Yao
慎吾 安藤
Shingo Ando
潤 島村
Jun Shimamura
涼一 石川
Ryoichi Ishikawa
岳史 大石
Takeshi Oishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2020079826A priority Critical patent/JP7405370B2/en
Publication of JP2021174406A publication Critical patent/JP2021174406A/en
Application granted granted Critical
Publication of JP7405370B2 publication Critical patent/JP7405370B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

To obtain an appropriate super-resolution depth map having discrete boundaries in a simplified processing.SOLUTION: A tensor derivation part 103 derives, based on boundary positions and boundary directions as to a depth map in which each pixel has a pixel value correspondingly to a depth value of an object, a diffusion tensor for causing the pixel values at the boundary positions to diffuse correspondingly to the boundary directions. A smoothing part 104 generates, based on the depth map and the diffusion tensor, a super-resolution depth map obtained from applying super-resolution to the depth map.SELECTED DRAWING: Figure 4

Description

開示の技術は、デプスマップ超解像装置、デプスマップ超解像方法、及びデプスマップ超解像プログラムに関する。 The disclosed technique relates to a depth map super-resolution device, a depth map super-resolution method, and a depth map super-resolution program.

非特許文献1には、画素の位置と値の類似度から計算される重みを用いて、観測された奥行き値を重みづけて足し合わせることで超解像デプスマップを得ることが開示されている。 Non-Patent Document 1 discloses that a super-resolution depth map is obtained by weighting and adding the observed depth values using weights calculated from the similarity between pixel positions and values. ..

非特許文献2には、平滑化項と、計測されたデータを再現できているかを評価する項であるデータ項とからなるエネルギーを最小化するような超解像デプスマップを導出することが開示されている。画像の勾配が大きいところでは平滑化項の影響を低減する異方性拡散テンソル(Anisotropic Diffusion Tensor)を考慮した平滑化項を用いることで、物体境界では奥行きが不連続に変化することを目指している。 Non-Patent Document 2 discloses that a super-resolution depth map that minimizes energy consisting of a smoothing term and a data term that evaluates whether the measured data can be reproduced is derived. Has been done. By using a smoothing term that takes into account the anisotropic diffusion tensor that reduces the effect of the smoothing term where the gradient of the image is large, we aim to change the depth discontinuously at the object boundary. There is.

非特許文献3には、画像と疎なデプスマップから密なデプスマップを推定するようにニューラルネットワークを学習することで、デプスマップの超解像を実現することが開示されている。非特許文献3の手法は内挿や平滑化を実施しないため、オクルージョン境界で不連続となる超解像デプスマップを出力することが可能である。 Non-Patent Document 3 discloses that super-resolution of a depth map is realized by learning a neural network so as to estimate a dense depth map from an image and a sparse depth map. Since the method of Non-Patent Document 3 does not perform interpolation or smoothing, it is possible to output a super-resolution depth map that is discontinuous at the occlusion boundary.

Kopf, Johannes, et al. "Joint bilateral upsampling." ACM Transactions on Graphics (ToG). Vol. 26. No. 3. ACM, 2007.Kopf, Johannes, et al. "Joint bilateral upsampling." ACM Transactions on Graphics (ToG). Vol. 26. No. 3. ACM, 2007. Ferstl, David, et al. "Image guided depth upsampling using anisotropic total generalized variation." Proceedings of the IEEE International Conference on Computer Vision. 2013.Ferstl, David, et al. "Image guided depth upsampling using anisotropic total generalized variation." Proceedings of the IEEE International Conference on Computer Vision. 2013. Chen, Yun, et al. "Learning Joint 2D-3D Representations for Depth Completion." Proceedings of the IEEE International Conference on Computer Vision. 2019.Chen, Yun, et al. "Learning Joint 2D-3D Representations for Depth Completion." Proceedings of the IEEE International Conference on Computer Vision. 2019.

非特許文献1の手法の問題点は、オクルージョン境界付近では前景の物体の奥行きと後景の物体の奥行きとの間の奥行きがとられてしまうため、オクルージョン境界付近で奥行きが連続的に変化する不自然なデプスマップが得られることである。 The problem with the method of Non-Patent Document 1 is that the depth between the depth of the object in the foreground and the depth of the object in the background is taken near the occlusion boundary, so that the depth changes continuously near the occlusion boundary. It is to obtain an unnatural depth map.

非特許文献2の手法の問題点は、異方性拡散テンソルの各要素は平滑化の度合いをコントロールするが、平滑化を完全に無効化することはできないため、結果として、オクルージョン境界付近で奥行きが連続的に変化する不自然なデプスマップが得られることである。 The problem with the method of Non-Patent Document 2 is that each element of the anisotropic diffusion tensor controls the degree of smoothing, but the smoothing cannot be completely nullified. As a result, the depth is near the occlusion boundary. Is to obtain an unnatural depth map in which is continuously changing.

非特許文献3の手法の問題点は、ニューラルネットワークの学習が必要であり、適用したい環境と同様のシーンで事前にデータを集めて学習をしておく必要があることである。そのような制約は手法の適用性を損なうものである。 The problem with the method of Non-Patent Document 3 is that it is necessary to learn the neural network, and it is necessary to collect and learn the data in advance in the same scene as the environment to be applied. Such constraints impair the applicability of the method.

このように、上記の非特許文献1〜非特許文献3の手法は、「平滑化や内挿を行う結果、オクルージョン境界において奥行きが連続的に変化するため、不自然なデプスマップが得られる」もしくは「適用先と同様のシーンで事前に学習をしていなければならない」という点が問題である。 As described above, the methods of Non-Patent Documents 1 to 3 described above "as a result of smoothing and interpolation, the depth changes continuously at the occlusion boundary, so that an unnatural depth map can be obtained." Or, the problem is that "you must have learned in advance in the same scene as the application destination".

開示の技術は、上記の点に鑑みてなされたものであり、簡易な処理で、離散的な境界を有する適切な超解像デプスマップを得ることができるデプスマップ超解像装置、デプスマップ超解像方法、及びデプスマップ超解像プログラムを提供することを目的とする。 The disclosed technology has been made in view of the above points, and is a depth map super-resolution device, a depth map super-resolution device, which can obtain an appropriate super-resolution depth map having discrete boundaries by a simple process. It is an object of the present invention to provide a resolution method and a depth map super-resolution program.

本開示の第1態様は、デプスマップ超解像装置であって、各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出するテンソル導出部と、前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成する平滑化部と、を含む。 The first aspect of the present disclosure is a depth map super-resolution device, in which each pixel has a pixel value corresponding to the depth value of an object in the boundary direction based on the boundary position and the boundary direction of the depth map. A tensor derivation unit that derives a diffusion tensor for diffusing pixel values at the boundary position, and a super-resolution depth map obtained by super-resolution of the depth map based on the depth map and the diffusion tensor. Includes a smoothing section to be generated.

本開示の第2態様は、デプスマップ超解像方法であって、テンソル導出部が、各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出し、平滑化部が、前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成することを含む。 The second aspect of the present disclosure is the depth map super-resolution method, in which the tensor derivation unit is based on the boundary position and the boundary direction of the depth map in which each pixel has a pixel value corresponding to the depth value of the object. , A diffusion tensor for diffusing the pixel values at the boundary position was derived according to the boundary direction, and the smoothing unit made the depth map super-resolution based on the depth map and the diffusion tensor. Includes generating a super-resolution depth map.

本開示の第3態様は、デプスマップ超解像プログラムであって、コンピュータを、上記第1態様のデプスマップ超解像装置として機能させるためのプログラムである。 The third aspect of the present disclosure is a depth map super-resolution program, which is a program for causing a computer to function as the depth map super-resolution device of the first aspect.

開示の技術によれば、簡易な処理で、離散的な境界を有する適切な超解像デプスマップを得ることができる。 According to the disclosed technique, an appropriate super-resolution depth map having discrete boundaries can be obtained by a simple process.

本実施形態のデプスマップ超解像装置として機能するコンピュータの一例の概略ブロック図である。It is a schematic block diagram of an example of a computer functioning as a depth map super-resolution apparatus of this embodiment. 入力された疎なデプスマップの一例を示す図である。It is a figure which shows an example of the input sparse depth map. 入力された画像の一例を示す図である。It is a figure which shows an example of the input image. 本実施形態のデプスマップ超解像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the depth map super-resolution apparatus of this embodiment. オクルージョン境界の一例を示す図である。It is a figure which shows an example of the occlusion boundary. 補完デプスマップの一例を示す図である。It is a figure which shows an example of the complementary depth map. 超解像デプスマップの一例を示す図である。It is a figure which shows an example of a super-resolution depth map. 本実施形態のデプスマップ超解像装置のデプスマップ超解像処理ルーチンを示すフローチャートである。It is a flowchart which shows the depth map super-resolution processing routine of the depth map super-resolution apparatus of this embodiment.

以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, an example of an embodiment of the disclosed technology will be described with reference to the drawings. The same reference numerals are given to the same or equivalent components and parts in each drawing. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

<本実施形態の概要>
本実施形態では、LiDAR(Light Detection and Ranging)センサによる計測で得られた疎なデプスマップを、画像を用いてアップサンプリングした上で、オクルージョン境界を用いて導出した拡散テンソルを用いて、離散的なオクルージョン境界を有するようにしつつ、オクルージョン境界でない部分で平滑化をすることで、適切な超解像デプスマップを得る。
<Outline of this embodiment>
In the present embodiment, a sparse depth map obtained by measurement with a LiDAR (Light Detection and Langing) sensor is upsampled using an image, and then discrete using a diffusion tensor derived using an occlusion boundary. An appropriate super-resolution depth map is obtained by smoothing the non-occlusion boundary while having a proper occlusion boundary.

<本実施形態に係るデプスマップ超解像装置の構成>
図1は、本実施形態のデプスマップ超解像装置10のハードウェア構成を示すブロック図である。
<Configuration of depth map super-resolution device according to this embodiment>
FIG. 1 is a block diagram showing a hardware configuration of the depth map super-resolution device 10 of the present embodiment.

図1に示すように、デプスマップ超解像装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。 As shown in FIG. 1, the depth map super-resolution device 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a storage 14, an input unit 15, and a display unit 16. And has a communication interface (I / F) 17. The configurations are connected to each other via a bus 19 so as to be communicable with each other.

CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、ニューラルネットワークを学習するためのデプスマップ超解像プログラムが格納されている。デプスマップ超解像プログラムは、1つのプログラムであっても良いし、複数のプログラム又はモジュールで構成されるプログラム群であっても良い。 The CPU 11 is a central arithmetic processing unit that executes various programs and controls each part. That is, the CPU 11 reads the program from the ROM 12 or the storage 14, and executes the program using the RAM 13 as a work area. The CPU 11 controls each of the above configurations and performs various arithmetic processes according to the program stored in the ROM 12 or the storage 14. In the present embodiment, the ROM 12 or the storage 14 stores a depth map super-resolution program for learning a neural network. The depth map super-resolution program may be one program or a group of programs composed of a plurality of programs or modules.

ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。 The ROM 12 stores various programs and various data. The RAM 13 temporarily stores a program or data as a work area. The storage 14 is composed of an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various programs including an operating system and various data.

入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、疎なデプスマップ及び当該デプスマップと対応する領域を撮影した画像を含む各種の入力を行うために使用される。例えば、図2に示すような、疎なデプスマップと、図3に示すような、当該デプスマップと対応する領域を撮影した画像とが入力される。図2では、疎なデプスマップが、LiDARセンサによる計測で奥行き値が得られた画素のみを黒く表示している例を示している。図3では、疎なデプスマップと対応する領域を撮影したカラー画像又はグレースケール画像の例を示している。 The input unit 15 includes a pointing device such as a mouse and a keyboard, and is used to perform various inputs including a sparse depth map and an image obtained by capturing an area corresponding to the depth map. For example, a sparse depth map as shown in FIG. 2 and an image of a region corresponding to the depth map as shown in FIG. 3 are input. FIG. 2 shows an example in which the sparse depth map displays only the pixels for which the depth value is obtained by the measurement by the LiDAR sensor in black. FIG. 3 shows an example of a color image or a grayscale image obtained by capturing a region corresponding to a sparse depth map.

具体的には、入力された画像は、カメラにより撮影された、各画素が、RGBもしくはグレースケールで表される画素値を有する。また、疎なデプスマップは、LiDARセンサで計測された計測情報を画像上に投影することで取得する、画像と同サイズの奥行き値を値として持つ配列である。奥行き値が計測されていない画素では値がゼロとなる。 Specifically, in the input image, each pixel taken by the camera has a pixel value represented by RGB or gray scale. Further, the sparse depth map is an array having a depth value of the same size as the image, which is acquired by projecting the measurement information measured by the LiDAR sensor onto the image. The value is zero for pixels for which the depth value has not been measured.

ここで、画像を撮影するカメラと、デプスマップを取得するLiDARセンサとは、事前にキャリブレーションされており、デプスマップは画像上に正確に投影されているとする。 Here, it is assumed that the camera that captures the image and the LiDAR sensor that acquires the depth map are calibrated in advance, and the depth map is accurately projected on the image.

表示部16は、例えば、液晶ディスプレイであり、疎なデプスマップを超解像度化した超解像デプスマップを含む各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能しても良い。ここで、超解像デプスマップは、画像と同サイズの奥行き値を値として持つ配列であり、すべての画素でゼロ以外の値を持つ。 The display unit 16 is, for example, a liquid crystal display, and displays various information including a super-resolution depth map in which a sparse depth map is super-resolution. The display unit 16 may adopt a touch panel method and function as an input unit 15. Here, the super-resolution depth map is an array having a depth value of the same size as the image as a value, and has a non-zero value in all pixels.

なお、疎なデプスマップにおいて、奥行き値が計測されていない画素では値を持たないようにしてもよく、この場合、超解像デプスマップでは、全ての画素で何らかの値を持つ点が、疎なデプスマップと異なる。 In a sparse depth map, pixels whose depth value has not been measured may not have a value. In this case, in a super-resolution depth map, it is sparse that all pixels have some value. Different from depth map.

通信インタフェース17は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi−Fi(登録商標)等の規格が用いられる。 The communication interface 17 is an interface for communicating with other devices, and for example, standards such as Ethernet (registered trademark), FDDI, and Wi-Fi (registered trademark) are used.

次に、デプスマップ超解像装置10の機能構成について説明する。図4は、デプスマップ超解像装置10の機能構成の例を示すブロック図である。 Next, the functional configuration of the depth map super-resolution device 10 will be described. FIG. 4 is a block diagram showing an example of the functional configuration of the depth map super-resolution device 10.

デプスマップ超解像装置10は、機能的には、図4に示すように、アップサンプリング部101、境界導出部102、テンソル導出部103、及び平滑化部104を備えている。 The depth map super-resolution device 10 functionally includes an upsampling unit 101, a boundary derivation unit 102, a tensor derivation unit 103, and a smoothing unit 104, as shown in FIG.

アップサンプリング部101は、入力部15により受け付けた、疎なデプスマップに対応する領域を表す画像を用いて、疎なデプスマップのうち、奥行き値に応じた画素値を有しない画素の画素値を補完した補完デプスマップを生成する(図6参照)。図6では、補完デプスマップの全ての画素が、奥行き値に応じた値を濃淡で表示している例を示している。 The upsampling unit 101 uses an image representing a region corresponding to the sparse depth map received by the input unit 15 to obtain pixel values of pixels of the sparse depth map that do not have pixel values corresponding to the depth value. Generate a complementary depth map (see FIG. 6). FIG. 6 shows an example in which all the pixels of the complementary depth map display the values corresponding to the depth values in shades.

例えば、Joint Bilateral Nearest Neighborという手法を用いて、奥行き値に応じた画素値を有しない画素の画素値を補完する。具体的には、以下の式(1)の通り、位置xにおける補完デプスマップの奥行き値d’(x)は、画像平面での座標の距離と画素値の距離を統合した距離において、奥行き値を持つ画素のうちで最近傍である画素の奥行き値をとる。 For example, a technique called Joint Bilateral Nearest Neighbor is used to complement the pixel values of pixels that do not have pixel values corresponding to the depth value. Specifically, as shown in the following equation (1), the depth value d'(x) of the complementary depth map at the position x is the depth value at the distance obtained by integrating the coordinate distance and the pixel value distance on the image plane. Takes the depth value of the nearest pixel among the pixels with.

Figure 2021174406

(1)
Figure 2021174406

(1)

なお、式(1)中において、a、bはあらかじめ定められた正の定数であり、I(x)は位置xにおける画像の画素値である。I(x)にどのような色空間を使うかは限定されるものではなく、ユーザが任意に定められる。例えば、グレースケール、RGB、XYZ、CIELAB、HSVなどの何れかの色空間が使用される。 In the equation (1), a and b are predetermined positive constants, and I (x) is a pixel value of the image at the position x. The color space used for I (x) is not limited, and is arbitrarily determined by the user. For example, any color space such as grayscale, RGB, XYZ, CIELAB, HSV, etc. is used.

境界導出部102は、アップサンプリング部101から出力された補完デプスマップから、境界位置及び境界方向を表すオクルージョン境界を導出する。 The boundary derivation unit 102 derives an occlusion boundary representing the boundary position and the boundary direction from the complementary depth map output from the upsampling unit 101.

ここで、オクルージョン境界とは、図5に示すように、画像と同じサイズの配列であり、画素値は、4値(”境界位置ではない”、”水平方向における境界位置”、”鉛直方向における境界位置”、”水平方向かつ鉛直方向における境界位置”)のいずれかをとる。図5では、オクルージョン境界が、境界位置でない画素を、白で表し、水平方向における境界を、太い実線で表し、鉛直方向における境界を、細い実線で表し、水平方向かつ鉛直方向における境界を、破線で表した例を示している。 Here, the occlusion boundary is an array of the same size as the image as shown in FIG. 5, and the pixel values are four values (“not the boundary position”, “horizontal boundary position”, and “vertical direction”. Take either "boundary position" or "horizontal and vertical boundary position"). In FIG. 5, pixels whose occlusion boundary is not the boundary position are represented by white, the horizontal boundary is represented by a thick solid line, the vertical boundary is represented by a thin solid line, and the horizontal and vertical boundary is represented by a broken line. The example shown in is shown.

例えば、補完デプスマップを入力として、予め定められた閾値vを用いて各画素x=(x_1,x_2)について以下の判定式1, 判定式2の判定を実施する。 For example, with the complementary depth map as an input, the following determination formulas 1 and 2 are determined for each pixel x = (x_1, x_2) using a predetermined threshold value v.

(判定式1) |d(x_1+1,x_2)−d(x_1,x_2)| > v
(判定式2) |d(x_1,x_2+1)−d(x_1,x_2)| > v
(Judgment formula 1) | d (x_1 + 1, x_2) -d (x_1, x_2) |> v
(Judgment formula 2) | d (x_1, x_2 + 1) -d (x_1, x_2) |> v

そして、オクルージョン境界は、各画素xにおいて、以下の分岐1〜分岐4に則り作成される。 Then, the occlusion boundary is created in each pixel x according to the following branches 1 to 4.

分岐1:(判定式1)が偽、(判定式2)が偽であれば、オクルージョン境界の画素xは、境界位置ではないことを示す値となる。 If branch 1: (determination formula 1) is false and (determination formula 2) is false, the pixel x at the occlusion boundary is a value indicating that it is not the boundary position.

分岐2:(判定式1)が真、(判定式2)が偽であれば、オクルージョン境界の画素xは、水平方向における境界位置であることを示す値となる。 Branch 2: If (judgment formula 1) is true and (judgment formula 2) is false, the pixel x at the occlusion boundary is a value indicating that the boundary position is in the horizontal direction.

分岐3:(判定式1)が偽、(判定式2)が真であれば、オクルージョン境界の画素xは、鉛直方向における境界位置であることを示す値となる。 Branch 3: If (judgment formula 1) is false and (judgment formula 2) is true, the pixel x at the occlusion boundary is a value indicating that the boundary position is in the vertical direction.

分岐4:(判定式1)が真、(判定式2)が真であれば、オクルージョン境界の画素xは、水平方向かつ鉛直方向における境界位置であることを示す値となる。 Branch 4: If (judgment formula 1) is true and (judgment formula 2) is true, the pixel x at the occlusion boundary is a value indicating that the boundary position is in the horizontal direction and the vertical direction.

テンソル導出部103は、境界導出部102によって導出された、補完デプスマップについての境界位置及び境界方向を表すオクルージョン境界に基づいて、境界方向に応じて境界位置での画素値を拡散させるための拡散テンソルを導出する。 The tensor derivation unit 103 diffuses the pixel values at the boundary position according to the boundary direction based on the occlusion boundary representing the boundary position and the boundary direction for the complementary depth map derived by the boundary derivation unit 102. Derivation of the tensor.

具体的には、テンソル導出部103は、補完デプスマップの各画素について、境界位置でない場合に画素値を水平方向及び鉛直方向に拡散させるための配列、水平方向における境界位置である場合に画素値を鉛直方向に拡散させるための配列、鉛直方向における境界位置である場合に画素値を水平方向に拡散させるための配列、並びに水平方向及び鉛直方向における境界位置である場合に、画素値を拡散させないための配列の何れかを要素として有する拡散テンソルを導出する。 Specifically, the tensor derivation unit 103 is an array for spreading the pixel values in the horizontal and vertical directions when it is not the boundary position for each pixel of the complementary depth map, and the pixel value when it is the boundary position in the horizontal direction. An array for spreading the pixels in the vertical direction, an array for spreading the pixel values in the horizontal direction when the boundary position is in the vertical direction, and not spreading the pixel values when the boundary position is in the horizontal direction and the vertical direction. A diffusion tensor having any of the sequences for is derived.

例えば、拡散テンソルは、画像サイズ×2×2の配列であり、配列の値は実数値をとる。画像サイズを縦H、横Wとすると、拡散テンソルは、H×Wの画素それぞれについて2×2の配列を要素として持つ。拡散テンソルをTと表し、0≦h<H、0≦w<Wの整数とし、画素(h,w)の拡散テンソルの値をT(h,w)と表す。境界導出部102によって導出されたオクルージョン境界をBとし、画素(h,w)の値をB(h,w)と表す。なお前述の通り、T(h,w)は2×2の配列である。このとき、拡散テンソルは以下に従って導出される。 For example, the diffusion tensor is an array of image size × 2 × 2, and the values of the array take real values. Assuming that the image size is vertical H and horizontal W, the diffusion tensor has a 2 × 2 array for each of the H × W pixels as an element. The diffusion tensor is represented by T, an integer of 0 ≦ h <H, 0 ≦ w <W, and the value of the diffusion tensor of the pixel (h, w) is represented by T (h, w). The occlusion boundary derived by the boundary derivation unit 102 is represented by B, and the value of the pixel (h, w) is represented by B (h, w). As described above, T (h, w) is a 2 × 2 array. At this time, the diffusion tensor is derived according to the following.

まず、B(h,w)が境界位置ではないことを示す値であるとき、T(h,w)は以下の式に従って導出される。

Figure 2021174406
First, when B (h, w) is a value indicating that it is not a boundary position, T (h, w) is derived according to the following equation.
Figure 2021174406

また、B(h,w)が水平方向における境界位置であることを示す値であるとき、T(h,w)は以下の式に従って導出される。

Figure 2021174406
Further, when B (h, w) is a value indicating that the boundary position is in the horizontal direction, T (h, w) is derived according to the following equation.
Figure 2021174406

また、B(h,w)が鉛直方向における境界位置であることを示す値であるとき、T(h,w)は以下の式に従って導出される。

Figure 2021174406
Further, when B (h, w) is a value indicating that the boundary position is in the vertical direction, T (h, w) is derived according to the following equation.
Figure 2021174406

また、B(h,w)が水平方向かつ鉛直方向における境界位置であることを示す値であるとき、T(h,w)は以下の式に従って導出される。

Figure 2021174406
Further, when B (h, w) is a value indicating that the boundary position is in the horizontal direction and the vertical direction, T (h, w) is derived according to the following equation.
Figure 2021174406

平滑化部104は、補完デプスマップと拡散テンソルとに基づいて、補完デプスマップを超解像度化した超解像デプスマップを生成する(図7参照)。図7では、上記図6に示す補完デプスマップを超解像度化した超解像デプスマップの例を示している。 The smoothing unit 104 generates a super-resolution depth map in which the complementary depth map is super-resolution based on the complementary depth map and the diffusion tensor (see FIG. 7). FIG. 7 shows an example of a super-resolution depth map in which the complementary depth map shown in FIG. 6 is super-resolutiond.

具体的には、平滑化部104は、拡散テンソル、超解像デプスマップを画像平面で微分したもの、及び補完デプスマップと超解像デプスマップとの差分を用いて表されるエネルギー関数を最小化するように、超解像デプスマップを生成する。 Specifically, the smoothing unit 104 minimizes the energy function expressed by using the diffusion tensor, the super-resolution depth map differentiated on the image plane, and the difference between the complementary depth map and the super-resolution depth map. Generate a super-resolution depth map so that it becomes.

例えば、以下の式(2)で表されるエネルギー関数を最小化するHuberノルム平滑化により、超解像デプスマップを生成する。 For example, a super-resolution depth map is generated by Huber norm smoothing that minimizes the energy function represented by the following equation (2).

Figure 2021174406

(2)
Figure 2021174406

(2)

ただし、超解像デプスマップをU、補完デプスマップをD、拡散テンソルをTと表し、それぞれの画素(h,w)における値をU(h,w)、D(h,w)、T(h,w)と表す。すなわち、上記式(2)のエネルギー関数は、拡散テンソルと超解像デプスマップを画像平面で微分したものとの積、及び補完デプスマップと超解像デプスマップとの差分を用いて表されている。 However, the super-resolution depth map is represented by U, the complementary depth map is represented by D, and the diffusion tensor is represented by T, and the values at each pixel (h, w) are U (h, w), D (h, w), T ( It is expressed as h, w). That is, the energy function of the above equation (2) is expressed using the product of the diffusion tensor and the super-resolution depth map differentiated on the image plane, and the difference between the complementary depth map and the super-resolution depth map. There is.

また、|| ||εはHuberノルムであり、∇は画像平面での微分をとることを意味する。すなわち、∇U(h,w)は2次元のベクトルである。λおよびλはそれぞれの項のエネルギーへの寄与を定める重みであり、正の実数である。W(h,w)は要素ごとに重みづけを行う場合に導入する正の実数からなるH×Wのサイズの配列である。なお、重みづけをしない場合すべての要素を1とすればよい。 Also, || || ε is the Huber norm, and ∇ means to take the derivative in the image plane. That is, ∇U (h, w) is a two-dimensional vector. λ u and λ d are weights that determine the contribution of each term to energy and are positive real numbers. W (h, w) is an array of the size of H × W consisting of positive real numbers to be introduced when weighting is performed for each element. If no weighting is applied, all elements may be set to 1.

上記式(2)のエネルギーを最小化するUはFirst Order Primal Dualアルゴリズムにより、双対変数Pを導入して、式(3)〜式(5)の更新式により得ることができる。Uの初期値はDとする。Pの初期値は任意であるが、すべての要素をゼロとしてもよい。 The U that minimizes the energy of the above equation (2) can be obtained by the updated equations of equations (3) to (5) by introducing the dual variable P by the First Order Primal Dual algorithm. The initial value of U is D. The initial value of P is arbitrary, but all elements may be zero.

Figure 2021174406

(3)
Figure 2021174406

(4)
Figure 2021174406

(5)
Figure 2021174406

(3)
Figure 2021174406

(4)
Figure 2021174406

(5)

ここで、

Figure 2021174406

である。τ、τはそれぞれP、Uの更新のための正定数である。divは、発散を表す演算子である。収束するまで、上記式(3)〜式(5)の更新式を繰り返し適用し、最終的なUを超解像デプスマップとする。 here,
Figure 2021174406

Is. τ P and τ U are positive constants for updating P and U, respectively. div is an operator that represents divergence. Until convergence, the equation (3) is applied repeatedly updating expressions to (5), the final U n and super-resolution depth map.

<本実施形態に係るデプスマップ超解像装置の作用>
次に、デプスマップ超解像装置10の作用について説明する。
<Operation of depth map super-resolution device according to this embodiment>
Next, the operation of the depth map super-resolution device 10 will be described.

図8は、デプスマップ超解像装置10によるデプスマップ超解像処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14からデプスマップ超解像プログラムを読み出して、RAM13に展開して実行することにより、デプスマップ超解像処理が行なわれる。また、デプスマップ超解像装置10に、疎なデプスマップ及び当該デプスマップと対応する領域を撮影した画像が入力される。 FIG. 8 is a flowchart showing the flow of the depth map super-resolution processing by the depth map super-resolution device 10. The depth map super-resolution processing is performed by the CPU 11 reading the depth map super-resolution program from the ROM 12 or the storage 14, deploying the program in the RAM 13 and executing the program. Further, a sparse depth map and an image of a region corresponding to the depth map are input to the depth map super-resolution device 10.

ステップS100で、CPU11は、アップサンプリング部101として、入力部15により受け付けた、疎なデプスマップに対応する領域を表す画像を用いて、疎なデプスマップのうち、奥行き値に応じた画素値を有しない画素の画素値を補完した補完デプスマップを生成する。 In step S100, the CPU 11 uses the image representing the area corresponding to the sparse depth map received by the input unit 15 as the upsampling unit 101 to set the pixel value corresponding to the depth value in the sparse depth map. Generates a complementary depth map that complements the pixel values of pixels that do not have it.

ステップS102で、CPU11は、境界導出部102として、アップサンプリング部101から出力された補完デプスマップから、境界位置及び境界方向を表すオクルージョン境界を導出する。 In step S102, the CPU 11 derives an occlusion boundary representing the boundary position and the boundary direction from the complementary depth map output from the upsampling unit 101 as the boundary derivation unit 102.

ステップS104では、CPU11は、テンソル導出部103として、境界導出部102によって導出された、補完デプスマップについての境界位置及び境界方向を表すオクルージョン境界に基づいて、境界方向に応じて境界位置での画素値を拡散させるための拡散テンソルを導出する。 In step S104, the CPU 11, as the tensor derivation unit 103, determines the pixels at the boundary position according to the boundary direction based on the occlusion boundary representing the boundary position and the boundary direction for the complementary depth map derived by the boundary derivation unit 102. Derivation of a diffusion tensor to diffuse the value.

ステップS106では、CPU11は、平滑化部104として、補完デプスマップと拡散テンソルとに基づいて、補完デプスマップを超解像度化した超解像デプスマップを生成し、表示部16により表示して、デプスマップ超解像処理ルーチンを終了する。 In step S106, the CPU 11 generates a super-resolution depth map in which the complementary depth map is super-resolution based on the complementary depth map and the diffusion tensor as the smoothing unit 104, displays it on the display unit 16, and displays the depth. End the map super-resolution processing routine.

以上説明したように、本実施形態に係るデプスマップ超解像装置は、各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出する。デプスマップ超解像装置は、前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成する。これにより、簡易な処理で、離散的な境界を有する適切な超解像デプスマップを得ることができる。 As described above, in the depth map super-resolution device according to the present embodiment, the boundary direction is based on the boundary position and the boundary direction of the depth map in which each pixel has a pixel value corresponding to the depth value of the object. A diffusion tensor for diffusing the pixel value at the boundary position is derived according to the above. The depth map super-resolution device generates a super-resolution depth map in which the depth map is super-resolution based on the depth map and the diffusion tensor. As a result, an appropriate super-resolution depth map having discrete boundaries can be obtained by a simple process.

<変形例>
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
<Modification example>
The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、境界導出部102の処理を省略してもよい。この場合には、デプスマップにおけるオクルージョン境界を、入力部15により受け付けるようにすればよい。 For example, the processing of the boundary derivation unit 102 may be omitted. In this case, the occlusion boundary in the depth map may be accepted by the input unit 15.

また、アップサンプリング部101の処理を省略してもよい。この場合には、各画素が、奥行き値に応じた値を持つデプスマップを、入力部15により受け付けるようにすればよい。 Further, the processing of the upsampling unit 101 may be omitted. In this case, the input unit 15 may receive a depth map in which each pixel has a value corresponding to the depth value.

また、アップサンプリング部101は、最小画像勾配経路法を用いて、補完デプスマップを生成するようにしてもよい。具体的には、奥行き値を持つ画素を開始点として、奥行き値を浸潤させることにより、補完デプスマップを生成する。すなわち、奥行き値を浸潤させる際に、画像上の勾配を累積する。このとき、浸潤先の画素が、画像上の勾配の累積値よりも小さい値を持つ場合には、奥行き値を更新しない。一方、浸潤先の画素が、画像上の勾配の累積値以上の値を持つ場合、開始点となった画素の奥行き値で更新する。これを収束するまで繰り返す。これにより、奥行き値を持たない画素は、近傍の画素のうち、画像上の勾配の累積値が最小値となる画素の奥行き値で補完される。 Further, the upsampling unit 101 may generate a complementary depth map by using the minimum image gradient path method. Specifically, a complementary depth map is generated by infiltrating the depth value with the pixel having the depth value as the starting point. That is, when the depth value is infiltrated, the gradient on the image is accumulated. At this time, if the infiltration destination pixel has a value smaller than the cumulative value of the gradient on the image, the depth value is not updated. On the other hand, when the infiltration destination pixel has a value equal to or larger than the cumulative value of the gradient on the image, the depth value of the pixel as the starting point is used for updating. This is repeated until it converges. As a result, the pixels having no depth value are complemented by the depth value of the pixels in the vicinity where the cumulative value of the gradient on the image is the minimum value.

例えば、以下の疑似コードのように、画像上の勾配を累積させる際には画像上の方向を考慮してもよい。 For example, as in the following pseudo code, the direction on the image may be taken into consideration when accumulating the gradients on the image.

Figure 2021174406

Figure 2021174406
Figure 2021174406

Figure 2021174406

11行目〜16行目では、水平方向に画像上の勾配を累積し、浸潤先の画素が、画像上の勾配の累積値以上の値を持つ場合に、開始点となった画素の奥行き値で更新している。17行目〜22行目では、鉛直方向に画像上の勾配を累積し、浸潤先の画素が、画像上の勾配の累積値以上の値を持つ場合に、開始点となった画素の奥行き値で更新している。 In the 11th to 16th lines, the gradients on the image are accumulated in the horizontal direction, and when the infiltrated pixel has a value equal to or greater than the cumulative value of the gradient on the image, the depth value of the pixel that is the starting point. It is updated with. In the 17th to 22nd lines, the gradients on the image are accumulated in the vertical direction, and when the infiltration destination pixel has a value equal to or greater than the cumulative value of the gradient on the image, the depth value of the pixel that is the starting point. It is updated with.

また、以下の疑似コードのように、画像上の勾配を累積させる際に画像上の方向を考慮しなくてもよい。 Further, as in the following pseudo code, it is not necessary to consider the direction on the image when accumulating the gradients on the image.

Figure 2021174406
Figure 2021174406

11行目〜16行目では、水平方向及び鉛直方向それぞれに画像上の勾配を累積し、浸潤先の画素が、画像上の勾配の累積値以上の値を持つ場合に、開始点となった画素の奥行き値で更新している。 In the 11th to 16th lines, the gradients on the image are accumulated in each of the horizontal direction and the vertical direction, and when the infiltrated pixel has a value equal to or more than the cumulative value of the gradient on the image, it becomes the starting point. It is updated with the depth value of the pixel.

また、上記の疑似コードにおいてnはゼロ以上の定数であり、経路長が長くなることに対するコストである。Normは絶対値ノルム| |もしくは2乗ノルム|| ||もしくはHuberノルムなどの任意のノルムである。 Further, in the above pseudo code, n is a constant of zero or more, which is a cost for increasing the path length. Norm is an absolute norm || or a squared norm || || 2 or any norm such as the Huber norm.

また、テンソル導出部103は、オクルージョン境界と画像から、拡散テンソルを導出するようにしてもよい。具体的には、上記非特許文献2の手法と同様の方法で異方性拡散テンソルTaを導出し、上記実施形態と同様の方法で拡散テンソル(Tbと呼ぶ)を導出する。各画素(h,w)に対する拡散テンソルは、以下の式(6)で導出する。 Further, the tensor derivation unit 103 may derive the diffusion tensor from the occlusion boundary and the image. Specifically, the anisotropic diffusion tensor Ta is derived by the same method as in Non-Patent Document 2, and the diffusion tensor (referred to as Tb) is derived by the same method as in the above embodiment. The diffusion tensor for each pixel (h, w) is derived by the following equation (6).

Figure 2021174406

(6)
Figure 2021174406

(6)

上記式(6)においてTb(h,w)とTa(h,w)はともに2×2の行列であり、T(h,w)は2つの行列の積である。 In the above equation (6), Tb (h, w) and Ta (h, w) are both 2 × 2 matrices, and T (h, w) is the product of the two matrices.

また、平滑化部104は、以下の式(7)で表されるエネルギー関数を最小化するTotal Generalized Variation平滑化により、超解像デプスマップを生成してもよい。 Further, the smoothing unit 104 may generate a super-resolution depth map by the Total Generalized Variation smoothing that minimizes the energy function represented by the following equation (7).

Figure 2021174406

(7)
Figure 2021174406

(7)

ただし、補完デプスマップはDであり、拡散テンソルはTであり、超解像デプスマップはUである。なお、新たにH×W×2のサイズの配列Vを定義する。また、λ、λおよびλはそれぞれの項のエネルギーへの寄与を定める重みであり、正の実数である。 However, the complementary depth map is D, the diffusion tensor is T, and the super-resolution depth map is U. A new array V having a size of H × W × 2 is defined. Further, λ U , λ V, and λ d are weights that determine the contribution of each term to energy, and are positive real numbers.

上記式(7)のエネルギーを最小化するU,VはFirst Order Primal Dualアルゴリズムにより、双対変数P,Qを導入して、式(8)、式(9)、式(10)、式(11)、式(12)、式(13)の更新式により得ることができる。Uの初期値はDとする。V、P、Qの初期値は任意であるが、すべての要素をゼロとしてもよい。 U and V that minimize the energy of the above equation (7) introduce the dual variables P and Q by the First Order Primary Dual algorithm, and the equations (8), (9), (10), and (11) are introduced. ), Equation (12), and the updated equation of equation (13). The initial value of U is D. The initial values of V, P, and Q are arbitrary, but all elements may be set to zero.

Figure 2021174406

(8)
Figure 2021174406

(9)
Figure 2021174406

(10)
Figure 2021174406

(11)
Figure 2021174406

(12)
Figure 2021174406

(13)
Figure 2021174406

(8)
Figure 2021174406

(9)
Figure 2021174406

(10)
Figure 2021174406

(11)
Figure 2021174406

(12)
Figure 2021174406

(13)

ここで、

Figure 2021174406

であり、
Figure 2021174406

である。τ、τ、τ、τはそれぞれP、Q、U、Vの更新のための正定数である。収束するまで更新式を繰り返し適用し、最終的なUを超解像デプスマップとする。 here,
Figure 2021174406

And
Figure 2021174406

Is. τ P , τ Q , τ U , and τ V are positive constants for updating P, Q, U, and V, respectively. Repeatedly applying the update equation until convergence, the final U n and super-resolution depth map.

また、平滑化部104は、以下の式(14)で表されるエネルギー関数を最小化する拡張Total Generalized Variation平滑化により、超解像デプスマップを生成してもよい。 Further, the smoothing unit 104 may generate a super-resolution depth map by the extended Total Generalized Variation smoothing that minimizes the energy function represented by the following equation (14).

Figure 2021174406

(14)
Figure 2021174406

(14)

なお、新たH×W×2のサイズの配列Vを定義する。また、λ、λおよびλはそれぞれの項のエネルギーへの寄与を定める重みであり、正の実数である。 A new array V having a size of H × W × 2 is defined. Further, λ U , λ V, and λ d are weights that determine the contribution of each term to energy, and are positive real numbers.

上記式(14)のエネルギーを最小化するU,VはFirst Order Primal Dualアルゴリズムにより、双対変数P,Qを導入して、式(15)〜式(20)の更新式により得ることができる。Uの初期値はDとする。V、P、Qの初期値は任意であるが、すべての要素をゼロとしてもよい。 U and V that minimize the energy of the above equation (14) can be obtained by the update equations of the equations (15) to (20) by introducing the dual variables P and Q by the First Older Primary Dual algorithm. The initial value of U is D. The initial values of V, P, and Q are arbitrary, but all elements may be set to zero.

Figure 2021174406

(15)
Figure 2021174406

(16)
Figure 2021174406

(17)
Figure 2021174406

(18)
Figure 2021174406

(19)
Figure 2021174406

(20)
Figure 2021174406

(15)
Figure 2021174406

(16)
Figure 2021174406

(17)
Figure 2021174406

(18)
Figure 2021174406

(19)
Figure 2021174406

(20)

ここで、

Figure 2021174406

であり、
Figure 2021174406

である。τ、τ、τ、τはそれぞれP、Q、U、Vの更新のための正定数である。収束するまで更新式を繰り返し適用し、最終的なUnを超解像デプスマップとする。 here,
Figure 2021174406

And
Figure 2021174406

Is. τ P , τ Q , τ U , and τ V are positive constants for updating P, Q, U, and V, respectively. The update formula is repeatedly applied until it converges, and the final Un is used as a super-resolution depth map.

また、疎なデプスマップは奥行き値ではなく、奥行きの逆数(インバースデプス)を値として持っていてもよく、奥行きが計測されていないところでは奥行きの逆数をゼロとしてもよい。その場合は出力される補完デプスマップと超解像デプスマップも奥行きの逆数を値として持つようにすればよい。 Further, the sparse depth map may have the reciprocal of the depth (inverse depth) as the value instead of the depth value, and the reciprocal of the depth may be set to zero where the depth is not measured. In that case, the output complementary depth map and super-resolution depth map may also have the reciprocal of the depth as the value.

また、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field−Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、デプスマップ超解像処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。 Further, various processors other than the CPU may execute various processes in which the CPU reads the software (program) and executes the software (program) in each of the above embodiments. In this case, the processor includes a PLD (Programmable Logic Device) whose circuit configuration can be changed after manufacturing an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), and the like. An example is a dedicated electric circuit or the like, which is a processor having a circuit configuration designed exclusively for the purpose. In addition, the depth map super-resolution processing may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, and a CPU and an FPGA). It may be executed in combination with). Further, the hardware structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined.

また、上記各実施形態では、デプスマップ超解像プログラムがストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non−transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。 Further, in each of the above embodiments, the mode in which the depth map super-resolution program is stored (installed) in the storage 14 in advance has been described, but the present invention is not limited to this. The program is stored in a non-temporary medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versaille Disk Online Memory), and a USB (Universal Serial Bus) memory. It may be provided in the form. Further, the program may be downloaded from an external device via a network.

以上の実施形態に関し、更に以下の付記を開示する。 Regarding the above embodiments, the following additional notes will be further disclosed.

(付記項1)
デプスマップ超解像装置であって、
メモリと、
前記メモリに接続された少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出し、
前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成する
ように構成されるデプスマップ超解像装置。
(Appendix 1)
Depth map super-resolution device
Memory and
With at least one processor connected to the memory
Including
The processor
Based on the boundary position and boundary direction of the depth map in which each pixel has a pixel value corresponding to the depth value of the object, a diffusion tensor for diffusing the pixel value at the boundary position according to the boundary direction is derived. death,
A depth map super-resolution device configured to generate a super-resolution depth map in which the depth map is super-resolution based on the depth map and the diffusion tensor.

(付記項2)
デプスマップ超解像処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時的記憶媒体であって、
前記デプスマップ超解像処理は、
各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出し、
前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成する
非一時的記憶媒体。
(Appendix 2)
A non-temporary storage medium that stores a program that can be executed by a computer to perform depth map super-resolution processing.
The depth map super-resolution processing is
Based on the boundary position and boundary direction of the depth map in which each pixel has a pixel value corresponding to the depth value of the object, a diffusion tensor for diffusing the pixel value at the boundary position according to the boundary direction is derived. death,
A non-temporary storage medium that generates a super-resolution depth map in which the depth map is super-resolution based on the depth map and the diffusion tensor.

10 デプスマップ超解像装置
15 入力部
16 表示部
101 アップサンプリング部
102 境界導出部
103 テンソル導出部
104 平滑化部
10 Depth map super-resolution device 15 Input unit 16 Display unit 101 Upsampling unit 102 Boundary derivation unit 103 Tensor derivation unit 104 Smoothing unit

Claims (7)

各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出するテンソル導出部と、
前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成する平滑化部と、
を有するデプスマップ超解像装置。
Based on the boundary position and boundary direction of the depth map in which each pixel has a pixel value corresponding to the depth value of the object, a diffusion tensor for diffusing the pixel value at the boundary position according to the boundary direction is derived. Tensor derivation part and
A smoothing unit that generates a super-resolution depth map in which the depth map is super-resolution based on the depth map and the diffusion tensor.
Depth map super-resolution device with.
前記テンソル導出部は、前記デプスマップの各画素について、前記境界位置でない場合に画素値を水平方向及び鉛直方向に拡散させるための配列、水平方向における境界位置である場合に画素値を鉛直方向に拡散させるための配列、鉛直方向における境界位置である場合に画素値を水平方向に拡散させるための配列、並びに水平方向及び鉛直方向における境界位置である場合に、画素値を拡散させないための配列の何れかを要素として有する前記拡散テンソルを導出する請求項1記載のデプスマップ超解像装置。 The tensor derivation unit arranges each pixel of the depth map to spread the pixel values in the horizontal direction and the vertical direction when it is not the boundary position, and sets the pixel value in the vertical direction when it is the boundary position in the horizontal direction. An array for spreading, an array for spreading pixel values horizontally when the boundary position is in the vertical direction, and an array for not spreading pixel values when the boundary position is in the horizontal and vertical directions. The depth map super-resolution device according to claim 1, wherein the diffusion tensor having any one of them as an element is derived. 前記デプスマップから、境界位置及び境界方向を導出する境界導出部を更に含み、
前記テンソル導出部は、前記境界位置及び境界方向の導出結果に基づいて、前記拡散テンソルを導出する請求項1又は2記載のデプスマップ超解像装置。
A boundary derivation unit for deriving the boundary position and the boundary direction from the depth map is further included.
The depth map super-resolution device according to claim 1 or 2, wherein the tensor derivation unit derives the diffusion tensor based on the derivation result of the boundary position and the boundary direction.
前記デプスマップに対応する領域を表す画像を用いて、前記デプスマップのうち、前記奥行き値に応じた画素値を有しない画素の画素値を補完した補完デプスマップを生成するアップサンプリング部を更に含み、
前記テンソル導出部は、前記補完デプスマップについての境界位置及び境界方向に基づいて、前記拡散テンソルを導出し、
前記平滑化部は、前記補完デプスマップと前記拡散テンソルとに基づいて、前記補完デプスマップを超解像度化した前記超解像デプスマップを生成する請求項1〜請求項3の何れか1項記載のデプスマップ超解像装置。
An upsampling unit that generates a complementary depth map that complements the pixel values of pixels that do not have pixel values corresponding to the depth value in the depth map by using an image representing a region corresponding to the depth map is further included. ,
The tensor derivation unit derives the diffusion tensor based on the boundary position and the boundary direction with respect to the complementary depth map.
The smoothing section according to any one of claims 1 to 3, wherein the smoothing unit generates the super-resolution depth map in which the complementary depth map is super-resolution based on the complementary depth map and the diffusion tensor. Depth map super-resolution device.
前記平滑化部は、前記拡散テンソル、前記超解像デプスマップを画像平面で微分したもの、及び前記デプスマップと前記超解像デプスマップとの差分を用いて表されるエネルギー関数を最小化するように、前記超解像デプスマップを生成する請求項1〜請求項4の何れか1項記載のデプスマップ超解像装置。 The smoothing unit minimizes the energy function expressed by using the diffusion tensor, the super-resolution depth map differentiated in the image plane, and the difference between the depth map and the super-resolution depth map. The depth map super-resolution apparatus according to any one of claims 1 to 4, wherein the super-resolution depth map is generated. テンソル導出部が、各画素が、物体の奥行き値に応じた画素値を持つデプスマップについての境界位置及び境界方向に基づいて、前記境界方向に応じて前記境界位置での画素値を拡散させるための拡散テンソルを導出し、
平滑化部が、前記デプスマップと前記拡散テンソルとに基づいて、前記デプスマップを超解像度化した超解像デプスマップを生成する
デプスマップ超解像方法。
The tensor derivation unit diffuses the pixel value at the boundary position according to the boundary direction based on the boundary position and the boundary direction for the depth map in which each pixel has the pixel value corresponding to the depth value of the object. Derivation of the diffusion tensor of
A depth map super-resolution method in which a smoothing unit generates a super-resolution depth map in which the depth map is super-resolution based on the depth map and the diffusion tensor.
コンピュータを、請求項1〜請求項5の何れか1項に記載のデプスマップ超解像装置として機能させるためのデプスマップ超解像プログラム。 A depth map super-resolution program for operating a computer as the depth map super-resolution device according to any one of claims 1 to 5.
JP2020079826A 2020-04-28 2020-04-28 Depth map super resolution device, depth map super resolution method, and depth map super resolution program Active JP7405370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020079826A JP7405370B2 (en) 2020-04-28 2020-04-28 Depth map super resolution device, depth map super resolution method, and depth map super resolution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020079826A JP7405370B2 (en) 2020-04-28 2020-04-28 Depth map super resolution device, depth map super resolution method, and depth map super resolution program

Publications (2)

Publication Number Publication Date
JP2021174406A true JP2021174406A (en) 2021-11-01
JP7405370B2 JP7405370B2 (en) 2023-12-26

Family

ID=78279922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020079826A Active JP7405370B2 (en) 2020-04-28 2020-04-28 Depth map super resolution device, depth map super resolution method, and depth map super resolution program

Country Status (1)

Country Link
JP (1) JP7405370B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162504A1 (en) * 2022-02-28 2023-08-31 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983177B2 (en) 2013-02-01 2015-03-17 Mitsubishi Electric Research Laboratories, Inc. Method for increasing resolutions of depth images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162504A1 (en) * 2022-02-28 2023-08-31 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7405370B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
US20210256708A1 (en) Interactive image matting using neural networks
Min et al. Fast global image smoothing based on weighted least squares
US10846870B2 (en) Joint training technique for depth map generation
US20200265595A1 (en) Image noise reduction
US9824431B2 (en) Image synthesis apparatus, image synthesis method, and recording medium
KR100967701B1 (en) Reconstructing three dimensional oil paintings
CN107622504B (en) Method and device for processing pictures
Woo et al. Proximal linearized alternating direction method for multiplicative denoising
JP2015232869A (en) Image processor, image processing method and image processing program
JP2010066803A (en) Image processing apparatus and method, and program
US9760997B2 (en) Image noise reduction using lucas kanade inverse algorithm
JP2019204193A (en) Image processing device, image processing method, and program
CN110852980A (en) Interactive image filling method and system, server, device and medium
US10403040B2 (en) Vector graphics rendering techniques
EP3355279A1 (en) Method and computer programs for identifying differences between 3-dimensional scenes
US9563937B2 (en) High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program
CN113657396B (en) Training method, translation display method, device, electronic equipment and storage medium
JP2021174406A (en) Depth map super-resolution device, depth map super-resolution method, and depth map super-resolution program
JP6249759B2 (en) Image processing method, image processing program, and image processing apparatus
CN109791687B (en) Image restoration on arbitrary curved surfaces
CN107862679B (en) Method and device for determining image detection area
CN112614190B (en) Method and device for projecting mapping
Pinjarkar et al. Robust exemplar-based image and video inpainting for object removal and region filling
US11200708B1 (en) Real-time color vector preview generation
CN115375847A (en) Material recovery method, three-dimensional model generation method and model training method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7405370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150