JP2019091122A - Depth map filter processing device, depth map filter processing method and program - Google Patents

Depth map filter processing device, depth map filter processing method and program Download PDF

Info

Publication number
JP2019091122A
JP2019091122A JP2017217794A JP2017217794A JP2019091122A JP 2019091122 A JP2019091122 A JP 2019091122A JP 2017217794 A JP2017217794 A JP 2017217794A JP 2017217794 A JP2017217794 A JP 2017217794A JP 2019091122 A JP2019091122 A JP 2019091122A
Authority
JP
Japan
Prior art keywords
depth
value
pixel
penalty score
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017217794A
Other languages
Japanese (ja)
Other versions
JP7156624B2 (en
Inventor
酒井 修二
Shuji Sakai
修二 酒井
渡邉 隆史
Takashi Watanabe
隆史 渡邉
孝文 青木
Takafumi Aoki
孝文 青木
伊藤 康一
Koichi Ito
康一 伊藤
滉也 淀川
Koya Yodogawa
滉也 淀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Toppan Inc
Original Assignee
Tohoku University NUC
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Toppan Printing Co Ltd filed Critical Tohoku University NUC
Priority to JP2017217794A priority Critical patent/JP7156624B2/en
Publication of JP2019091122A publication Critical patent/JP2019091122A/en
Application granted granted Critical
Publication of JP7156624B2 publication Critical patent/JP7156624B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

To provide a depth map filter processing device which corrects a depth value of a cluster-shaped pixel, and corrects an incorrect depth value of a pixel near a surface of a body, without changing a correct depth value of a depth map into the incorrect depth value.SOLUTION: A depth map filter processing device comprises: a consistency determination unit which compares pixel information of corresponding pixels of each of different depth maps, and determines the presence or absence of consistency between the pixels; a penalty score integration unit which gives a penalty score to the pixel determined that the consistency does not exist; an integrated value determination unit which determines whether or not the integrated value of the penalty score exceeds a predetermined first threshold, after the consistency of the pixel information between the pixels in all combinations of each of the depth maps is determined, and generates a penalty score map indicating the penalty score of each of the pixels; and a depth value correction unit which corrects the depth value of the pixel of the integrated value exceeding the first threshold in the penalty score map.SELECTED DRAWING: Figure 1

Description

本発明は、対象物が異なる視点から撮像された複数の撮像画像のデプスマップに対し、このデプスマップにおける不正確なデプス値(実際と異なるデプス値)を修正するデプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラムに関する。   The present invention relates to a depth map filter processing apparatus for correcting an incorrect depth value (a depth value different from an actual value) in a depth map of a plurality of captured images in which an object is captured from different viewpoints, a depth map The present invention relates to a filter processing method and program.

対象物を撮像した複数の撮像画像を用いて、対象物の三次元形状モデルを生成する三次元復元手法がある。この三次元復元手法においては、対象物を任意の視点(撮像画像の撮像位置)から観測した際の対象物までの距離情報(デプス値)を2次元画像として記録したデプスマップが用いられる。   There is a three-dimensional reconstruction method of generating a three-dimensional shape model of an object using a plurality of captured images obtained by imaging the object. In this three-dimensional restoration method, a depth map in which distance information (depth value) to an object when observed from an arbitrary viewpoint (an imaging position of a captured image) is recorded as a two-dimensional image is used.

例えば、上記三次元復元手法の一つとして、対象物を異なる視点から撮像した複数の二次元撮像画像(以下、「多視点画像」と示す)に基づいて、その対象物の三次元形状モデルを生成する多視点三次元復元手法がある(例えば、特許文献1参照)。
この多視点三次元復元手法においては、多視点画像間のステレオマッチングを行うことにより、各視点におけるデプスマップを生成し、全ての視点におけるデプスマップを統合することにより、対象物の三次元形状モデルを復元する。
For example, as one of the three-dimensional reconstruction methods, a three-dimensional shape model of the object is obtained based on a plurality of two-dimensional captured images (hereinafter referred to as "multi-viewpoint images") obtained by imaging the object from different viewpoints. There is a multi-view three-dimensional reconstruction method to generate (see, for example, Patent Document 1).
In this multi-view three-dimensional reconstruction method, by performing stereo matching between multi-view images, a depth map at each view is generated, and a depth map at all the views is integrated to obtain a three-dimensional shape model of the object. Restore.

また、ステレオマッチング以外のデプスマップの取得方法としては、デプスカメラ及びRGB(red green blue)−D(depth)カメラなどにより、直接的にデプスマップを2次元画像として得る。
このRGB−Dカメラは、カラー画像とデプスマップとの組合わせを撮像する特殊なカメラである。また、代表的なデプスカメラとしては、Time of Flight距離画像センサや、アクティブステレオセンサが挙げられる。Time of Flight距離画像センサ及びアクティブステレオセンサの各々は、対象物に対してレーザ光、パターン光(あるいはスリット光)それぞれを照射し、その反射光の様子を観察することにより、対象物に対応したデプスマップを生成する。
In addition, as a method of acquiring a depth map other than stereo matching, the depth map is directly obtained as a two-dimensional image by a depth camera, an RGB (red green blue) -D (depth) camera, or the like.
The RGB-D camera is a special camera that captures a combination of a color image and a depth map. Moreover, as a typical depth camera, a Time of Flight distance image sensor and an active stereo sensor can be mentioned. Each of the Time of Flight distance image sensor and the active stereo sensor corresponds to the object by irradiating the object with the laser light and the pattern light (or slit light) and observing the reflected light. Generate a depth map.

このようなデプスカメラやRGB−Dカメラを用いて、複数の視点からの対象物までの距離を測定し、対象物に対応するデプスマップを取得する。
そして、複数の視点において取得した、対象物に対応するデプスマップを統合することにより、対象物の三次元形状を生成することもできる。
The distance to the object from the plurality of viewpoints is measured using such depth camera or RGB-D camera, and the depth map corresponding to the object is acquired.
The three-dimensional shape of the object can also be generated by integrating the depth maps corresponding to the object acquired at a plurality of viewpoints.

上述したように、三次元復元手法においては、三次元形状モデルを生成する際、三次元形状モデルの復元における中間データあるいは取得データとしてデプスマップを用いることがある。このため、デプスマップにおけるデプス値の精度及びデプスマップ全体の品質の各々が、復元する三次元形状モデルの精度、品質に対して影響を与える重要な要素である。
高精度及び高品質な三次元形状モデルを復元するため、デプスマップを高精度かつ高品質に生成あるいは取得する必要がある。
As described above, in the three-dimensional reconstruction method, when generating a three-dimensional shape model, a depth map may be used as intermediate data or acquired data in reconstruction of the three-dimensional shape model. For this reason, each of the accuracy of depth values in the depth map and the quality of the entire depth map is an important factor that affects the accuracy and quality of the three-dimensional shape model to be restored.
In order to restore a high-precision and high-quality three-dimensional shape model, it is necessary to generate or obtain a depth map with high accuracy and high quality.

一方、高精度及び高品質にデプスマップを取得したとしても、取得したデプスマップには、不正確なデプス値が含まれる場合がある。例えば、上述した多視点三次元復元手法にでは、繰り返しパターン領域やテクスチャレス領域における多視点画像間のステレオマッチングに失敗すると、その領域における画素のデプス値に大きな誤差を生じ、実際と異なるデプス値を得ることになる。   On the other hand, even if the depth map is acquired with high accuracy and high quality, the acquired depth map may include an inaccurate depth value. For example, in the multi-view three-dimensional reconstruction method described above, when stereo matching between multi-view images in a repetitive pattern area or textureless area fails, a large error occurs in the depth values of pixels in that area, and depth values different from actual You will get

また、デプスマップにおいて、撮像画像における対象物体の物体境界を示す輪郭部分は、正確なデプス値を求めることが困難である。このため、得られるデプスマップにおいて、対象物体の物体境界領域におけるデプス値が不正確な数値となり、デプス値の誤差が大きくなり易い。   Further, in the depth map, it is difficult to obtain an accurate depth value for the contour portion indicating the object boundary of the target object in the captured image. For this reason, in the obtained depth map, the depth value in the object boundary region of the target object becomes an inaccurate numerical value, and the error of the depth value tends to be large.

一方、デプスカメラやRGB−Dカメラを用いた場合、対象物が照射した光の全反射・乱反射などにより、また日光などの照度が高いことなどの周囲の環境からの外乱により、視点から対象物までの距離を正確に測定できない。このため、対象物に対するデプス値に誤差が発生してしまう。   On the other hand, in the case of using a depth camera or an RGB-D camera, the object is viewed from the viewpoint by total reflection / diffuse reflection of light emitted by the object, or disturbance from the surrounding environment such as high illuminance such as sunlight. It is not possible to accurately measure the distance to For this reason, an error occurs in the depth value for the object.

上述したように、様々な要因により、デプスマップにおけるデプス値に誤差が生じる場合があり、デプスマップの品質が低下する。
このように、複数の撮像画像によるステレオマッチングや、デプスカメラやRGB−Dカメラを用いた場合、不正確なデプス値を含まない高品質なデプスマップを得ることは困難である。
したがって、三次元復元手法においては、三次元形状モデルの生成にデプスマップを用いる際、各種方法により得られたデプスマップに対し、不正確なデプス値を修正するフィルタ処理を施すことが必要である。
As described above, due to various factors, errors may occur in depth values in the depth map, and the quality of the depth map is degraded.
As described above, in the case of stereo matching with a plurality of captured images, or using a depth camera or an RGB-D camera, it is difficult to obtain a high quality depth map that does not include inaccurate depth values.
Therefore, in the three-dimensional reconstruction method, when using a depth map for generation of a three-dimensional shape model, it is necessary to apply a filtering process to correct an incorrect depth value to depth maps obtained by various methods. .

デプスマップの不正確なデプス値を修正するためのフィルタ処理の一つとして、二次元カラー画像におけるノイズ除去を行うためのノイズ除去フィルタ、例えばバイラテラルフィルタやメディアンフィルタが用いられる。
また、デプスマップに対する他のフィルタ処理としては、デプスマップにおける画素の各々を三次元空間に投影した際の孤立点除去が挙げられる。この孤立点除去は、多視点のデプスマップを用いて対象物に対応する三次元点群を生成する。そして、この生成した三次元点群における三次元点の各々を中心とした一定範囲内に存在する他の三次元点の数が所定の閾値未満である場合、デプスマップにおけるその三次元点に対応する画素のデプス値を修正し、デプスマップの品質を向上する。
As one of the filtering processes for correcting the incorrect depth value of the depth map, a denoising filter for denoising in a two-dimensional color image, such as a bilateral filter or a median filter, is used.
Also, as another filtering process for the depth map, there may be mentioned isolated point removal when each of the pixels in the depth map is projected onto a three-dimensional space. The isolated point removal generates a three-dimensional point group corresponding to the object using multi-view depth maps. Then, when the number of other three-dimensional points existing within a predetermined range centered on each of the three-dimensional points in the generated three-dimensional point group is less than a predetermined threshold, the three-dimensional point in the depth map Correct the depth value of the selected pixel to improve the quality of the depth map.

特開2017−027101号公報JP, 2017-027101, A

上述したように、二次元カラー画像のノイズ除去フィルタを適用する際、デプスマップに突発的に発生する、例えばいずれかの画素のデプス値にノイズが重畳した場合、この画素単位でのデプス値を修正することはできる。
しかしながら、デプスマップにおいて、クラスタ(複数の隣接する画素を含む領域)単位の複数の画素のデプス値にノイズが重畳した場合、これらの不正確なデプス値を修正することはできない。
As described above, when applying a noise removal filter of a two-dimensional color image, when noise is superimposed on the depth value of any pixel that occurs suddenly in the depth map, for example, the depth value in this pixel unit is used. It can be corrected.
However, in the depth map, if noise is superimposed on the depth values of a plurality of pixels in a cluster (region including a plurality of adjacent pixels) units, these incorrect depth values can not be corrected.

一方、上記ノイズ除去フィルタを用いた際、周囲の画素のデプス値と比較されて修正が行われるため、正しいデプス値の画素であっても、デプスマップにおいて周囲の画素のデプス値と大きく異なる場合、この正しいデプス値が不正確なデプス値に変更されてしまう。また、上記ノイズ除去フィルタがデプスマップにおける全ての画素のデプス値を修正するため、各画素のデプス値を平滑化する傾向があり、デプスマップの品質を逆に低下させてしまう場合がある。   On the other hand, when the above noise removal filter is used, the correction is performed by comparing with the depth values of surrounding pixels, so even if it is a pixel with the correct depth value, it is greatly different from the depth values of the surrounding pixels in the depth map , This correct depth value will be changed to an incorrect depth value. In addition, since the noise removal filter corrects the depth values of all the pixels in the depth map, the depth values of the respective pixels tend to be smoothed, which may degrade the quality of the depth map.

また、三次元点群を生成して孤立する三次元点を除去する際、孤立した三次元点を修正することはできるが、三次元空間においてクラスタ状の三次元点にノイズが重畳した場合、孤立点群とは見なされないため、ノイズが重畳したクラスタ状の画素のデプス値を修正することは困難である。
このため、閾値としての画素数を多く設定することで、ある程度の画素数のクラスタ状の画素に発生したデプス値に対応させることは可能である。一方、閾値の画素数を多くすることにより、正確な画素のデプス値を不正確なデプス値に変更する可能性も高くなる。
In addition, when generating a three-dimensional point group and removing an isolated three-dimensional point, it is possible to correct the isolated three-dimensional point, but when noise is superimposed on a cluster-like three-dimensional point in three-dimensional space, Since it is not considered as an isolated point group, it is difficult to correct the depth value of the cluster-like pixel on which the noise is superimposed.
Therefore, by setting a large number of pixels as the threshold value, it is possible to correspond to the depth value generated in cluster-like pixels having a certain number of pixels. On the other hand, increasing the number of threshold pixels increases the possibility of changing the accurate pixel depth value to an incorrect depth value.

また、三次元空間における孤立点の除去においては、対象物体の表面からの距離が大きい画素のデプス値を修正することには対処可能である。しかしながら、対象物体の表面からの距離の小さい画素(表面近傍の画素)のデプス値の修正には対処できない。   In addition, in the removal of isolated points in the three-dimensional space, it is possible to cope with the correction of the depth value of the pixel at a large distance from the surface of the target object. However, it is not possible to cope with the correction of the depth value of a pixel (pixel near the surface) whose distance from the surface of the target object is small.

本発明は、このような状況に鑑みてなされたもので、デプスマップにおける正しいデプス値を不正確なデプス値に変更することなく、かつクラスタ状の画素のデプス値の修正、物体表面近傍の画素の不正確なデプス値を修正することが可能なデプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラムを提供する。   The present invention has been made in view of such a situation, and it is possible to correct the depth value of the cluster-like pixel without changing the correct depth value in the depth map to the incorrect depth value, and the pixel near the object surface Abstract: A depth map filtering device, a depth map filtering method, and a program capable of correcting an incorrect depth value of

上述した課題を解決するために、本発明のデプスマップフィルタ処理装置は、異なるデプスマップの各々の対応する画素の画素情報を比較し、前記画素間における整合性の有無を判定する整合性判定部と、整合性がないと判定された画素に対してペナルティスコアを与えるペナルティスコア積算部と、前記デプスマップの各々の全ての組合わせにおける画素間の前記画素情報の整合性の判定終了後、前記ペナルティスコアの積算値が所定の第1閾値を超えているか否かの判定を行い、前記画素の各々のペナルティスコアが示されるペナルティスコアマップを生成する積算値判定部と、前記ペナルティスコアマップにおける前記第1閾値を超えている積算値の前記画素のデプス値を修正するデプス値修正部とを備えることを特徴とする。   In order to solve the problems described above, the depth map filter processing device of the present invention compares the pixel information of each corresponding pixel of different depth maps, and determines the presence / absence of consistency between the pixels. And a penalty score integration unit that gives a penalty score to pixels determined not to be consistent, and after the determination of the consistency of the pixel information between pixels in all combinations of the depth map is completed, An integrated value determination unit that determines whether or not the integrated value of the penalty score exceeds a predetermined first threshold, and generates a penalty score map in which the penalty score of each of the pixels is indicated; And a depth value correction unit configured to correct the depth value of the pixel of the integrated value exceeding the first threshold.

本発明のデプスマップフィルタ処理装置は、前記積算値判定部が、前記積算値が前記第1閾値を超えている場合、前記デプス値の修正後のデプスマップによる画素間の整合性の判定を前記整合性判定部に対して行わせて、デプスマップの修正処理を継続させることを特徴とする。   In the depth map filtering device of the present invention, when the integrated value determination unit determines that the integrated value exceeds the first threshold, the determination of consistency between pixels according to the depth map after correction of the depth value is performed. It is characterized in that the process is performed on the consistency determination unit to continue the correction process of the depth map.

本発明のデプスマップフィルタ処理装置は、比較する組における一のデプスマップの対象画素のデプス値及び当該一のデプスマップのカメラパラメータから三次元点を生成し、他のデプスマップに前記三次元点を投影し、当該他のデプスマップの対応する参照画素の前記画素情報である参照画素情報を抽出する参照画素抽出部とをさらに備え、前記整合性判定部が、前記参照画素情報と前記対象画素の前記画素情報である対象画素情報とを比較し、前記参照画素情報と前記対象画素情報とが所定の第2閾値未満であるか否かにより、前記整合性の判定を行うことを特徴とする。   The depth map filtering apparatus of the present invention generates a three-dimensional point from the depth value of the target pixel of one depth map in the pair to be compared and the camera parameter of the one depth map, and the three-dimensional point is generated in the other depth map. And a reference pixel extraction unit that extracts reference pixel information that is the pixel information of the corresponding reference pixel in the other depth map, and the consistency determination unit determines the reference pixel information and the target pixel. And comparing the target pixel information, which is the pixel information, and performing the determination of the consistency based on whether the reference pixel information and the target pixel information are less than a predetermined second threshold value. .

本発明のデプスマップフィルタ処理装置は、前記画素情報が前記画素のデプス値であることを特徴とする。   The depth map filter processing device of the present invention is characterized in that the pixel information is a depth value of the pixel.

本発明のデプスマップフィルタ処理装置は、前記画素情報が前記画素の画素値であることを特徴とする。   The depth map filter processing device of the present invention is characterized in that the pixel information is a pixel value of the pixel.

本発明のデプスマップフィルタ処理装置は、前記画素情報が前記画素のデプス値及び画素値の各々であることを特徴とする。   The depth map filtering apparatus of the present invention is characterized in that the pixel information is each of a depth value and a pixel value of the pixel.

本発明のデプスマップフィルタ処理装置は、前記デプス値修正部が、前記ペナルティスコアマップを参照し、前記第1閾値を超えている積算値の前記画素における、当該積算値の最大値を有する画素を最大値画素として抽出し、当該最大値画素のデプス値を修正することを特徴とする。   In the depth map filtering device of the present invention, the depth value correction unit refers to the penalty score map, and the pixel having the maximum integrated value in the pixels of the integrated value exceeding the first threshold is selected. It is characterized in that it is extracted as a maximum value pixel and the depth value of the maximum value pixel is corrected.

本発明のデプスマップフィルタ処理装置は、前記デプス値修正部が、前記画素のデプス値を修正する際、前記デプスマップから三次元形状モデルの三次元点を生成する際に、当該三次元点の生成の計算において無視される不正値に、前記画素のデプス値を変更することを特徴とする。   In the depth map filtering device of the present invention, when the depth value correction unit corrects the depth value of the pixel, the depth value correction unit generates a three-dimensional point of the three-dimensional shape model from the depth map. Changing the depth value of the pixel to an incorrect value to be ignored in the calculation of generation.

本発明のデプスマップフィルタ処理方法は、整合性判定部が、異なるデプスマップの各々の対応する画素の画素情報を比較し、前記画素間における整合性の有無を判定する整合性比較過程と、ペナルティスコア積算部が、整合性がないと判定された画素に対して所定のペナルティスコアを積算するペナルティスコア積算過程と、積算値判定部が、前記デプスマップの各々の全ての組合わせにおける画素間の前記画素情報の整合性の判定終了後、前記ペナルティスコアの積算値が所定の第1閾値を超えているか否かの判定を行い、前記画素の各々のペナルティスコアが示されるペナルティスコアマップを生成する積算値判定過程と、デプス値修正部が、前記ペナルティスコアマップにおける前記第1閾値を超えている積算値の前記画素のデプス値を修正するデプス値修正過程とを含むことを特徴とする。   In the depth map filtering method according to the present invention, the consistency determining unit compares pixel information of corresponding pixels of different depth maps, and determines whether or not there is a consistency between the pixels, and a penalty. A penalty score integration process in which a score integration unit integrates a predetermined penalty score with respect to pixels determined to be inconsistent, and an integrated value determination unit determines between pixels in all combinations of the depth map. After completion of the determination of the consistency of the pixel information, it is determined whether or not the integrated value of the penalty score exceeds a predetermined first threshold to generate a penalty score map in which the penalty score of each of the pixels is indicated. In the integrated value determination process, the depth value correction unit determines the depth of the pixel of the integrated value exceeding the first threshold in the penalty score map. Characterized in that it comprises a depth value correction step of correcting the.

本発明のプログラムは、コンピュータを、異なるデプスマップの各々の対応する画素の画素情報を比較し、前記画素間における整合性の有無を判定する整合性比較手段、整合性がないと判定された画素に対してペナルティスコアを与えるペナルティスコア積算手段、前記デプスマップの各々の全ての組合わせにおける画素間の前記画素情報の整合性の判定終了後、前記ペナルティスコアの積算値が所定の第1閾値を超えているか否かの判定を行い、前記画素の各々のペナルティスコアが示されるペナルティスコアマップを生成する積算値判定手段、前記ペナルティスコアマップにおける前記第1閾値を超えている積算値の前記画素のデプス値を修正するデプス値修正手段として動作させるためのプログラムである。   A program according to the present invention compares a pixel information of corresponding pixels of different depth maps with a computer, and determines whether or not there is a match between the pixels. A penalty score integrating means for giving a penalty score to the image, and after the determination of the consistency of the pixel information among the pixels in all combinations of the depth map is completed, the integrated value of the penalty score is a predetermined first threshold value Integrated value determining means for determining whether or not the penalty score is exceeded and generating a penalty score map in which the penalty score of each of the pixels is indicated; the pixel of the integrated value exceeding the first threshold in the penalty score map It is a program for operating as depth value correction means which corrects a depth value.

以上説明したように、本発明によれば、デプスマップにおける正しいデプス値を不正確なデプス値に変更することなく、かつクラスタ状の画素のデプス値の修正、物体表面近傍の画素の不正確なデプス値を修正することが可能なデプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラムを提供することができる。   As described above, according to the present invention, without changing the correct depth value in the depth map to an incorrect depth value, the correction of the depth value of the cluster-like pixel, the incorrectness of the pixel near the object surface It is possible to provide a depth map filter processing device, depth map filter processing method and program capable of correcting depth values.

本発明の一実施形態によるデプスマップフィルタ処理装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a depth map filter processing unit by one embodiment of the present invention. デプスマップ記憶部107におけるデプスマップテーブルの構成例を示す図である。FIG. 6 is a diagram showing an example of the configuration of a depth map table in a depth map storage unit 107. 三次元点Mとデプス値Dk(xp)から生成した三次元点との各々の可視性の阻害を説明する概念図である。It is a conceptual diagram explaining inhibition of visibility of each of a three-dimensional point M and a three-dimensional point generated from a depth value Dk (xp). 対象画素xjのデプス値ZMと参照画素xpのデプス値Dk(xp)との整合性判定によるペナルティを付加する処理の説明図である。It is explanatory drawing of the process which adds the penalty by consistency determination with depth value ZM of object pixel xj, and depth value Dk (xp) of reference pixel xp. ペナルティスコアマップ記憶部108に記憶されているペナルティスコアマップテーブルの構成例を示す図である。It is a figure which shows the structural example of the penalty score map table memorize | stored in the penalty score map memory | storage part 108. FIG. 本実施形態によるデプスマップフィルタ処理装置1が行なうデプスマップにおける外れ値のデプス値を修正する処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the process which corrects the depth value of the outlier in the depth map which the depth map filter processing apparatus 1 by this embodiment performs. 最大値を有するペナルティスコアを有する修正対象画素の修正処理について説明する図である。It is a figure explaining correction processing of a correction object pixel which has a penalty score which has the maximum value. 対象物の多視点画像から生成したデプスマップを元に、対象物の三次元点群を復元した画像を示す図である。It is a figure which shows the image which decompress | restored the three-dimensional point group of the target object based on the depth map produced | generated from the multi-viewpoint image of the target object.

以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の一実施形態によるデプスマップフィルタ処理装置の構成例を示すブロック図である。図1において、デプスマップフィルタ処理装置1は、デプスマップ入力部101、参照画素抽出部102、整合性判定部103、ペナルティスコア積算部104、積算値判定部105、デプス値修正部106、デプスマップ記憶部107及びペナルティスコアマップ記憶部108の各々を備えている。ここで、デプスマップは、カメラパラメータである視点位置(三次元座標空間における視点座標)及び視点方向の位置からの対象物体までの深度(奥行き)を画素毎に、白(視点位置に近い)から黒(視点位置から遠い)までのグレースケールで表している。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of a depth map filter processing device according to an embodiment of the present invention. In FIG. 1, the depth map filter processing apparatus 1 includes a depth map input unit 101, a reference pixel extraction unit 102, a consistency determination unit 103, a penalty score integration unit 104, an integration value determination unit 105, a depth value correction unit 106, and a depth map. A storage unit 107 and a penalty score map storage unit 108 are provided. Here, the depth map is a camera parameter from the viewpoint position (viewpoint coordinates in a three-dimensional coordinate space) and the depth (depth) from the position in the viewpoint direction to the target object for each pixel from white (close to the viewpoint position) It is represented by gray scale to black (far from the viewpoint position).

デプスマップ入力部101は、外部装置から供給される、対象物体の三次元形状モデルを生成するために用いるデプスマップ群を入力する。このデプスマップ群は、上記対象物体に対する複数のカメラパラメータ(後述)の各々に対応したデプスマップから構成されている。
また、デプスマップ入力部101は、デプスマップ群におけるデプスマップの各々に対し、デプスマップを識別する識別情報であるデプスマップ識別情報を付与し、デプスマップ記憶部107に書き込んで記憶させる。
The depth map input unit 101 inputs a depth map group used to generate a three-dimensional shape model of a target object, which is supplied from an external device. The depth map group is composed of depth maps corresponding to each of a plurality of camera parameters (described later) for the target object.
Further, the depth map input unit 101 adds depth map identification information, which is identification information for identifying the depth map, to each of the depth maps in the depth map group, and writes and stores the depth map identification information in the depth map storage unit 107.

図2は、デプスマップ記憶部107におけるデプスマップテーブルの構成例を示す図である。図2におけるデプステーブルは、レコード毎に、デプスマップ識別情報と、カメラパラメータと、デプスマップインデックスとの欄が設けられている。デプスマップ識別情報は、デプスマップ群におけるデプスマップの各々を識別する識別情報である。カメラパラメータは、視点座標及び視点方向を含む、デプスマップに対応する撮像画像(直接にデプスマップとして取得した画像も含まれる)を撮像した撮像装置の各種パラメータである。この視点座標は、対象物体の位置する三次元座標空間における座標位置を示している。視点方向は、対象物体の位置する三次元座標空間における視点座標からの観察方向を示している。このカメラパラメータは、外部パラメータと内部パラメータとを含み、外部パラメータが世界座標系におけるレンズの中心座標、レンズの光軸の方向などであり、内部パラメータが焦点距離、画像中心、画像の分解能(画素数)及び歪収差係数などである。   FIG. 2 is a view showing a configuration example of the depth map table in the depth map storage unit 107. As shown in FIG. The depth table in FIG. 2 is provided with fields of depth map identification information, camera parameters, and depth map index for each record. The depth map identification information is identification information for identifying each of the depth maps in the depth map group. The camera parameters are various parameters of an imaging device that captures a captured image (including an image acquired directly as a depth map) corresponding to a depth map, including viewpoint coordinates and a viewpoint direction. The viewpoint coordinates indicate the coordinate position in the three-dimensional coordinate space where the target object is located. The viewpoint direction indicates the observation direction from viewpoint coordinates in the three-dimensional coordinate space where the target object is located. The camera parameters include external parameters and internal parameters, and the external parameters are the center coordinates of the lens in the world coordinate system, the direction of the optical axis of the lens, etc. The internal parameters are the focal length, the image center, the resolution of the image (pixels Number, distortion aberration coefficient, and the like.

また、デプスマップインデックスは、デプスマップのデータが記憶されたデプスマップ記憶部107におけるアドレスを示している。このアドレスの領域には、デプスマップのデータとして、画素単位にデプス値(深度値)が記載されたマップが書き込まれて記憶されている。すなわち、デプスマップとは、各視点において仮想的に設定された画像座標について、それぞれの画素毎のその視点から対象部までの距離情報(デプス値)が格納された二次元マップである。例えば、入力されたデプスマップは、多視点三次元復元におけるステレオマッチングにより生成されたデプスマップや、デプスカメラやRGB−Dカメラで撮影されたデプスマップなどである。   Also, the depth map index indicates an address in the depth map storage unit 107 in which data of the depth map is stored. In the area of this address, a map in which a depth value (depth value) is described in pixel units is written and stored as depth map data. That is, the depth map is a two-dimensional map in which distance information (depth value) from the viewpoint to the target portion for each pixel is stored for image coordinates virtually set in each viewpoint. For example, the input depth map is a depth map generated by stereo matching in multi-view three-dimensional restoration, a depth map captured by a depth camera or an RGB-D camera, or the like.

図1に戻り、参照画素抽出部102は、デプスマップ記憶部107のデプスマップテーブルを参照し、デプス値を修正する対象のデプスマップである対象デプスマップDi(視点iに対応)と、対象デプスマップDiと比較するために参照するデプスマップである参照デプスマップDk(視点kに対応)との組合わせを抽出する。そして、参照画素抽出部102は、対象デプスマップDiにおける画素である対象画素xj(対象デプスマップDiに含まれるn個の画素のいずれか、1≦j≦n)の各々のデプス値Di(xj)と、カメラパラメータとを用いて、三次元座標空間における各画素に対応する三次元点Mをそれぞれ生成する。   Referring back to FIG. 1, the reference pixel extraction unit 102 refers to the depth map table of the depth map storage unit 107, and the target depth map Di (corresponding to the viewpoint i), which is the depth map to be corrected A combination with a reference depth map Dk (corresponding to the viewpoint k) which is a depth map to be referred to for comparison with the map Di is extracted. Then, the reference pixel extraction unit 102 calculates the depth value Di (xj) of each of the target pixel xj (any of n pixels included in the target depth map Di, 1 ≦ j ≦ n) which is a pixel in the target depth map Di. And camera parameters to generate a three-dimensional point M corresponding to each pixel in the three-dimensional coordinate space.

また、参照画素抽出部102は、生成した三次元点を参照デプスマップDkに投影し、投影された位置にある参照デプスマップDkにおける画素である参照画素xp(参照デプスマップDkに含まれるn個の画素のいずれか、1≦p≦n)を抽出する。
ここで、参照画素抽出部102は、対象デプスマップDiにおける全ての対象画素のデプス値から三次元点を生成し、三次元点の各々を参照デプスマップに投影して、投影された位置にある参照画素を抽出する。ここで、参照画素抽出部102は、デプスマップ記憶部107に記憶されている全てのデプスマップの各々の組合わせを抽出し、参照画素xpそれぞれの抽出を行う。このとき、参照画素抽出部102は、対象デプスマップDiにおけるデプス値から生成した三次元点が参照デプスマップ内に投影されない場合、投影されない三次元点に対応する参照画素の抽出を行わない。
In addition, the reference pixel extraction unit 102 projects the generated three-dimensional point onto the reference depth map Dk, and the reference pixels xp (n in the reference depth map Dk) are pixels in the reference depth map Dk at the projected position. 1), and 1 ≦ p ≦ n) is extracted.
Here, the reference pixel extraction unit 102 generates a three-dimensional point from the depth values of all the target pixels in the target depth map Di, and projects each of the three-dimensional points on the reference depth map, and is at the projected position. Extract reference pixels. Here, the reference pixel extraction unit 102 extracts each combination of all the depth maps stored in the depth map storage unit 107, and extracts each of the reference pixels xp. At this time, when the three-dimensional point generated from the depth value in the target depth map Di is not projected in the reference depth map, the reference pixel extraction unit 102 does not extract the reference pixel corresponding to the three-dimensional point not projected.

整合性判定部103は、対象画素xjの三次元点Mと視点kとの距離を求め、この距離をデプス値ZMとする。すなわち、デプス値ZMは、対象画素xjの三次元点Mと視点kとの距離を示している。
また、整合性判定部103は、この対象画素xjに対応して参照画素抽出部102が抽出した参照画素xpのデプス値Dk(xp)を、デプスマップ記憶部107における参照デプスマップDkであるデプスマップから読み出す。
The consistency determination unit 103 obtains the distance between the three-dimensional point M of the target pixel xj and the viewpoint k, and sets this distance as the depth value ZM. That is, the depth value ZM indicates the distance between the three-dimensional point M of the target pixel xj and the viewpoint k.
Further, the consistency determination unit 103 determines the depth value Dk (xp) of the reference pixel xp extracted by the reference pixel extraction unit 102 corresponding to the target pixel xj as a depth which is the reference depth map Dk in the depth map storage unit 107. Read from map.

そして、整合性判定部103は、対象画素xjのデプス値ZMと参照画素xpのデプス値Dk(xp)とを比較する。例えば、整合性判定部103は、対象画素xjのデプス値ZMと参照画素xpのデプス値Dk(xp)との差分であるデプス値差分(ZM−Dk(xp))を求め、このデプス値差分が0以下であるか否かにより(以下の(1)式の関係に基づく)、対象画素xjのデプス値ZMと参照画素xpのデプス値Dk(xp)との整合性を判定する。
0≧ZM−Dk(xp) …(1)
Then, the consistency determination unit 103 compares the depth value ZM of the target pixel xj with the depth value Dk (xp) of the reference pixel xp. For example, the consistency determination unit 103 obtains a depth value difference (ZM−Dk (xp)) which is a difference between the depth value ZM of the target pixel xj and the depth value Dk (xp) of the reference pixel xp. The consistency between the depth value ZM of the target pixel xj and the depth value Dk (xp) of the reference pixel xp is determined based on whether or not 0 (less than or equal to 0).
0 Z ZM-Dk (xp) (1)

すなわち、デプス値ZMがデプス値Dk(xp)より大きい場合には、三次元点Mがデプス値Dk(xp)から生成した三次元点の可視性を邪魔することなく、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)との整合性が取れていると判定される。一方、デプス値ZMがデプス値Dk(xp)より小さい場合には、三次元点Mがデプス値Dk(xp)から生成した三次元点の可視性を邪魔することになり、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)との整合性が取れていないと判定される。   That is, when the depth value ZM is larger than the depth value Dk (xp), the depth value of the target pixel xj without interfering with the visibility of the three-dimensional point M generated from the depth value Dk (xp) It is determined that the consistency between Di (xj) and the depth value Dk (xp) of the reference pixel xp is obtained. On the other hand, if the depth value ZM is smaller than the depth value Dk (xp), the three-dimensional point M interferes with the visibility of the three-dimensional point generated from the depth value Dk (xp). It is determined that the consistency between the value Di (xj) and the depth value Dk (xp) of the reference pixel xp is not obtained.

図3は、三次元点Mとデプス値Dk(xp)から生成した三次元点との各々の可視性の阻害を説明する概念図である。図3(a)及び図3(b)の各々は、それぞれ視点iの対象デプスマップDiにおける対象画素xjから生成した三次元点Mが、参照画素xpから生成した三次元点Nの可視性を阻害している。ここで、図3(a)は、対象画素xjのデプス値ZMが外れ値であり、三次元点Mが誤った位置に存在している。一方、図3(b)は、参照画素xpのデプス値Dk(xp)が外れ値であり、三次元点Nが誤った位置に存在している。すなわち、可視性を阻害するケースとしては、誤った三次元点が正しい三次元点の可視性を阻害する図3(a)と、正しい三次元点が誤った三次元点の可視性を阻害する図3(b)の場合とがある。   FIG. 3 is a conceptual diagram illustrating the inhibition of the visibility of each of the three-dimensional point M and the three-dimensional point generated from the depth value Dk (xp). In each of FIGS. 3A and 3B, the three-dimensional point M generated from the target pixel xj in the target depth map Di of the viewpoint i represents the visibility of the three-dimensional point N generated from the reference pixel xp. It is inhibiting. Here, in FIG. 3A, the depth value ZM of the target pixel xj is an outlier, and the three-dimensional point M is present at an incorrect position. On the other hand, in FIG. 3B, the depth value Dk (xp) of the reference pixel xp is an outlier, and the three-dimensional point N is present at an incorrect position. That is, as a case where the visibility is inhibited, an incorrect three-dimensional point inhibits the visibility of the correct three-dimensional point, and the correct three-dimensional point inhibits the visibility of the incorrect three-dimensional point. There is a case shown in FIG.

図4は、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)との整合性判定によるペナルティを付加する処理の説明図である。図4(a)は、三次元空間における三次元点M及び三次元点Nの視点kからのデプス値を比較していることを示している。
視点kからの三次元点Mのデプス値がZMであり、視点kからの三次元点Nのデプス値がDk(xp)である。この図4(a)のように、デプス値ZMとデプス値Dk(xp)との各々が(1)式の関係を満たす場合、後述するように、ペナルティスコア積算部104により視点iの画素xj及び視点kの画素xpの各々のペナルティスコアに対する積算処理が行われる(図4(a)の場合、ペナルティスコアをインクリメントする)。
図4(b)は、後述するように、デプス値差分が閾値(デプス差分閾値Dth)以下であるか否かにより、整合性の判定を行う際、デプス値差分が閾値以下であれば、整合性を有すると判定されることを示している。
FIG. 4 is an explanatory diagram of a process of adding a penalty based on the consistency determination between the depth value Di (xj) of the target pixel xj and the depth value Dk (xp) of the reference pixel xp. FIG. 4A shows that depth values from the viewpoint k of the three-dimensional point M and the three-dimensional point N in the three-dimensional space are compared.
The depth value of the three-dimensional point M from the viewpoint k is ZM, and the depth value of the three-dimensional point N from the viewpoint k is Dk (xp). As shown in FIG. 4A, when each of the depth value ZM and the depth value Dk (xp) satisfies the relationship of the equation (1), as described later, the pixel xj of the viewpoint i by the penalty score integrating unit 104. And an accumulation process is performed on the penalty score of each of the pixels xp of the viewpoint k (in the case of FIG. 4A, the penalty score is incremented).
4B, as described later, when the determination of consistency is performed based on whether or not the depth value difference is equal to or less than the threshold (depth difference threshold Dth), if the depth value difference is equal to or less than the threshold It shows that it is determined to have a sex.

また、整合性判定部103の比較において、(1)式を用いていたが、以下の(2)式を用いても良い。
Dth≧ZM−Dk(xp) …(2)
(2)式においては、デプス差分閾値Dthを設定し、デプス値ZMがデプス値Dk(xp)に対して、デプス差分閾値Dthより小さければ、対象画素xjと参照画素xpとのデプス値の整合性はとれていると判定される。デプス値差分が0以下であるか否かの判定を行った場合には、少しでもデプス値ZMがデプス値Dk(xp)より小さいと、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)との整合性が無いと判定されてしまう。このため、デプス値差分が微少な誤差範囲(デプスマップ生成時に発生する所定の誤差範囲)にある場合、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)とが整合性ありと判定させるため(判定に対してロバスト性を含ませるため)、上記デプス差分閾値Dthを設定している。
Moreover, although (1) Formula was used in the comparison of the consistency determination part 103, you may use the following (2) Formula.
Dth Z ZM-Dk (xp) (2)
In the equation (2), the depth difference threshold Dth is set, and if the depth value ZM is smaller than the depth difference threshold Dth with respect to the depth value Dk (xp), matching of the depth values of the target pixel xj and the reference pixel xp Sex is judged to be taken. When it is determined whether or not the depth value difference is 0 or less, if the depth value ZM is smaller than the depth value Dk (xp), the depth value Di (xj) of the target pixel xj and the reference pixel xp It is determined that there is no consistency with the depth value Dk (xp) of Therefore, when the depth value difference is within a small error range (a predetermined error range generated at the time of depth map generation), the depth value Di (xj) of the target pixel xj and the depth value Dk (xp) of the reference pixel xp In order to determine that there is consistency (in order to include robustness to the determination), the depth difference threshold Dth is set.

また、整合性判定部103の比較において、(1)及び(2)式の各々の他に、以下の(3)式を用いても良い。
Dth≧|ZM−Dk(xp)| …(3)
(3)式においては、デプス値ZMとデプス値Dk(xp)とのデプス値差分の絶対値がデプス差分閾値Dth以下であれば、対象画素xjのデプス値ZMと参照画素xpのデプス値Dk(xp)との整合性があると判定する。一方、デプス値ZMとデプス値Dk(xp)とのデプス値差分の絶対値がデプス差分閾値Dthを超えた場合、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)との整合性がないと判定する。
Further, in comparison with the consistency determination unit 103, the following equation (3) may be used in addition to each of the equations (1) and (2).
Dth ≧ | ZM−Dk (xp) | (3)
In equation (3), if the absolute value of the depth value difference between the depth value ZM and the depth value Dk (xp) is equal to or less than the depth difference threshold Dth, the depth value ZM of the target pixel xj and the depth value Dk of the reference pixel xp It is determined that there is consistency with (xp). On the other hand, when the absolute value of the depth value difference between the depth value ZM and the depth value Dk (xp) exceeds the depth difference threshold Dth, the depth value Di (xj) of the target pixel xj and the depth value Dk (xp of the reference pixel xp) It is determined that there is no consistency with

すなわち、(3)式の場合には、三次元点Mとデプス値Dk(xp)から生成した三次元点とが対象物体の同一の表面を復元していることを仮定し、三次元点Mとデプス値Dk(xp)から生成した三次元点との距離が大きい場合、同一の表面を復元できていないとして、デプス値ZMとデプス値Dk(xp)との整合性が取れていないとする。
整合性判定部103は、上述した(1)式、(2)式及び(3)式のいずれかを用いて、対象画素xjのデプス値Di(xj)と参照画素xpのデプス値Dk(xp)との整合性の判定を行う。ここで、整合性判定部103は、デプスマップの全ての組合わせに対して、参照画素抽出部102が抽出した参照画素の各々と、参照画素に対応する対象画素とのデプス値の整合性の判定を行う。
That is, in the case of the equation (3), it is assumed that the three-dimensional point M and the three-dimensional point generated from the depth value Dk (xp) restore the same surface of the target object. When the distance between a and a three-dimensional point generated from the depth value Dk (xp) is large, it is assumed that the same surface can not be restored, and consistency between the depth value ZM and the depth value Dk (xp) is not obtained .
The consistency determination unit 103 determines the depth value Di (xj) of the target pixel xj and the depth value Dk (xp of the reference pixel xp) using any of the above-described equations (1), (2), and (3). Determination of consistency with Here, the consistency determination unit 103 matches the consistency of the depth value of each of the reference pixels extracted by the reference pixel extraction unit 102 with the target pixel corresponding to the reference pixel for all combinations of depth maps. Make a decision.

ペナルティスコア積算部104は、整合性判定部103が整合性が無いと判定した対象画素xjと参照画素xpとの各々にペナルティとして、各画素のペナルティスコアをインクリメントする(「1」を加算する)処理を行う。ペナルティスコアは、デプスマップの画素毎に対応して、ペナルティスコアマップとして付与されている。このペナルティスコアマップは、デプスマップと同様の構成であるが、画素に対してデプス値ではなく、ペナルティスコアがデータとして与えられている。   The penalty score integration unit 104 increments the penalty score of each pixel as a penalty for each of the target pixel xj determined as inconsistent by the consistency determination unit 103 and the reference pixel xp (adds “1”) Do the processing. The penalty score is given as a penalty score map corresponding to each pixel of the depth map. The penalty score map has the same configuration as the depth map, but the penalty score is given as data to the pixel, not the depth value.

図5は、ペナルティスコアマップ記憶部108に記憶されているペナルティスコアマップテーブルの構成例を示す図である。
図5において、ペナルティスコアテーブルは、レコード毎に、デプスマップ識別情報と、ペナルティスコアマップインデックスとの欄が設けられている。デプスマップ識別情報は、すでに述べたがデプスマップを識別する識別情報である。ペナルティスコアマップインデックスは、ペナルティスコアマップ記憶部108におけるペナルティスコアマップのデータが記憶されている領域のアドレスを示している。ペナルティスコアマップは、デプスマップにおける画素の各々と一対一に対応する、ペナルティスコアがデータとして記述された画素から構成されている。すなわち、ペナルティスコアマップは、デプスマップにおける画素の各々に対するペナルティスコアが、それぞれの画素に対応して記述されている。
FIG. 5 is a diagram showing a configuration example of the penalty score map table stored in the penalty score map storage unit 108. As shown in FIG.
In FIG. 5, in the penalty score table, fields of depth map identification information and penalty score map index are provided for each record. The depth map identification information is the identification information for identifying the depth map as described above. The penalty score map index indicates the address of the area where the data of the penalty score map in the penalty score map storage unit 108 is stored. The penalty score map is configured of pixels whose penalty score is described as data, which correspond to each of the pixels in the depth map. That is, in the penalty score map, penalty scores for each of the pixels in the depth map are described corresponding to each pixel.

図1に戻り、ペナルティスコア積算部104は、ペナルティスコアマップ記憶部108におけるペナルティスコアテーブルを参照し、対象デプスマップDi及び参照デプスマップDkの各々のデプスマップ識別情報に対応するペナルティスコアマップを検出する。
そして、ペナルティスコア積算部104は、検出したペナルティスコアマップにおける、整合性判定部103が整合性が無いとした対象画素xj及び参照画素xpの各々のペナルティスコアをインクリメントし、ペナルティスコアの積算処理を行う。
上述したペナルティスコアテーブルにおけるペナルティスコアの積算処理を、整合性判定部103により整合性が無いと判定された、全ての対象デプスマップ及び参照デプスマップの各々における対象画素、参照画素それぞれに対して行う。
Returning to FIG. 1, the penalty score integration unit 104 refers to the penalty score table in the penalty score map storage unit 108, and detects penalty score maps corresponding to the depth map identification information of each of the target depth map Di and the reference depth map Dk. Do.
Then, the penalty score integration unit 104 increments the penalty score of each of the target pixel xj and the reference pixel xp in the detected penalty score map that the consistency determination unit 103 has determined that there is no consistency, and performs penalty score integration processing. Do.
The integration process of the penalty score in the penalty score table described above is performed on each of the target pixel and the reference pixel in each of all the target depth maps and the reference depth maps determined to be inconsistent by the consistency determination unit 103. .

積算値判定部105は、ペナルティスコアマップ記憶部108に記憶されているペナルティスコアマップの各々を参照し、予め設定されているペナルティスコア閾値以上のペナルティスコアを有する画素の含まれるペナルティスコアマップを抽出する。このとき、積算値判定部105は、全てのペナルティスコアマップにおいてペナルティスコア閾値以上のペナルティスコアを有する画素が検出されない場合、デプスマップフィルタ処理装置によるデプスマップのフィルタ処理を終了する。積算値判定部105は、ペナルティスコア閾値以上のペナルティスコアを有する画素が検出された場合、デプス値修正部106に対してフィルタ処理を継続させる。   The integrated value determination unit 105 refers to each of the penalty score maps stored in the penalty score map storage unit 108, and extracts a penalty score map including pixels having a penalty score equal to or higher than a preset penalty score threshold. Do. At this time, when no pixel having a penalty score equal to or higher than the penalty score threshold is detected in all the penalty score maps, the integrated value determination unit 105 ends the depth map filtering process by the depth map filtering apparatus. The integrated value determination unit 105 causes the depth value correction unit 106 to continue the filtering process when a pixel having a penalty score equal to or higher than the penalty score threshold is detected.

ここで、上述した処理において、各画素の積算されたペナルティスコアからなるペナルティスコアマップにおいては、異なるデプスマップにおける対応する他の画素に対して整合性が取れない画素ほどペナルティスコアが大きくなる。したがって、ペナルティスコアマップの各々の画素におけるペナルティスコアは、他の視点のデプスマップの画素と整合性が取れない程度を示している。ペナルティスコアが大きい画素は、多くの他の視点のデプスマップと整合性が取れないため、多数決の論理により、デプス値が不正確である可能性が高いと言える。   Here, in the above-described process, in the penalty score map including the penalty score integrated for each pixel, the penalty score is larger as the pixel inconsistency is not obtained with respect to the corresponding other pixel in the different depth map. Therefore, the penalty score at each pixel of the penalty score map indicates the degree of inconsistency with the pixels of the depth map of other viewpoints. Since the pixels with a large penalty score are not consistent with the depth maps of many other viewpoints, majority logic can say that the depth value is likely to be incorrect.

デプス値修正部106は、積算値判定部105が抽出したペナルティスコア閾値以上のペナルティスコアを有する画素から、ペナルティスコアが最も大きい(ペナルティスコアが最大値の)画素を検出し、この画素を修正対象画素として抽出する。そして、デプス値修正部106は、抽出した修正対象画素のデプス値を所定の数値に変更することで、デプスマップの修正処理(フィルタ処理)を行う。この所定の数値は、例えば、三次元形状モデルの生成処理において、生成に用いるデプス値として不正値と判定される「0」あるいは負の数値である。   The depth value correction unit 106 detects a pixel with the largest penalty score (of which the penalty score is the maximum value) from pixels having a penalty score equal to or higher than the penalty score threshold value extracted by the integrated value determination unit 105, and corrects this pixel Extract as a pixel. Then, the depth value correction unit 106 performs a depth map correction process (filter process) by changing the extracted depth value of the correction target pixel to a predetermined numerical value. The predetermined numerical value is, for example, “0” or a negative numerical value which is determined as an incorrect value as a depth value used for generation in the generation process of the three-dimensional shape model.

また、デプス値修正部106は、デプスマップにおける修正対象画素に隣接する複数の画素のデプス値の平均値を、上記所定の数値としてデプス値の変更することで、デプスマップの修正処理(フィルタ処理)を行う構成としても良い。
また、ペナルティスコア積算部104は、ペナルティスコアをインクリメントするのではなく、対象画素のデプス値と参照画素のデプス値のデプス値差分(あるいは絶対値)の積算値をペナルティスコアとする構成としても良い。
In addition, the depth value correction unit 106 corrects the depth map by changing the average value of the depth values of the plurality of pixels adjacent to the correction target pixel in the depth map as the predetermined numerical value (filter processing ) May be used.
In addition, the penalty score integration unit 104 may use an integrated value of the depth value difference between the depth value of the target pixel and the depth value of the reference pixel (or the absolute value) as the penalty score instead of incrementing the penalty score. .

また、参照画素抽出部102は、対象デプスマップDiにおける対象画素xjの三次元点を生成する際、この対象画素xjのデプス値が不正値である場合、この対象画素xjの三次元点の生成を行わない。
また、参照画素抽出部102は、生成した三次元点を参照デプスマップDkに投影し、投影された位置にある参照デプスマップDkにおける画素である参照画素xpを検出した際、この参照画素xpのデプス値が不正値である場合、この参照画素xpの抽出を行わない。
When the reference pixel extraction unit 102 generates a three-dimensional point of the target pixel xj in the target depth map Di, if the depth value of the target pixel xj is an incorrect value, the three-dimensional point generation of the target pixel xj Do not do.
When the reference pixel extraction unit 102 projects the generated three-dimensional point on the reference depth map Dk and detects a reference pixel xp that is a pixel in the reference depth map Dk at the projected position, the reference pixel xp If the depth value is an incorrect value, this reference pixel xp is not extracted.

本実施形態においては、積算値判定部105がペナルティスコア閾値以上のペナルティスコアを有する画素が検出されなくなるまで、デプスマップのフィルタ処理を繰り返して行う。このため、本実施形態において、上述した不正値に対する処理を加えることにより、すでに前回のフィルタ処理までに三次元形状の生成に用いない処理として、不正値が書き込まれた画素に対して、再度フィルタ処理を行わない構成としている。   In the present embodiment, filtering processing of the depth map is repeatedly performed until the integrated value determination unit 105 detects no pixel having a penalty score equal to or higher than the penalty score threshold. For this reason, in the present embodiment, by adding the processing to the above-described incorrect value, as a process not already used to generate a three-dimensional shape by the previous filter processing, the filter is applied again to the pixels to which the incorrect value is written. It is assumed that the processing is not performed.

図6は、本実施形態によるデプスマップフィルタ処理装置1が行なうデプスマップにおける外れ値のデプス値を修正する処理の動作例を示すフローチャートである。以下に示すフローチャートは、デプスマップフィルタ処理装置1が行なうデプスマップにおける外れ値のデプス値を修正するフィルタ処理の流れを示している。   FIG. 6 is a flowchart showing an operation example of a process of correcting the depth value of outliers in the depth map performed by the depth map filter processing device 1 according to the present embodiment. The flowchart shown below has shown the flow of the filter processing which the depth map filter processing apparatus 1 corrects the depth value of the outlier in the depth map.

ステップS1:
デプスマップ入力部101は、外部装置から供給される、対象物体の三次元形状モデルを生成するために用いるデプスマップ群を入力する。
そして、デプスマップ入力部101は、デプスマップ群におけるデプスマップの各々に対し、デプスマップを識別する識別情報であるデプスマップ識別情報を付与し、このデプスマップ識別情報とともにデプスマップをデプスマップ記憶部107に書き込んで記憶させる。
また、このとき、ペナルティスコア積算部104は、ペナルティスコアマップ記憶部108に記憶されている全てのペナルティスコアマップにおける画素のペナルティスコアを「0」として、ペナルティスコアマップに対するリセット処理を行う。
Step S1:
The depth map input unit 101 inputs a depth map group used to generate a three-dimensional shape model of a target object, which is supplied from an external device.
Then, the depth map input unit 101 assigns, to each of the depth maps in the depth map group, depth map identification information that is identification information for identifying the depth map, and the depth map storage unit with the depth map identification information Write to 107 for storage.
Also, at this time, the penalty score integration unit 104 performs reset processing on the penalty score map with the penalty scores of the pixels in all the penalty score maps stored in the penalty score map storage unit 108 as “0”.

ステップS2:
参照画素抽出部102は、デプスマップ記憶部107のデプスマップテーブルを参照し、デプス値を修正する対象のデプスマップである対象デプスマップDiと、対象デプスマップDiと比較するた参照デプスマップDkとの組合わせを抽出する。
Step S2:
The reference pixel extraction unit 102 refers to the depth map table of the depth map storage unit 107, and the target depth map Di, which is the depth map to be corrected for the depth value, and the reference depth map Dk compared with the target depth map Di. Extract combinations of

ステップS3:
そして、参照画素抽出部102は、対象デプスマップDiにおける対象画素xjの各々のデプス値Di(xj)と、カメラパラメータとを用いて、三次元座標空間における各画素に対応する三次元点Mをそれぞれ生成する。このとき、参照画素抽出部102は、この対象画素xjのデプス値が不正値である場合、この対象画素xjの三次元点の生成を行わない。
Step S3:
Then, the reference pixel extraction unit 102 uses the depth value Di (xj) of each of the target pixels xj in the target depth map Di and the camera parameters to generate a three-dimensional point M corresponding to each pixel in the three-dimensional coordinate space. Generate each. At this time, when the depth value of the target pixel xj is an incorrect value, the reference pixel extraction unit 102 does not generate a three-dimensional point of the target pixel xj.

ステップS4:
また、参照画素抽出部102は、生成した三次元点を参照デプスマップDkに投影し、投影された位置にある参照デプスマップDkにおける画素である参照画素xpを抽出する。このとき、参照画素抽出部102は、生成した三次元点を参照デプスマップDkに投影した位置の参照画素xpのデプス値が不正値である場合、この参照画素xpの抽出を行わない。また、参照画素抽出部102は、デプスマップ記憶部107に記憶されている全てのデプスマップの各々の組合わせを抽出し、参照画素xpそれぞれの抽出を行う。ここで、参照画素抽出部102は、対象デプスマップDiにおける全ての対象画素のデプス値から三次元点を生成し、三次元点の各々を参照デプスマップに投影して、投影された位置にある参照画素を抽出する。
Step S4:
Further, the reference pixel extraction unit 102 projects the generated three-dimensional point on the reference depth map Dk, and extracts the reference pixel xp which is a pixel in the reference depth map Dk at the projected position. At this time, when the depth value of the reference pixel xp at the position where the generated three-dimensional point is projected onto the reference depth map Dk is an incorrect value, the reference pixel extraction unit 102 does not extract this reference pixel xp. Further, the reference pixel extraction unit 102 extracts each combination of all the depth maps stored in the depth map storage unit 107, and extracts each of the reference pixels xp. Here, the reference pixel extraction unit 102 generates a three-dimensional point from the depth values of all the target pixels in the target depth map Di, and projects each of the three-dimensional points on the reference depth map, and is at the projected position. Extract reference pixels.

ステップS5:
整合性判定部103は、対象画素xjの三次元点Mと視点kとの距離を求め、この距離をデプス値ZMとする。
また、整合性判定部103は、上記対象画素xjに対応して参照画素抽出部102が抽出した参照画素xpのデプス値Dk(xp)との各々を、デプスマップ記憶部107をア参照して、記憶されている参照デプスマップDkであるデプスマップから読み出す。このデプス値ZMは、三次元点Mの視点kからの距離を示している。
そして、整合性判定部103は、デプス値ZMとデプス値Dk(xp)とを比較し、デプス値差分(ZM−Dk(xp))が0以下であるか否かの判定を行う(上記(1)式の関係に基づく)。このとき、整合性判定部103は、デプス値差分(ZM−Dk(xp))が0以下である場合、デプス値の整合性があると判定する。一方、整合性判定部103は、デプス値差分(ZM−Dk(xp))が0を超えた場合、デプス値に整合性がないと判定する。
Step S5:
The consistency determination unit 103 obtains the distance between the three-dimensional point M of the target pixel xj and the viewpoint k, and sets this distance as the depth value ZM.
Further, the consistency determination unit 103 refers to the depth map storage unit 107 with each of the depth values Dk (xp) of the reference pixels xp extracted by the reference pixel extraction unit 102 corresponding to the target pixel xj. , Read out from the depth map which is the stored reference depth map Dk. The depth value ZM indicates the distance from the viewpoint k of the three-dimensional point M.
Then, the consistency determination unit 103 compares the depth value ZM with the depth value Dk (xp), and determines whether the depth value difference (ZM−Dk (xp)) is 0 or less (the above (( 1) Based on the relationship of expression). At this time, when the depth value difference (ZM−Dk (xp)) is equal to or less than 0, the consistency determination unit 103 determines that the depth value is consistent. On the other hand, when the depth value difference (ZM−Dk (xp)) exceeds 0, the consistency determination unit 103 determines that the depth value is not consistent.

ステップS6:
ペナルティスコア積算部104は、整合性判定部103が整合性が無いと判定した対象画素xjと参照画素xpとの各々にペナルティを与える。
すなわち、ペナルティスコア積算部104は、ペナルティスコアマップ記憶部108における対象デプスマップDiにおける対象画素xjと、参照デプスマップDkにおける参照画素xpとの各々のペナルティスコアをインクリメントする(ペナルティスコアの積算処理を行う)。
Step S6:
The penalty score integration unit 104 applies a penalty to each of the target pixel xj determined as inconsistent by the consistency determination unit 103 and the reference pixel xp.
That is, the penalty score integration unit 104 increments the penalty score of each of the target pixel xj in the target depth map Di in the penalty score map storage unit 108 and the reference pixel xp in the reference depth map Dk Do).

ステップS7:
ペナルティスコア積算部104は、参照画素抽出部102が全てのデプスマップの組合わせを作成し、自身が上記デプスマップの組合わせにおける対象画素及び参照画素の各々に対するペナルティ付加の処理が終了したか否かの判定を行う。
このとき、ペナルティスコア積算部104は、全てのデプスマップの組合わせにおける対象画素及び参照画素の各々に対するペナルティ付加の処理が終了した場合、処理をステップS8へ進める。一方、ペナルティスコア積算部104は、全てのデプスマップの組合わせにおける対象画素及び参照画素の各々に対するペナルティ付加の処理が終了していない場合、処理をステップS2へ進める。
Step S7:
In the penalty score integration unit 104, the reference pixel extraction unit 102 creates a combination of all the depth maps, and whether or not the process of adding penalty to each of the target pixel and the reference pixel in the combination of the depth maps is completed. Make a decision on
At this time, the penalty score integration unit 104 proceeds with the process to step S8 when the process of adding the penalty to each of the target pixel and the reference pixel in the combination of all the depth maps is completed. On the other hand, when the penalty addition processing for each of the target pixel and the reference pixel in the combination of all the depth maps is not completed, the penalty score integration unit 104 proceeds the process to step S2.

ステップS8:
積算値判定部105は、ペナルティスコアマップ記憶部108に記憶されているペナルティスコアマップの各々を参照する。そして、積算値判定部105は、予め設定されているペナルティスコア閾値以上のペナルティスコアを有する画素の有無を判定する。このとき、積算値判定部105は、ペナルティスコア閾値以上のペナルティスコアを有する画素が有った場合、処理をステップS9へ進める(すなわち、デプス値の変更処理を継続させる)。一方、積算値判定部105は、ペナルティスコア閾値以上のペナルティスコアを有する画素が無い場合、デプスマップフィルタ処理装置によるデプスマップのフィルタ処理を終了する。
Step S8:
The integrated value determination unit 105 refers to each of the penalty score maps stored in the penalty score map storage unit 108. Then, the integrated value determination unit 105 determines the presence or absence of a pixel having a penalty score equal to or greater than a preset penalty score threshold. At this time, when there is a pixel having a penalty score equal to or higher than the penalty score threshold value, the integrated value determination unit 105 advances the process to step S9 (that is, continues changing the depth value). On the other hand, when there is no pixel having a penalty score equal to or higher than the penalty score threshold, the integrated value determination unit 105 ends the depth map filter processing by the depth map filter processing device.

ステップS9:
デプス値修正部106は、積算値判定部105が抽出したペナルティスコア閾値以上のペナルティスコアを有する画素の中から、ペナルティスコア(積算値)が最大値の画素を検出し、この画素を修正対象画素として抽出する。
Step S9:
The depth value correction unit 106 detects a pixel having a maximum penalty score (integrated value) from pixels having a penalty score equal to or higher than the penalty score threshold value extracted by the integrated value determination unit 105, and corrects this pixel Extract as

ステップS10:
デプス値修正部106は、デプスマップ記憶部107における修正対象画素の含まれるデプスマップを抽出し、抽出した修正対象画素のデプス値を所定の数値に変更する(書き換える)ことで、デプスマップの修正処理を行う。この所定の数値は、例えば、三次元形状モデルの生成処理において、生成に用いるデプス値として不正値と判定される「0」あるいは負の数値に変更する。
そして、ペナルティスコア積算部104は、ペナルティスコアマップ記憶部108における全てのペナルティスコアマップにおける画素の各々のペナルティスコアを「0」としてリセットし、処理をステップS2へ進める。
Step S10:
The depth value correction unit 106 extracts the depth map including the correction target pixel in the depth map storage unit 107, and changes (rewrites) the extracted depth value of the correction target pixel to a predetermined numerical value to correct the depth map. Do the processing. The predetermined numerical value is changed to, for example, “0” or a negative numerical value which is determined as an incorrect value as a depth value used for generation in the generation process of the three-dimensional shape model.
Then, the penalty score integration unit 104 resets the penalty score of each pixel in all the penalty score maps in the penalty score map storage unit 108 to “0”, and the process proceeds to step S2.

図7は、最大値を有するペナルティスコアを有する修正対象画素の修正処理について説明する図である。図7(a)は、ペナルティスコアとして最大値を有する画素の検出を説明している。三次元点M2に対応する視点P4のデプスマップDP5における画素と、三次元点M1に対応する視点P5のデプスマップDP1に対応する画素とが、ペナルティスコアが「4」で最大値を有している。
このため、デプス値修正部106は、三次元点M1に対応する画素と三次元点M2に対応する画素との各々のデプス値を、不正値に変更する処理を行う。
FIG. 7 is a diagram for explaining the correction process of the correction target pixel having the penalty score having the maximum value. FIG. 7A illustrates the detection of the pixel having the maximum value as the penalty score. The pixel in the depth map DP5 of the viewpoint P4 corresponding to the three-dimensional point M2 and the pixel corresponding to the depth map DP1 of the viewpoint P5 corresponding to the three-dimensional point M1 have a maximum value at a penalty score of "4" There is.
Therefore, the depth value correction unit 106 performs a process of changing the depth value of each of the pixel corresponding to the three-dimensional point M1 and the pixel corresponding to the three-dimensional point M2 to an incorrect value.

これにより、本実施形態によれば、修正対象画素の修正処理の後に、再度、ステップS2からステップS7におけるペナルティスコアの付加処理を行うことにより、図7に示すように、全体的なペナルティスコアが変化する。この処理を繰り返すことにより、全てのペナルティスコアマップにおける画素のペナルティスコアが、ペナルティスコア閾値未満となり、デプス値の外れ点を低減することができる。   Thus, according to the present embodiment, after the correction process of the correction target pixel, the penalty score addition process from step S2 to step S7 is performed again to obtain an overall penalty score as shown in FIG. Change. By repeating this process, the penalty score of the pixel in all the penalty score maps becomes less than the penalty score threshold, and the outliers of the depth value can be reduced.

また、本実施形態によれば、他の画素の三次元点の見えを阻害するデプス値を有する画素を検出し、この画素のデプス値を外れ値としてのデプス値を不正値とする処理を行うため、デプスマップにおける正しいデプス値を不正確なデプス値に変更することなく、デプス値の外れ点を低減することができる。   Further, according to the present embodiment, a pixel having a depth value that hinders the appearance of a three-dimensional point of another pixel is detected, and processing is performed using the depth value of this pixel as an outlier as an incorrect value. Therefore, it is possible to reduce the outliers of the depth value without changing the correct depth value in the depth map to the incorrect depth value.

また、本実施形態によれば、画素のデプス値に対応する三次元点の各々を、他の視点のデプスマップに投影し、この三次元点のデプス値を他の視点のデプスマップに変換した(他の視点における三次元点のデプス値を算出)後、投影された位置の画素のデプス値と比較していくため、それぞれの画素を独立して処理していくため、クラスタ状の画素のデプス値の修正、物体表面近傍の画素の不正確なデプス値を精度良く修正することで、スコア値の高いデプス値が修正され、他の視点のデプスマップと整合性が取れたデプスマップを得ることが可能である。   Further, according to the present embodiment, each of the three-dimensional points corresponding to the depth value of the pixel is projected onto the depth map of the other viewpoint, and the depth value of this three-dimensional point is converted to the depth map of the other viewpoint Since (after calculating the depth value of the three-dimensional point in other viewpoints) and comparing with the depth value of the pixel at the projected position, each pixel is processed independently, so Correcting the depth value and correcting the incorrect depth value of the pixels near the object surface precisely correct the depth value with high score value, and obtain the depth map consistent with the depth map of other viewpoints It is possible.

また、本実施形態において、整合性の判定において、デプスマップのデプス値を用いるのではなく、デプスマップの画素の位置と一対一対応する画素を有する撮像画像における画素の画素値を用いても良い。この場合、デプスマップ入力部101は、デプスマップと対応する撮像画像を外部装置から読み込み、対応するデプスマップと同一のデプスマップ識別情報を付与し、デプスマップ記憶部107に対して書き込んで記憶させる。このときデプスマップテーブルに、撮像画像インデックスを書き込み、この撮像画像インデックスの示すアドレスの領域に撮像画像のデータを書き込んで記憶させる。
すでに上記実施形態において述べたように、参照画素抽出部102は、視点iの対象デプスマップDiにおける対象画素xjのデプス値とカメラパラメータとから三次元点Mを作成する。そして、参照画素抽出部102は、異なる視点kの参照デプスマップDk上に三次元点Mを投影し、投影された位置の参照画素xpを抽出する。
Further, in the present embodiment, instead of using the depth value of the depth map in the determination of the consistency, the pixel value of the pixel in the captured image having a pixel corresponding to the position of the pixel of the depth map may be used. . In this case, the depth map input unit 101 reads the captured image corresponding to the depth map from the external device, assigns the same depth map identification information as the corresponding depth map, and writes and stores the same in the depth map storage unit 107 . At this time, the captured image index is written in the depth map table, and the data of the captured image is written and stored in the area of the address indicated by the captured image index.
As already described in the above embodiment, the reference pixel extraction unit 102 creates a three-dimensional point M from the depth value of the target pixel xj in the target depth map Di of the viewpoint i and the camera parameter. Then, the reference pixel extraction unit 102 projects the three-dimensional point M on the reference depth map Dk of the different viewpoint k, and extracts the reference pixel xp at the projected position.

そして、整合性判定部103は、対象画素xjの画素値と参照画素xpの画素値とを比較する。本実施形態においては、画素値である階調度(カラー画像のRGB)あるいは、画素値から求めた輝度値を用いる。白黒画像の場合には、グレースケールの階調度が用いられる。
以下の説明において、整合性判定部103は、例えば、対象デプスマップDiに対応する対象カラー画像Iiの対象画素xiの色Ii(xj)と、参照デプスマップDkに対応する対象カラー画像Ikの参照画素xpの色Ik(xp)との比較を、以下の(4)式の関係式を用いて行う。
Then, the consistency determination unit 103 compares the pixel value of the target pixel xj with the pixel value of the reference pixel xp. In this embodiment, a gradation value (RGB of a color image) which is a pixel value or a luminance value obtained from the pixel value is used. In the case of a black and white image, gray scale gradation is used.
In the following description, the consistency determination unit 103 refers to, for example, the color Ii (xj) of the target pixel xi of the target color image Ii corresponding to the target depth map Di and the reference of the target color image Ik corresponding to the reference depth map Dk. The comparison with the color Ik (xp) of the pixel xp is performed using the following relational expression (4).

|Ii(xj)−Ik(xp)|>Ith …(4)
(4)式において、Ithは予め設定された画素値閾値である。
整合性判定部103は、色Ii(xj)と色Ik(xp)との差分値の絶対値が画素値閾値Ithを超えた場合に、対象画素xiと参照画素xpとの整合性が取れていないと判定する。そして、ペナルティスコア積算部104は、対象画素xj及び参照画素xpの各々のペナルティスコアをインクリメントする。
また、ペナルティスコア積算部104は、対象画素xj及び参照画素xpの各々のペナルティスコアに対し、差分値の絶対値|Ii(xj)−Ik(xp)|を積算する構成としても良い。ペナルティスコア積算処理以降における、ペナルティスコアを用いた画素のデプス値の修正処理については、すでに説明した動作と同様である。
| Ii (xj) −Ik (xp) |> Ith (4)
In equation (4), Ith is a preset pixel value threshold.
When the absolute value of the difference value between the color Ii (xj) and the color Ik (xp) exceeds the pixel value threshold Ith, the consistency determination unit 103 obtains consistency between the target pixel xi and the reference pixel xp. It is determined that there is no Then, the penalty score integration unit 104 increments the penalty score of each of the target pixel xj and the reference pixel xp.
Further, the penalty score integration unit 104 may be configured to integrate the absolute value | Ii (xj) −Ik (xp) | of the difference value with respect to the penalty score of each of the target pixel xj and the reference pixel xp. The correction process of the pixel depth value using the penalty score after the penalty score integration process is the same as the operation described above.

また、(1)式から(3)式のいずれか一つと、(4)式との組合せを、対象画素xj及び参照画素xpの各々のペナルティスコアの積算処理を行う判定に用いてもよい。
例えば、デプス値の整合性がなく、かつ色の整合性がない場合にペナルティスコアの積算処理を行う構成としても良い。
一方、デプス値の整合性あるいは色の整合性のいずれかがない場合にペナルティスコアの積算処理を行う構成としても良い。
また、本実施形態においては、対象画素と参照画素との整合性が無いと判定された場合、対象画素と参照画素との双方のペナルティスコアの積算処理を行うとして説明したが、対象画素のペナルティスコアの積算処理のみを行う構成としても良い。
In addition, a combination of any one of the equations (1) to (3) and the equation (4) may be used for determination of performing an integration process of the penalty score of each of the target pixel xj and the reference pixel xp.
For example, the configuration may be such that the penalty score is integrated when there is no consistency in the depth value and no consistency in the color.
On the other hand, when there is no consistency in depth value or consistency in color, a configuration may be adopted in which the penalty score is integrated.
Further, in the present embodiment, when it is determined that there is no consistency between the target pixel and the reference pixel, it is described that the process of integrating the penalty scores of both the target pixel and the reference pixel is performed. It may be configured to perform only the score integration process.

また、上述した実施形態においては、デプスマップの修正処理を行うことで、デプスマップ間の対応する画素のデプス値の整合性や、デプスマップとカラー画像間の整合性が変化することにより、ペナルティスコアマップの値も変化する。このため、本実施形態においては、デプスマップのフィルタ処理を、すべてのペナルティスコアマップにおけるすべての画素のペナルティスコアが「1」以下になるまで、ペナルティスコアマップの計算とデプスマップの修正を繰り返し交互に処理する。また、ペナルティスコアの閾値を「1」以外の所定の数値に設定し、すべてのペナルティスコアマップのすべての画素のスコア値がその閾値未満となるまで、ペナルティスコアマップの計算とデプスマップの修正を繰り返し交互に処理する構成としても良い。   Further, in the above-described embodiment, by performing the correction process of the depth map, the consistency between the depth values of the corresponding pixels between the depth maps, and the consistency between the depth map and the color image change, so that the penalty The score map values also change. Therefore, in the present embodiment, the filtering process of the depth map is alternately repeated between the calculation of the penalty score map and the correction of the depth map until the penalty score of all the pixels in all the penalty score maps becomes "1" or less. Process to Also, set the penalty score threshold to a predetermined value other than “1”, and calculate the penalty score map and modify the depth map until the score value of all pixels in all penalty score maps is less than that threshold. It may be configured to be repeatedly and alternately processed.

図8は、対象物の多視点画像から生成したデプスマップを元に、対象物の三次元点群を復元した画像を示す図である。図8(a)は、異なる視点から対象物を撮影したいずれかの視点における多視点画像の一例を示している。
この図8の例においては、図8(a)に示した多視点画像を含んだ、異なる視点で撮影された6枚の多視点画像の各々と、撮像装置の多視点画像を撮像したカメラパラメータそれぞれとを用い、PatchMatch Stereo法により各視点のデプスマップを生成し、各視点のデプスマップとカメラパラメータとから三次元点群を生成した。
FIG. 8 is a view showing an image in which the three-dimensional point group of the object is restored based on the depth map generated from the multi-viewpoint image of the object. FIG. 8A shows an example of a multi-viewpoint image at any of the viewpoints obtained by capturing an object from different viewpoints.
In the example of FIG. 8, camera parameters obtained by capturing the multi-viewpoint image of the imaging device with each of the six multi-viewpoint images captured from different viewpoints including the multi-viewpoint image shown in FIG. A depth map of each viewpoint was generated by the PatchMatch Stereo method using each of them, and a three-dimensional point group was generated from the depth map of each viewpoint and camera parameters.

図8(b)は、PatchMatch Stereo法により生成したデプスマップに対し、本実施形態においけるデプスマップフィルタ処理を行わずに、生成されたままのデプスマップにより三次元点群を生成した場合の結果を示している。
図8(b)を見て判るように、生成されたままのデプスマップを用いて復元された三次元点群には、多数の不正確な三次元点が含まれる。この不正確な三次元点群は、生成されたデプスマップに含まれる不正確な(外れ値である)デプス値がそのまま三次元点に変換されたため、発生したものである。
FIG. 8B shows a case where a three-dimensional point group is generated by the as-generated depth map without performing the depth map filtering process in the present embodiment on the depth map generated by the PatchMatch Stereo method. The results are shown.
As can be seen from FIG. 8 (b), the three-dimensional point group restored using the as-generated depth map includes many incorrect three-dimensional points. The incorrect three-dimensional point group is generated because the incorrect (outlier) depth values included in the generated depth map are converted as they are into three-dimensional points.

図8(c)は、PatchMatch Stereo法により生成したデプスマップに対し、本実施形態によるデプスマップフィルタ処理を行った後、修正されたデプスマップを用いて三次元点群を生成した場合の結果を示している。
図8(c)を見て判るように、修正されたデプスマップを用いて復元された三次元点群では、図8(b)に含まれていたような不正確な三次元点群が生成されず、対象物体の三次元形状モデルとして、図8(b)の場合より精度が高い結果となっている。
FIG. 8C shows the result in the case where a three-dimensional point group is generated using the corrected depth map after the depth map filter processing according to the present embodiment is performed on the depth map generated by PatchMatch Stereo method. It shows.
As can be seen from FIG. 8 (c), in the case of the three-dimensional point group reconstructed using the corrected depth map, an inaccurate three-dimensional point group as contained in FIG. 8 (b) is generated As a three-dimensional shape model of the target object, the result is higher in accuracy than in the case of FIG.

この結果は、本実施形態によるデプスマップフィルタ処理により、デプスマップに含まれていた不正確な(外れ点である)デプス値を修正することができ、それらの不正確なデプス値が原因で発生していた不正確な三次元点が生成されることを抑制していることを示している。特に、この図8(c)の結果では、図8(b)の結果においてクラスタ状に発生していた不正確な三次元点や、対象物体表面付近に発生していた三次元点についても、修正されていることが確認できる。また、復元された三次元点群による三次元点群形状モデルが図8(a)の画像との比較により、不正確な三次元点が修正されているものの、正しく復元されていた三次元点が不当に修正されることがないことも確認できる。   The result is that the depth map filtering process according to the present embodiment can correct the incorrect (outlier) depth values included in the depth map, which are caused by the incorrect depth values. It shows that it is suppressing that the incorrect three-dimensional point is generated. In particular, in the result of FIG. 8C, the incorrect three-dimensional point generated in the form of clusters in the result of FIG. 8B and the three-dimensional point generated near the surface of the target object are also obtained. It can confirm that it has been corrected. In addition, the 3D point group shape model by the restored 3D point group is correctly restored although the incorrect 3D point is corrected by comparison with the image of FIG. 8A. It can also be confirmed that is not unfairly corrected.

なお、本発明における図1のデプスマップフィルタ処理装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて実行することにより、デプスマップにおける各画素のデプス値の修正を行う処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWW(World Wide Web)システムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM(Compact Disc - Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM(Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing the function of the depth map filter processing apparatus 1 of FIG. 1 in the present invention is recorded in a computer readable recording medium, and the program recorded in the recording medium is read into a computer system and executed. By doing this, processing may be performed to correct the depth value of each pixel in the depth map. Note that the “computer system” referred to here includes hardware such as an operating system (OS) and peripheral devices. The "computer system" also includes a WWW (World Wide Web) system provided with a homepage providing environment (or display environment). The "computer readable recording medium" is a portable medium such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD-ROM (Compact Disc-Read Only Memory), etc., and is incorporated in a computer system. It refers to a storage device such as a hard disk. Furthermore, “computer-readable recording medium” refers to volatile memory (RAM (Random Access (RAM) within a computer system serving as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line). Memory), etc., includes those which hold a program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by transmission waves in the transmission medium. Here, the “transmission medium” for transmitting the program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and design changes and the like within the scope of the present invention are also included.

1…デプスマップフィルタ処理装置
101…デプスマップ入力部
102…参照画素抽出部
103…整合性判定部
104…ペナルティスコア積算部
105…積算値判定部
106…デプス値修正部
107…デプスマップ記憶部
108…ペナルティスコアマップ記憶部
1 ... depth map filter processing device 101 ... depth map input unit 102 ... reference pixel extraction unit 103 ... consistency determination unit 104 ... penalty score integration unit 105 ... integrated value determination unit 106 ... depth value correction unit 107 ... depth map storage unit 108 ... Penalty score map storage unit

Claims (10)

異なるデプスマップの各々の対応する画素の画素情報を比較し、前記画素間における整合性の有無を判定する整合性判定部と、
整合性がないと判定された画素に対してペナルティスコアを与えるペナルティスコア積算部と、
前記デプスマップの各々の全ての組合わせにおける画素間の前記画素情報の整合性の判定終了後、前記ペナルティスコアの積算値が所定の第1閾値を超えているか否かの判定を行い、前記画素の各々のペナルティスコアが示されるペナルティスコアマップを生成する積算値判定部と、
前記ペナルティスコアマップにおける前記第1閾値を超えている積算値の前記画素のデプス値を修正するデプス値修正部と
を備えることを特徴とするデプスマップフィルタ処理装置。
A consistency determination unit that compares pixel information of corresponding pixels of different depth maps, and determines presence / absence of consistency between the pixels;
A penalty score integration unit that gives a penalty score to pixels determined to be inconsistent;
After the determination of the consistency of the pixel information between the pixels in all combinations of each of the depth maps is completed, it is determined whether the integrated value of the penalty score exceeds a predetermined first threshold value, and the pixels An integrated value determination unit that generates a penalty score map in which each penalty score of
A depth value correction unit which corrects the depth value of the pixel of the integrated value exceeding the first threshold value in the penalty score map.
前記積算値判定部が、前記積算値が前記第1閾値を超えている場合、前記デプス値の修正後のデプスマップによる画素間の整合性の判定を前記整合性判定部に対して行わせて、デプスマップの修正処理を継続させる
ことを特徴とする請求項1に記載のデプスマップフィルタ処理装置。
When the integrated value exceeds the first threshold, the integrated value determination unit causes the consistency determination unit to determine consistency between pixels according to the depth map after correction of the depth value. The depth map filtering device according to claim 1, wherein the correction processing of the depth map is continued.
比較する組における一のデプスマップの対象画素のデプス値及び当該一のデプスマップのカメラパラメータから三次元点を生成し、他のデプスマップに前記三次元点を投影し、当該他のデプスマップの対応する参照画素の前記画素情報である参照画素情報を抽出する参照画素抽出部とを
さらに備え、
前記整合性判定部が、
前記参照画素情報と前記対象画素の前記画素情報である対象画素情報とを比較し、前記参照画素情報と前記対象画素情報とが所定の第2閾値未満であるか否かにより、前記整合性の判定を行う
ことを特徴とする請求項1または請求項2に記載のデプスマップフィルタ処理装置。
A three-dimensional point is generated from a depth value of a target pixel of one depth map in a pair to be compared and a camera parameter of the one depth map, and the three-dimensional point is projected onto another depth map A reference pixel extraction unit that extracts reference pixel information that is the pixel information of the corresponding reference pixel;
The consistency determination unit
The consistency is determined by comparing the reference pixel information with target pixel information that is the pixel information of the target pixel, and determining whether the reference pixel information and the target pixel information are less than a predetermined second threshold. The depth map filtering apparatus according to claim 1, wherein the determination is performed.
前記画素情報が前記画素のデプス値である
ことを特徴とする請求項1から請求項3のいずれか一項に記載のデプスマップフィルタ処理装置。
The depth map filtering device according to any one of claims 1 to 3, wherein the pixel information is a depth value of the pixel.
前記画素情報が前記画素の画素値である
ことを特徴とする請求項1から請求項3のいずれか一項に記載のデプスマップフィルタ処理装置。
The depth map filter processing device according to any one of claims 1 to 3, wherein the pixel information is a pixel value of the pixel.
前記画素情報が前記画素のデプス値及び画素値の各々である
ことを特徴とする請求項1から請求項3のいずれか一項に記載のデプスマップフィルタ処理装置。
The depth map filtering apparatus according to any one of claims 1 to 3, wherein the pixel information is each of a depth value and a pixel value of the pixel.
前記デプス値修正部が、
前記ペナルティスコアマップを参照し、前記第1閾値を超えている積算値の前記画素における、当該積算値の最大値を有する画素を最大値画素として抽出し、当該最大値画素のデプス値を修正する
ことを特徴とする請求項3から請求項6のいずれか一項に記載のデプスマップフィルタ処理装置。
The depth value correction unit
The pixel having the maximum value of the integrated value in the pixels of the integrated value exceeding the first threshold is extracted as a maximum value pixel with reference to the penalty score map, and the depth value of the maximum value pixel is corrected. The depth map filtering device according to any one of claims 3 to 6, characterized in that:
前記デプス値修正部が、
前記画素のデプス値を修正する際、前記デプスマップから三次元形状モデルの三次元点を生成する際に、当該三次元点の生成の計算において無視される不正値に、前記画素のデプス値を変更する
ことを特徴とする請求項1から請求項7のいずれか一項に記載のデプスマップフィルタ処理装置。
The depth value correction unit
When correcting a depth value of the pixel, when generating a three-dimensional point of the three-dimensional shape model from the depth map, the depth value of the pixel is set to an invalid value ignored in calculation of generation of the three-dimensional point. The depth map filtering device according to any one of claims 1 to 7, wherein the depth map filtering device is changed.
整合性判定部が、異なるデプスマップの各々の対応する画素の画素情報を比較し、前記画素間における整合性の有無を判定する整合性比較過程と、
ペナルティスコア積算部が、整合性がないと判定された画素に対して所定のペナルティスコアを積算するペナルティスコア積算過程と、
積算値判定部が、前記デプスマップの各々の全ての組合わせにおける画素間の前記画素情報の整合性の判定終了後、前記ペナルティスコアの積算値が所定の第1閾値を超えているか否かの判定を行い、前記画素の各々のペナルティスコアが示されるペナルティスコアマップを生成する積算値判定過程と、
デプス値修正部が、前記ペナルティスコアマップにおける前記第1閾値を超えている積算値の前記画素のデプス値を修正するデプス値修正過程と
を含むことを特徴とするデプスマップフィルタ処理方法。
A consistency comparison step of comparing the pixel information of corresponding pixels of different depth maps, and determining the presence or absence of the consistency between the pixels;
A penalty score integration process in which a penalty score integration unit integrates a predetermined penalty score with respect to pixels determined to be inconsistent;
After the integrated value determination unit determines the consistency of the pixel information between pixels in all combinations of the depth map, it is determined whether the integrated value of the penalty score exceeds a predetermined first threshold value. An integrated value determination step of performing a determination and generating a penalty score map in which the penalty score of each of the pixels is indicated;
A depth value correction process of correcting the depth value of the pixel of the integrated value exceeding the first threshold value in the penalty score map.
コンピュータを、
異なるデプスマップの各々の対応する画素の画素情報を比較し、前記画素間における整合性の有無を判定する整合性比較手段、
整合性がないと判定された画素に対してペナルティスコアを与えるペナルティスコア積算手段、
前記デプスマップの各々の全ての組合わせにおける画素間の前記画素情報の整合性の判定終了後、前記ペナルティスコアの積算値が所定の第1閾値を超えているか否かの判定を行い、前記画素の各々のペナルティスコアが示されるペナルティスコアマップを生成する積算値判定手段、
前記ペナルティスコアマップにおける前記第1閾値を超えている積算値の前記画素のデプス値を修正するデプス値修正手段
として動作させるためのプログラム。
Computer,
Consistency comparison means for comparing pixel information of corresponding pixels of different depth maps, and determining presence or absence of consistency between the pixels;
Penalty score integrating means for giving a penalty score to pixels determined to be inconsistent,
After the determination of the consistency of the pixel information between the pixels in all combinations of each of the depth maps is completed, it is determined whether the integrated value of the penalty score exceeds a predetermined first threshold value, and the pixels Integrated value determination means for generating a penalty score map in which the penalty score of each of
A program for operating as depth value correction means for correcting the depth value of the pixel of the integrated value exceeding the first threshold in the penalty score map.
JP2017217794A 2017-11-10 2017-11-10 Depth map filtering device, depth map filtering method and program Active JP7156624B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017217794A JP7156624B2 (en) 2017-11-10 2017-11-10 Depth map filtering device, depth map filtering method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017217794A JP7156624B2 (en) 2017-11-10 2017-11-10 Depth map filtering device, depth map filtering method and program

Publications (2)

Publication Number Publication Date
JP2019091122A true JP2019091122A (en) 2019-06-13
JP7156624B2 JP7156624B2 (en) 2022-10-19

Family

ID=66836324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017217794A Active JP7156624B2 (en) 2017-11-10 2017-11-10 Depth map filtering device, depth map filtering method and program

Country Status (1)

Country Link
JP (1) JP7156624B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458797A (en) * 2019-06-18 2019-11-15 南开大学 A kind of conspicuousness object detecting method based on depth map filter
CN113496509A (en) * 2020-03-18 2021-10-12 广州极飞科技股份有限公司 Method and device for generating depth image frame, computer equipment and storage medium
CN113781424A (en) * 2021-09-03 2021-12-10 苏州凌云光工业智能技术有限公司 Surface defect detection method, device and equipment
JP2022501681A (en) * 2019-08-30 2022-01-06 上海商▲湯▼▲臨▼港智能科技有限公司 Depth image complement method and device, computer readable storage medium

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
佐藤 智和: "画像特徴点の数え上げに基づくマルチベースラインステレオ", 情報処理学会論文誌, vol. 第48巻 No.SIG16(CVIM19), JPN6021044284, 2007, JP, pages 25 - 37, ISSN: 0004634357 *
小甲 啓隆: "自由視点画像を用いた車載カメラ画像処理アルゴリズムの評価", 映像情報メディア学会技術報告 VOL.38 NO.7, vol. 38, no. 7, JPN6021044287, 2014, JP, pages 141 - 146, ISSN: 0004634358 *
高部 篤志: "奥行情報と輝度情報の整合性を利用した屋外環境計測データからの移動物体検出", 電子情報通信学会技術研究報告 VOL.115 NO.456, vol. 115, no. 456, JPN6021044286, 2016, JP, pages 103 - 108, ISSN: 0004634359 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458797A (en) * 2019-06-18 2019-11-15 南开大学 A kind of conspicuousness object detecting method based on depth map filter
JP2022501681A (en) * 2019-08-30 2022-01-06 上海商▲湯▼▲臨▼港智能科技有限公司 Depth image complement method and device, computer readable storage medium
JP7143449B2 (en) 2019-08-30 2022-09-28 上▲海▼商▲湯▼▲臨▼▲港▼智能科技有限公司 Depth image interpolation method and device, computer readable storage medium
CN113496509A (en) * 2020-03-18 2021-10-12 广州极飞科技股份有限公司 Method and device for generating depth image frame, computer equipment and storage medium
CN113781424A (en) * 2021-09-03 2021-12-10 苏州凌云光工业智能技术有限公司 Surface defect detection method, device and equipment
CN113781424B (en) * 2021-09-03 2024-02-27 苏州凌云光工业智能技术有限公司 Surface defect detection method, device and equipment

Also Published As

Publication number Publication date
JP7156624B2 (en) 2022-10-19

Similar Documents

Publication Publication Date Title
US10810750B1 (en) Three-dimensional scanning system and scanning method thereof
CN110717942B (en) Image processing method and device, electronic equipment and computer readable storage medium
JP5285619B2 (en) Camera system calibration
US9774837B2 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
JP7403594B2 (en) Image processing device, image processing method, and program
JP2019091122A (en) Depth map filter processing device, depth map filter processing method and program
CN109640066B (en) Method and device for generating high-precision dense depth image
JP2020010146A (en) Image processing system, image processing method, and program
CN112184811B (en) Monocular space structured light system structure calibration method and device
CN111080776B (en) Human body action three-dimensional data acquisition and reproduction processing method and system
JP2019530059A (en) Method for independently processing multiple target areas
JP2018181047A (en) Three-dimensional shape model generating device, three-dimensional shape model generating method and program
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
JP6285686B2 (en) Parallax image generation device
CN107403448B (en) Cost function generation method and cost function generation device
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
KR102327304B1 (en) A method of improving the quality of 3D images acquired from RGB-depth camera
JP7334516B2 (en) Three-dimensional shape model generation device, three-dimensional shape model generation method, and program
KR20170047780A (en) Low-cost calculation apparatus using the adaptive window mask and method therefor
CN117058183A (en) Image processing method and device based on double cameras, electronic equipment and storage medium
JP7312026B2 (en) Image processing device, image processing method and program
JP2022024688A (en) Depth map generation device and program thereof, and depth map generation system
CN111833441A (en) Face three-dimensional reconstruction method and device based on multi-camera system
CN115661258A (en) Calibration method and device, distortion correction method and device, storage medium and terminal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R150 Certificate of patent or registration of utility model

Ref document number: 7156624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350