JP4732392B2 - 3D shape data generation method - Google Patents

3D shape data generation method Download PDF

Info

Publication number
JP4732392B2
JP4732392B2 JP2007090003A JP2007090003A JP4732392B2 JP 4732392 B2 JP4732392 B2 JP 4732392B2 JP 2007090003 A JP2007090003 A JP 2007090003A JP 2007090003 A JP2007090003 A JP 2007090003A JP 4732392 B2 JP4732392 B2 JP 4732392B2
Authority
JP
Japan
Prior art keywords
point
voxel
camera
intersection
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007090003A
Other languages
Japanese (ja)
Other versions
JP2008250582A (en
Inventor
雅浩 上野
豊 國田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007090003A priority Critical patent/JP4732392B2/en
Publication of JP2008250582A publication Critical patent/JP2008250582A/en
Application granted granted Critical
Publication of JP4732392B2 publication Critical patent/JP4732392B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数台のカメラで撮像した画像を用いて、物体の表面形状を3次元的に取得する技術に関する。   The present invention relates to a technique for three-dimensionally acquiring the surface shape of an object using images captured by a plurality of cameras.

従来の3次元形状データ生成方法について、以下に説明する。(たとえば、非特許文献1)
従来技術の代表的な全体処理の流れを図7を用いて説明する。(a)は物体表面を、確定した結果として得る場合の流れであり、(b)は確率的な結果として得る場合の流れである。
A conventional three-dimensional shape data generation method will be described below. (For example, Non-Patent Document 1)
A typical overall processing flow of the prior art will be described with reference to FIG. (A) is a flow when the object surface is obtained as a determined result, and (b) is a flow when the object surface is obtained as a probabilistic result.

まず、複数のカメラを用いて同一の物体を撮影する。
次に、3次元形状データを測定したい対象物体を含む3次元空間を、スペースカービング法で行っているように、ボクセルで分割する。
それから、撮影された画像同士の類似性から、各ボクセルにおける物体表面が存在する可能性を示す値を、全ボクセルについて算出する。
最後に、該物体表面が存在する可能性が高い点を該物体の表面とする、あるいは、該物体表面が存在する可能性から該物体の表面の存在する確率を算出する。
First, the same object is imaged using a plurality of cameras.
Next, a three-dimensional space including a target object whose three-dimensional shape data is to be measured is divided by voxels as in the space carving method.
Then, a value indicating the possibility that an object surface exists in each voxel is calculated for all voxels from the similarity between the captured images.
Finally, a point where the object surface is highly likely to be present is set as the surface of the object, or the probability that the object surface exists is calculated from the possibility that the object surface exists.

図1は、3次元空間のボクセルによる分割と複数カメラの撮像位置との関係を示す図である。図1を用いて、従来の3次元データ生成方法について説明する。この方法では、物体表面が存在する可能性の計算において、まず、測定したい3次元空間をボクセルで分割する。101はこの分割された1つのボクセルを示している。空間中にある物体を撮像するカメラが複数台あり、ここではn台あるものとする。111はそのうちの1つのカメラC1であり、便宜的に1台目のカメラとしている。112はカメラC1のレンズ、113はレンズ112のレンズ中心、114はカメラC1の撮像素子、115は撮像素子114の原点、116はボクセル101が結像している撮像素子114上の点、である。他のカメラC2〜Cnも同様である。   FIG. 1 is a diagram illustrating a relationship between a division by a voxel in a three-dimensional space and imaging positions of a plurality of cameras. A conventional three-dimensional data generation method will be described with reference to FIG. In this method, in calculating the possibility that an object surface exists, first, a three-dimensional space to be measured is divided by voxels. Reference numeral 101 denotes one divided voxel. It is assumed that there are a plurality of cameras that image an object in the space, and here there are n cameras. Reference numeral 111 denotes one of the cameras C1, which is the first camera for convenience. 112 is the lens of the camera C1, 113 is the lens center of the lens 112, 114 is the image sensor of the camera C1, 115 is the origin of the image sensor 114, and 116 is a point on the image sensor 114 on which the voxel 101 is imaged. . The same applies to the other cameras C2 to Cn.

カメラC1の111では、ボクセル101はレンズ112のレンズ中心113を通り、撮像素子114上の点116で結像する。ただし、点116の座標は点115を原点とする座標である。ボクセル101をvとし、このボクセル内に物体表面があるかどうかの判定を、ボクセル101が結像している各カメラC1〜Cnの撮像素子上の点の近傍の相違度の大きさで決める。ここで相違度とは、たとえば、以下のように標準偏差σとする。 In the camera C 1 111, the voxel 101 passes through the lens center 113 of the lens 112 and forms an image at a point 116 on the image sensor 114. However, the coordinates of the point 116 are coordinates having the point 115 as the origin. It is assumed that voxel 101 is v, and whether or not the object surface is present in this voxel is determined by the magnitude of the degree of difference in the vicinity of the point on the image sensor of each camera C1 to Cn on which voxel 101 is imaged. Here, the degree of difference is, for example, a standard deviation σ v as follows.

Figure 0004732392
Figure 0004732392

ここで、mv,Ciは3次元空間中のボクセルvの中心をカメラCで撮像したときのカメラCの撮像素子上の結像位置、aはカメラの撮像素子上のmv,Ciの近傍を示すベクトルの集合であり、mv,Ciを原点としたベクトルの集合、pはaの中の1つのベクトル、T(k)は撮像素子上の画素の座標kにおけるテクスチャであり、通常RGBの色濃度を要素とする色ベクトル、nはカメラ台数、バーT(p)はmv,Ciの近傍内にある点の座標pについての全カメラのテクスチャの平均、|x|はxの各要素の2乗和、を表す。なお、イメージデータの式で上部に線がある符号Tを、文章上では「バーT」と記載する。 Here, m v, Ci camera C i image forming position on the image pickup device when the imaging center of the voxel v of the three-dimensional space by the camera C i, a is m v on the image pickup device of the camera, Ci Is a set of vectors having mv , Ci as the origin, p is one vector in a, T (k) is a texture at the coordinate k of the pixel on the image sensor, Usually, a color vector having RGB color density as an element, n C is the number of cameras, bar T v (p) is an average of textures of all cameras with respect to coordinates p of points in the vicinity of m v, Ci , | x | 2 represents the sum of squares of each element of x. Note that the symbol T having a line at the top in the image data equation is described as “bar T” on the text.

物体表面のある微小領域から発した光は、各カメラの撮像素子上の対応する領域ではほぼ同一のテクスチャを持つものと考えられるため、標準偏差σは小さくなる。逆に標準偏差σが小さいほど、それに対応するボクセルvには物体表面がある可能性が高くなる。したがって、標準偏差σを相違度とし、その相違度σに対して閾値τを設け、σ≧τであればそのボクセルvには物体表面が存在せず、σ<τであればそのボクセルvには物体表面が存在する、と判定する。 Since the light emitted from a minute area on the object surface is considered to have almost the same texture in the corresponding area on the image sensor of each camera, the standard deviation σ v becomes small. Conversely, the smaller the standard deviation σ v, the higher the possibility that the corresponding voxel v has an object surface. Therefore, the standard deviation σ v is set as a dissimilarity, and a threshold τ is provided for the dissimilarity σ v . If σ v ≧ τ, there is no object surface in the voxel v, and if σ v <τ. It is determined that the object surface exists in the voxel v.

K. N. Kutulakos and S. M. Seitz,“A theory of shape by space carving”, Int. J. Comput. Vision, Vol.38, No.3, pp.199-218, 2000K. N. Kutulakos and S. M. Seitz, “A theory of shape by space carving”, Int. J. Comput. Vision, Vol.38, No.3, pp.199-218, 2000

しかしながら、上記従来方法では、3次元空間上の物体表面に同じようなテクスチャが存在した場合に、物体表面が存在しないボクセルの相違度が小さくなって物体表面か否かの判断に間違いを起こす可能性がある、という欠点があった。   However, in the above conventional method, when the same texture exists on the object surface in the three-dimensional space, the degree of difference between voxels without the object surface becomes small, and it may cause an error in determining whether the object surface is the object surface There was a disadvantage that there was.

この説明を図2を用いて行う。図の上方の曲線は物体表面を示す実曲線であり、その周りの点直線はボクセル境界を示す。下方にある211はカメラC1、212はレンズ、213はレンズ中心、214は撮像素子、である。203は物体表面上の小領域a、204は物体表面上の小領域b、2031は203の小領域aをカメラC1で撮像した際の撮像素子上に結像した領域aC1、2032は203の小領域aをカメラC2で撮像した際の撮像素子上に結像した領域aC2、2042は204の小領域bをカメラC2で撮像した際の撮像素子上に結像した領域bC2、201は203の物体表面小領域aとカメラC1のレンズ中心とを結ぶ線と204の物体表面小領域bとカメラC2のレンズ中心とを結ぶ線との交点を含むボクセルv1、202は203の物体表面小領域aを含むボクセルv2、である。 This will be described with reference to FIG. The upper curve in the figure is a real curve indicating the object surface, and the dotted line around it indicates the voxel boundary. Reference numeral 211 denotes a camera C1, 212, a lens, 213, a lens center, and 214, an image sensor. 203 is a small area a on the object surface, 204 is a small area b on the object surface, 2031 is an area a C1 formed on the image sensor when the small area a of 203 is imaged by the camera C1, and 2032 is 203. Regions a C2 and 2042 imaged on the image pickup device when the small region a is imaged by the camera C2 are regions b C2 and 201 imaged on the image pickup device when the small region b of 204 is imaged by the camera C2. The voxels v1 and 202 including the intersection of the line connecting the object surface subregion a 203 and the lens center of the camera C1 and the line connecting the object surface subregion b 204 and the lens center of the camera C2 are shown in FIG. Voxel v2 including region a.

物体表面上の小領域aが結像した撮像素子上の小領域aC1とaC2では、同じ小領域aを結像した領域であるため、テクスチャがほぼ等しく、相違度σが小さくなり、小領域aを含むボクセルv2を物体表面と正しく判定する。しかし、もし、物体表面上の小領域aと物体表面上の小領域bのテクスチャの差が小さい場合、小領域aC1とbC2のテクスチャがほぼ等しくなり、相違度σが小さくなり、物体表面を含まないボクセルv1を物体表面と誤って判定する。 Since the small areas a C1 and a C2 on the image sensor on which the small area a on the object surface is imaged are the areas where the same small area a is imaged, the texture is almost equal and the dissimilarity σ v is small. The voxel v2 including the small area a is correctly determined as the object surface. However, if the difference in texture between the small area a on the object surface and the small area b on the object surface is small, the textures of the small areas a C1 and b C2 are almost equal, and the dissimilarity σ v becomes small. The voxel v1 not including the surface is erroneously determined as the object surface.

以上のように、従来の方法では、物体表面に同じようなテクスチャが存在した場合に物体表面か否かの判断に間違いを起こす可能性がある、という欠点があった。   As described above, the conventional method has a drawback that there is a possibility of making an error in determining whether or not the object surface is present when a similar texture exists on the object surface.

本発明は、上記に鑑みてなされたものであり、その目的とするところは、物体表面に同じようなテクスチャが存在した場合であっても、物体表面を正しく判定する3次元形状データ生成方法を提供することにある。   The present invention has been made in view of the above, and an object of the present invention is to provide a three-dimensional shape data generation method for correctly determining an object surface even when a similar texture exists on the object surface. It is to provide.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下の通りである。   Of the inventions disclosed in the present application, the outline of typical ones will be briefly described as follows.

第一の発明は、複数のカメラにより同一の物体が撮影された画像の類似性から空間中のある点における物体の表面が存在する可能性を計算し、存在する可能性が高い点を該物体の表面とすることで該物体の表面の3次元形状データを生成する3次元形状データ生成装置における3次元形状データ生成方法であり、空間中のある点における物体の表面が存在する可能性を示す値の前記3次元形状データ生成装置による計算が、空間をボクセル分割する第一のステップ(実施の形態1のステップ1に対応)と、各々のボクセルにおける物体表面が存在する可能性を示す第一の値を、各々のボクセルに対応する各カメラの撮像素子上の点の画素値の類似性から求める第二のステップ(実施の形態1のステップ2に対応)と、前記ボクセルのうちの一つのボクセルに注目し、そのボクセル内の任意の点である注目点の周辺に複数の点を取り、2つのカメラのレンズ中心から、それらの点を通るようなカメラ視線を引く第三のステップ(実施の形態1のステップ3に対応)と、前記カメラ視線同士の交点それぞれに対して、該交点における物体の存在する可能性を示す第二の値を、該交点の近傍のボクセルにおける第一の値から算出する第四のステップ(実施の形態1のステップ4に対応)と、前記交点における第二の値に対して、各カメラ視線上ではそれぞれ1つの交点でのみ物体が存在するという拘束条件を用いた最適化アルゴリズムを適用し、各交点における物体の表面の存在する可能性の値を補正した第三の値を算出し、前記注目点における第三の値を注目するボクセルに物体表面が存在する可能性を示す第四の値とする第五のステップ(実施の形態1のステップ5−1〜5−3に対応)と、第一のステップで作成した他のボクセルに対して第三のステップから第五のステップまでの処理を実行する第六のステップ(実施の形態1のステップ6に対応)とからなることを特徴とする。 The first invention calculates the possibility that the surface of an object exists at a certain point in space from the similarity of images in which the same object is captured by a plurality of cameras, and determines that the object is likely to exist. This is a 3D shape data generation method in a 3D shape data generation apparatus that generates 3D shape data of the surface of the object by using the surface of the object, and shows the possibility that the surface of the object exists at a certain point in space The calculation of the value by the three-dimensional shape data generation apparatus shows a first step (corresponding to step 1 of the first embodiment) for dividing the space into voxels, and a first indicating the possibility that an object surface exists in each voxel. A second step (corresponding to step 2 in the first embodiment) for determining the value of the value from the similarity of the pixel values of the points on the image sensor of each camera corresponding to each voxel, and one of the voxels Focus on voxel, taking a plurality of points around the at any point is the point of interest in the voxel, from the lens center of the two cameras, a third step of pulling the camera line of sight, such as through the points ( (Corresponding to step 3 of the first embodiment) and for each intersection of the camera line of sight, a second value indicating the possibility of the existence of an object at the intersection is given as the first value in the voxel near the intersection. 4th step (corresponding to step 4 of the first embodiment) calculated from the value and the second value at the intersection point, a constraint condition that an object exists only at one intersection point on each camera line of sight Is applied to calculate the third value corrected for the possibility that the surface of the object exists at each intersection point, and the object surface is applied to the voxel to which the third value at the point of interest is noted. A fifth step (corresponding to steps 5-1 to 5-3 in the first embodiment) as a fourth value indicating the possibility of being present, and a third step with respect to the other voxels created in the first step. And a sixth step (corresponding to step 6 in the first embodiment) for executing the processing from the above steps to the fifth step.

第二の発明は、上記第一の発明の3次元形状データ生成方法において、前記第一のステップにおいて、物体の表面が存在すると思われる領域の空間をボクセルで分割し、前記第三のステップにおいて、前記注目点を注目するボクセルの中心点とし、該注目点と前記2つのカメラのレンズ中心とで成すエピポーラ面上に、該注目点の周辺に複数の点を取ることを特徴とする。   According to a second invention, in the three-dimensional shape data generation method of the first invention described above, in the first step, the space of the region where the surface of the object is supposed to exist is divided by voxels, and in the third step The point of interest is a center point of a voxel to be noticed, and a plurality of points are taken around the point of interest on an epipolar plane formed by the point of interest and the lens center of the two cameras.

第三の発明は、上記第一または第二の発明の3次元形状データ生成方法において、前記複数のカメラは3台以上であり、前記第三のステップから前記第五のステップまでの処理を、第三のステップにおける複数のカメラから2台のカメラを、組み合わせを変えた複数の選び方で選択し、各組み合わせにおいて注目するボクセルに対する第四の値を計算して各組み合わせにおける第四の値を統合した値を、注目するボクセルに物体表面が存在する可能性を示す値とする第七のステップ(実施の形態1のステップ5−4、5−5に対応)をさらに有することを特徴とする。   According to a third invention, in the three-dimensional shape data generation method according to the first or second invention, the plurality of cameras is three or more, and the processing from the third step to the fifth step is performed. Select two cameras from the multiple cameras in the third step by selecting multiple combinations with different combinations, calculate the fourth value for the voxel of interest in each combination, and integrate the fourth value in each combination The method further includes a seventh step (corresponding to steps 5-4 and 5-5 in the first embodiment) in which the obtained value is a value indicating the possibility that the object surface exists in the target voxel.

第四の発明は、複数のカメラにより同一の物体が撮影された画像の類似性から空間中のある点における物体の表面が存在する可能性を計算し、存在する可能性が高い点を該物体の表面とすることで該物体の表面の3次元形状データを生成する3次元形状データ生成装置における3次元形状データ生成方法であり、空間中のある点における物体の表面が存在する可能性を示す値の前記3次元形状データ生成装置による計算が、空間をボクセル分割する第一のステップ(実施の形態2のステップ1に対応)と、前記ボクセルのうちの一つのボクセルに注目し、そのボクセル内の任意の点である注目点の周辺に複数の点を取り、2つのカメラのレンズ中心から、それらの点を通るようなカメラ視線を引く第二のステップ(実施の形態2のステップ2−1に対応)と、前記カメラ視線同士の交点それぞれに対して、該交点における物体の存在する可能性を示す第一の値を、該交点に対応する該当2つのカメラの撮像素子上の対応点の画素値の類似性から算出する第三のステップ(実施の形態2のステップ2−2に対応)と、前記交点における第一の値に対して、各カメラ視線上ではそれぞれ1つの交点でのみ物体が存在するという拘束条件を用いた最適化アルゴリズムを適用し、各交点における物体の表面の存在する可能性の値を補正した第二の値を算出し、注目点における第二の値を注目するボクセルに物体表面が存在する可能性を示す第三の値とする第四のステップ(実施の形態2のステップ2−3−1〜2−3−3に対応)と、第一のステップで作成した他のボクセルに対して第二のステップから第四のステップまでの処理を実行する第五のステップ(実施の形態2のステップ3に対応)とからなることを特徴とする。 The fourth invention calculates the possibility that the surface of an object exists at a certain point in space from the similarity of images in which the same object is captured by a plurality of cameras, and determines that the object is likely to exist. This is a 3D shape data generation method in a 3D shape data generation apparatus that generates 3D shape data of the surface of the object by using the surface of the object, and shows the possibility that the surface of the object exists at a certain point in space The calculation of the value by the three-dimensional shape data generation apparatus pays attention to the first step (corresponding to step 1 of the second embodiment) of dividing the space into voxels, and one voxel of the voxels, and the inside of the voxel taking a plurality of points around the target point is any point, from the lens center of the two cameras, the second step (embodiment 2 steps pulling the camera line of sight, such as through the points 2 1) and the first value indicating the possibility of the existence of an object at the intersection for each intersection of the camera line of sight, the corresponding point on the image sensor of the corresponding two cameras corresponding to the intersection The third step (corresponding to step 2-2 in the second embodiment) calculated from the similarity of the pixel values of the first and the first value at the intersection point is only one intersection point on each camera line of sight. Apply an optimization algorithm that uses the constraint that an object exists, calculate a second value that corrects the possibility of the surface of the object at each intersection, and pay attention to the second value at the point of interest In the fourth step (corresponding to steps 2-3-1 to 2-3-3 in the second embodiment) as the third value indicating the possibility that the object surface exists in the voxel to be Second against other voxels you created Characterized by comprising from a fifth step of executing the processing from step to the fourth step (corresponding to step 3 of the second embodiment).

第五の発明は、上記第4の発明の3次元形状データ生成方法において、前記第一のステップにおいて、物体の表面が存在すると思われる領域の空間をボクセルで分割し、前記第二のステップにおいて、前記注目点を注目するボクセルの中心点とし、該注目点と前記2つのカメラのレンズ中心とで成すエピポーラ面上に、該注目点の周辺に複数の点を取ることを特徴とする。   According to a fifth aspect of the present invention, in the three-dimensional shape data generation method according to the fourth aspect of the present invention, in the first step, the space of the region where the surface of the object is supposed to exist is divided by voxels, and in the second step The point of interest is a center point of a voxel to be noticed, and a plurality of points are taken around the point of interest on an epipolar plane formed by the point of interest and the lens center of the two cameras.

第六の発明は、上記第四または第五の発明の3次元形状データ生成方法において、前記複数のカメラは3台以上であり、前記第二のステップから前記第四のステップまでの処理を、前記複数のカメラから2台のカメラを、組み合わせを変えた複数の選び方で選択し、各組み合わせにおいて注目するボクセルに対する第三の値を計算して各組み合わせにおける第三の値を統合した値を、注目するボクセルに物体表面が存在する可能性を示す値とする第六のステップ(実施の形態2のステップ2−3−4〜2−3−5に対応)をさらに有することを特徴とする。   A sixth invention is the three-dimensional shape data generation method of the fourth or fifth invention, wherein the plurality of cameras are three or more, and the processing from the second step to the fourth step is performed, The two cameras are selected from the plurality of cameras by a plurality of selection methods with different combinations, and a third value for the voxel of interest in each combination is calculated and the third value in each combination is integrated, A sixth step (corresponding to steps 2-3-4 to 2-3-5 of the second embodiment) is further included, which is a value indicating the possibility that the object surface exists in the target voxel.

本発明は、各ボクセルの信頼度を、カメラペアから得られる3次元的な整合性を持つように、カメラペアの視線の交点上の信頼度が幾何学的な矛盾が少なくなるように最適化を行って得ているため、各ボクセルの信頼度の精度が向上し、その結果、物体表面に同じようなテクスチャが存在した場合であっても、物体表面を正しく判定できるという利点がある。   The present invention optimizes the reliability of each voxel so that the reliability at the intersection of the line of sight of the camera pair has less geometric contradiction so as to have the three-dimensional consistency obtained from the camera pair As a result, the accuracy of the reliability of each voxel is improved. As a result, there is an advantage that the object surface can be correctly determined even when a similar texture exists on the object surface.

また、本発明は、各ボクセルの信頼度がカメラペアから得られる3次元的な整合性を持つため、信頼度の信頼性が向上するという利点がある。   Further, the present invention has an advantage that the reliability of the reliability is improved because the reliability of each voxel has a three-dimensional consistency obtained from the camera pair.

また、本発明は、複数のカメラペアの結果を統合するため、信頼度の信頼性が向上するという利点がある。   Moreover, since the present invention integrates the results of a plurality of camera pairs, there is an advantage that the reliability of the reliability is improved.

[実施の形態1]
実施の形態1の処理の流れを図8を用いて説明する。図8(a)は物体表面を、確定した結果として得る場合の流れであり、図8(b)は確率的な結果として得る場合の流れである。
[Embodiment 1]
The processing flow of the first embodiment will be described with reference to FIG. FIG. 8A shows a flow when the object surface is obtained as a determined result, and FIG. 8B shows a flow when the object surface is obtained as a probabilistic result.

まず、複数のカメラを用いて同一の物体を撮影する。
撮影された画像データを用いて、3次元形状データ生成装置(図示していない)が以下の計算を行う。3次元形状データ生成装置は、記憶装置に記憶されたプログラムとコンピュータで構成することができ、また、そのプログラムの一部または全部に代えてハードウェアを用いることもできる。
3次元形状データを測定したい対象物体の表面が存在すると思われる3次元空間を、スペースカービング法で行っているように、ボクセルで分割する。
次に、撮影された画像同士の類似性から、各ボクセルにおける物体表面が存在する可能性を示す値を、全ボクセルについて算出する。
次に、1つのボクセルに注目して、その周辺に複数の点をとり、選んだ2つのカメラのレンズ中心から、それらの点を通るようなカメラ視線を引く。
次に、カメラ視線同士の交点それぞれに対して、物体表面の存在する可能性を示す値を算出する。
次に、最適化アルゴリズムを適用し、注目点における物体表面の存在する可能性を示す値、および、周辺の点数の点における物体表面の存在する可能性を示す値を補正した値を算出し、注目点における値を物体表面の存在確率を示す値とする。
上記を全てのカメラから2つ選ぶ全組み合わせについて、それぞれ、注目点における物体表面の存在確率を求め、これらを統合したものを、注目点における物体表面の存在確率とする。
全ボクセルにおいて物体表面が存在する可能性を示す値を計算する。
First, the same object is imaged using a plurality of cameras.
Using the captured image data, a three-dimensional shape data generation device (not shown) performs the following calculation. The three-dimensional shape data generation apparatus can be configured by a program stored in a storage device and a computer, and hardware can be used in place of a part or all of the program.
A three-dimensional space in which the surface of a target object for which three-dimensional shape data is desired to be measured is divided by voxels as in the space carving method.
Next, a value indicating the possibility that an object surface exists in each voxel is calculated for all voxels from the similarity between the captured images.
Next, paying attention to one voxel, a plurality of points are taken around the voxel, and a camera line of sight passing through these points is drawn from the lens centers of the two selected cameras.
Next, a value indicating the possibility that the object surface exists is calculated for each intersection of the camera line of sight.
Next, an optimization algorithm is applied to calculate a value obtained by correcting a value indicating the possibility that the object surface exists at the point of interest and a value indicating the possibility that the object surface exists at the peripheral points. The value at the point of interest is a value indicating the existence probability of the object surface.
For all combinations in which two of the above are selected from all cameras, the object surface existence probability at the point of interest is obtained, and the result obtained by integrating these is set as the object surface existence probability at the point of interest.
A value indicating the possibility that an object surface exists in all voxels is calculated.

最後に、該物体表面が存在する可能性が高い点を該物体の表面とする、あるいは、該物体表面が存在する可能性から該物体の表面の存在する確率を算出する。   Finally, a point where the object surface is highly likely to be present is set as the surface of the object, or the probability that the object surface exists is calculated from the possibility that the object surface exists.

以下、図面を用いて本発明の実施の形態1を詳細に説明する。
図1、図3〜図6を用いて、実施の形態1の3次元データ生成方法について説明する。この方法は、複数のカメラを用いて同一の物体を撮影し、撮影された画像の類似性から空間中のある点における物体の表面が存在する可能性を計算し、存在する可能性が高い点を該物体の表面とすること、または、存在する可能性から該物体の表面の存在する確率を計算することで、該物体の表面の3次元形状データを生成する方法である。以下、物体の表面が存在する可能性を計算する方法について詳述する。
Hereinafter, Embodiment 1 of the present invention will be described in detail with reference to the drawings.
A three-dimensional data generation method according to the first embodiment will be described with reference to FIGS. 1 and 3 to 6. This method captures the same object using multiple cameras, calculates the possibility of the surface of the object at a certain point in space from the similarity of the captured images, and is likely to exist Is the surface of the object, or the probability of existence of the surface of the object is calculated from the possibility of existence of the object, thereby generating three-dimensional shape data of the surface of the object. Hereinafter, a method for calculating the possibility that the surface of the object exists will be described in detail.

(ステップ1:空間のボクセル分割)
図1に示すように、3次元形状データを測定したい対象物体を含む3次元空間を、スペースカービング法で行っているように、ボクセルで分割する。101はこの分割された1つのボクセルを示している。空間中にある物体を撮像するカメラが複数台あり、ここではn台あるものとする。111はそのうちの1つのカメラC1であり、便宜的に1台目のカメラとしている。112はカメラC1のレンズ、113はレンズ112のレンズ中心、114はカメラC1の撮像素子、115は撮像素子114の原点、116はボクセル101が結像すると計算される撮像素子114上の対応点、である。他のカメラC2〜Cnも同様である。
(Step 1: Voxel division of space)
As shown in FIG. 1, a three-dimensional space including a target object whose three-dimensional shape data is to be measured is divided by voxels as in the space carving method. Reference numeral 101 denotes one divided voxel. It is assumed that there are a plurality of cameras that image an object in the space, and here there are n cameras. Reference numeral 111 denotes one of the cameras C1, which is the first camera for convenience. 112 is the lens of the camera C1, 113 is the lens center of the lens 112, 114 is the image sensor of the camera C1, 115 is the origin of the image sensor 114, 116 is a corresponding point on the image sensor 114 that is calculated when the voxel 101 is imaged, It is. The same applies to the other cameras C2 to Cn.

カメラC1の111では、ボクセル101はレンズ112のレンズ中心113を通り、撮像素子114上の点116で結像する。ただし、点116の座標は点115を原点とする座標系で表される。   In the camera C 1 111, the voxel 101 passes through the lens center 113 of the lens 112 and forms an image at a point 116 on the image sensor 114. However, the coordinates of the point 116 are expressed in a coordinate system with the point 115 as the origin.

(ステップ2:ボクセルにおける物体表面がある可能性の仮の算出)
ボクセル101をvとし、このボクセル内に物体表面があるかどうかの可能性を示す値(=信頼度)を、ボクセル101が結像している各カメラC1〜Cnの撮像素子上の点、もしくは、その点の近傍の点の画素値の類似性で決める。たとえば、類似性を表す値とは、同一ボクセル101が結像していると計算される、全てのカメラの撮像素子上の対応点、および、その点の近傍点の画素値の標準偏差に類する値である。
(Step 2: Temporary calculation of possibility of object surface in voxel)
A value (= reliability) indicating the possibility of whether or not an object surface is present in the voxel is set to v, and a point on the image sensor of each camera C1 to Cn on which the voxel 101 forms an image, or This is determined by the similarity of pixel values of points in the vicinity of the point. For example, the value indicating similarity is similar to the standard deviation of the pixel values of the corresponding points on the image pickup devices of all the cameras and the neighboring points calculated that the same voxel 101 is imaged. Value.

以下、相違度disRを用いて類似性を計算する方法を述べる。相違度disRは、たとえば、以下のように計算する。   Hereinafter, a method for calculating similarity using the dissimilarity disR will be described. The dissimilarity disR is calculated as follows, for example.

Figure 0004732392
Figure 0004732392

ここで、mv,Ciは3次元空間中のボクセルvの中心をカメラCで撮像したときのカメラCの撮像素子上の結像位置、aはカメラの撮像素子上のmv,Ciの近傍を示すベクトルの集合であり、mv,Ciを原点としたベクトルの集合、pはaの中の1つのベクトル、T(k)は撮像素子上の画素の座標kにおけるテクスチャであり、通常RGBの色濃度を要素とする色ベクトル、nはカメラ台数、バーT(k)はmv,Ciの近傍内にある点の座標pについての全カメラのテクスチャの平均、|x|はxの大きさを表し、たとえば、各要素の2乗和の平方根、mはテクスチャの分散(|T−Tの平均|で表される)に対するdisRや信頼度の変化の仕方を変える値、である。 Here, m v, Ci camera C i image forming position on the image pickup device when the imaging center of the voxel v of the three-dimensional space by the camera C i, a is m v on the image pickup device of the camera, Ci Is a set of vectors having mv , Ci as the origin, p is one vector in a, T (k) is a texture at the coordinate k of the pixel on the image sensor, Usually, a color vector having RGB color density as an element, n C is the number of cameras, bar T v (k) is an average of textures of all cameras with respect to a coordinate p of a point in the vicinity of m v, Ci , | x | Represents the magnitude of x, for example, the square root of the sum of squares of each element, m is a value that changes how disR and the reliability change with respect to the texture variance (expressed as | T−T average |), It is.

テクスチャT(mv,Ci+p)の求め方の一例について図5を用いて説明する。ここで、501はカメラC1、C2のカメラ視線の交点、502はカメラC1のカメラ視線、503はカメラC1のカメラ視線と撮像素子の交点、504はカメラC1のカメラ視線の近傍の撮像素子上の画素群、505はカメラC1のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形、506はカメラC1のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形の近傍の、撮像素子の画素と同じ大きさの四角形、512はカメラC2のカメラ視線、513はカメラC2のカメラ視線と撮像素子の交点、514はカメラC2のカメラ視線の近傍の撮像素子上の画素群、515はカメラC2のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形、である。 An example of how to obtain the texture T ( mv, Ci + p) will be described with reference to FIG. Here, 501 is the intersection of the camera lines of sight of cameras C1 and C2, 502 is the camera line of sight of camera C1, 503 is the intersection of the camera line of sight of camera C1 and the image sensor, and 504 is on the image sensor near the camera line of sight of camera C1. A pixel group, 505 is centered on the intersection of the camera line of sight of the camera C1 and the image sensor, and is a square having the same size as the pixel of the image sensor, 506 is an image sensor centered on the intersection of the camera line of sight of the camera C1 and the image sensor A square of the same size as the pixel of the image sensor in the vicinity of the square of the same size as the pixel of, 512 is a camera line of sight of the camera C2, 513 is an intersection of the camera line of sight of the camera C2 and the image sensor, and 514 is a camera of the camera C2 A pixel group 515 on the image sensor in the vicinity of the line of sight is a quadrangle having the same size as the pixel of the image sensor centering on the intersection of the camera line of sight of the camera C2 and the image sensor.

撮像素子上の画素の座標mv,Ciは、撮像素子の画素の座標と一致するとは限らないので、aが画素幅を単位とするベクトルの集合だとしても、mv,Ci+pは撮像素子の画素の座標とは一致しない。この様子を図5(a)に示す。図5(a)では、カメラ視線の交点501を通る2本の視線がそれぞれカメラC1、C2の撮像素子上で、503と513で示す点で交わっており、その点がそれぞれのカメラの撮像素子上の画素の中心とはずれている様子を示している。 Since the coordinates mv, Ci of the pixels on the image sensor do not always coincide with the coordinates of the pixels of the image sensor, even if a is a set of vectors with the pixel width as a unit, m v, Ci + p is Does not match the coordinates of the pixels. This situation is shown in FIG. In FIG. 5A, two lines of sight passing through the camera line of sight intersection 501 intersect at the points indicated by 503 and 513 on the image sensors of the cameras C1 and C2, respectively. A state where the center of the upper pixel is deviated is shown.

図5(b)はカメラC1の撮像素子を真上から見た図であり、505のカメラ視線との交点を含む撮像素子と同じ大きさの四角形と、その周りに、同じ大きさの四角形506を描いている。mv,Ciは503の座標、aは505、506のそれぞれの四角形の中心座標に対応する。ただし、これは図5(b)に図示したように、aが交点を中心とした9つの座標となる場合のものである。 FIG. 5B is a view of the image sensor of the camera C1 as viewed from directly above. A quadrangle having the same size as that of the image sensor including an intersection with the camera sight line 505, and a quadrangle 506 having the same size around the image sensor. Is drawn. mv and Ci correspond to the coordinates of 503, and a corresponds to the center coordinates of the respective rectangles 505 and 506. However, as shown in FIG. 5B, this is a case where a is nine coordinates centered on the intersection.

図5(c)はカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形と、撮像素子の画素との関係を示した図であり、mv,Ciは、撮像素子の画素の座標、mn1(v),Ci、mn2(v),Ci、mn3(v),Ci、mn4(v),Ciは、カメラ視線と撮像素子の交点を中心とする、撮像素子と同じ大きさの四角形と重なる、撮像素子の画素の中心の座標である。図中のs、tは重なる割合を示しており、0≦s,t≦1である。このとき、テクスチャT(mv,Ci)は以下のように、バイリニア法を使って計算することができる。 FIG. 5C is a diagram showing a relationship between a quadrangle having the same size as the pixel of the image sensor centered on the intersection of the camera line of sight and the image sensor, and m v and Ci are The coordinates of the pixels of the image sensor, mn1 (v), Ci , mn2 (v), Ci , mn3 (v), Ci , mn4 (v), Ci are centered on the intersection of the camera line of sight and the image sensor. The coordinates of the center of the pixel of the image sensor that overlaps a quadrangle of the same size as the image sensor. In the figure, s and t indicate the overlapping ratio, and 0 ≦ s and t ≦ 1. At this time, the texture T ( mv, Ci ) can be calculated using the bilinear method as follows.

Figure 0004732392
Figure 0004732392

ここではバイリニア法を示したが、その他、ニアレストネイバー法、バイキュービック法等の既存の補間方法を使用しても良い。a内でpを変えた場合のテクスチャT(mv,Ci+p)も同様に計算できる。 Although the bilinear method is shown here, other existing interpolation methods such as the nearest neighbor method and the bicubic method may be used. The texture T ( mv, Ci + p) when p is changed in a can be calculated in the same manner.

物体表面のある微小領域から発した光は、各カメラの撮像素子上の対応する領域ではほぼ同一のテクスチャを持つものと考えられるため、相違度disRは小さくなる。逆に相違度disRが小さいほど、それに対応するボクセルvには物体表面がある可能性が高くなる。   Since the light emitted from a minute area on the object surface is considered to have almost the same texture in the corresponding area on the image sensor of each camera, the dissimilarity disR becomes small. Conversely, the smaller the dissimilarity disR, the higher the possibility that the corresponding voxel v has an object surface.

相違度disRからその逆の性質を持つ類似度Rを、たとえば、以下のように求める。   For example, the similarity R having the opposite property is obtained from the dissimilarity disR as follows.

Figure 0004732392
Figure 0004732392

ここで、σは相違度disRに対する類似度Rへの影響を調整するパラメタであり、σが小さいほど、相違度のわずかの違いで類似度の大きさが変化する。 Here, σ is a parameter for adjusting the influence of the dissimilarity disR on the similarity R, and the smaller the σ is, the smaller the degree of similarity changes.

この類似度が大きいボクセルほど、物体表面がそのボクセル中にある可能性が高い。この可能性を信頼度と呼ぶこととしpであらわすこととする。pを以下のようにする。なお、このpは(8.1)式等におけるベクトルのpとは異なる。イメージデータである式においてはこれらは区別できるが、文章上では区別がつかないので、以下、文章上では「信頼度p」と記載する。   The higher the degree of similarity, the higher the possibility that the object surface is in the voxel. This possibility is called reliability and expressed by p. Let p be as follows: This p is different from the vector p in equation (8.1). These can be distinguished in the expression which is the image data, but cannot be distinguished on the text. Therefore, hereinafter, “reliability p” is described on the text.

Figure 0004732392
Figure 0004732392

全てのボクセルについて信頼度を算出する。   Reliability is calculated for all voxels.

ボクセルの信頼度の精度を上げるため、下記に示すような処理により信頼度の再計算による補正を行う。   In order to increase the accuracy of the voxel reliability, correction by recalculation of reliability is performed by the following processing.

(ステップ3:注目ボクセルの周囲の点の決定)
複数のカメラの中から1つのカメラのペアを選び、下記に示すようなカメラ視線を引いて、その交点である注目ボクセルの近傍点を決定する。このカメラ視線の引き方について図3を用いて説明する。
(Step 3: Determination of points around the target voxel)
One camera pair is selected from a plurality of cameras, and a camera line of sight as shown below is drawn to determine a neighboring point of the target voxel that is the intersection. How to draw the camera line of sight will be described with reference to FIG.

301は信頼度を計算し直そうとしている注目ボクセルv、302は物体表面の有無を調べたい3次元空間上の範囲であり、ボクセルで分割する3次元空間上の範囲、である。空間中にある物体を撮像するカメラが複数台あるが、ここではその中のカメラのペアの1組C1、C2のみを示している。311はそのうちの1つのカメラC1、312はカメラC1のレンズ、313はレンズ312のレンズ中心、314はカメラC1の撮像素子、315は撮像素子314の画素、である。他のカメラC2も同様である。303は注目ボクセルvを通り、カメラC1、C2のレンズ中心を通る線に平行な線L、である。   Reference numeral 301 denotes a target voxel v whose reliability is to be recalculated, and 302 is a range in a three-dimensional space in which the presence or absence of the object surface is to be examined, and a range in a three-dimensional space to be divided by voxels. There are a plurality of cameras that image an object in the space. Here, only one pair C1 and C2 of the camera pair is shown here. Reference numeral 311 denotes one of the cameras C 1 and 312, a lens of the camera C 1, 313 denotes a lens center of the lens 312, 314 denotes an image sensor of the camera C 1, and 315 denotes a pixel of the image sensor 314. The same applies to the other cameras C2. Reference numeral 303 denotes a line L passing through the target voxel v and parallel to a line passing through the lens centers of the cameras C1 and C2.

(ステップ3−1:エピポーラ平面の決定)
信頼度pの精度を上げたい注目ボクセルvを決める。このときボクセルvとC1、C2のカメラのそれぞれのカメラレンズの中心を含む平面上が決まる。この平面をエピポーラ平面という。
(Step 3-1: Determination of epipolar plane)
The target voxel v for which the accuracy of the reliability p is desired to be increased is determined. At this time, the plane including the center of each camera lens of the voxel v and the cameras C1 and C2 is determined. This plane is called an epipolar plane.

(ステップ3−2:2つのカメラ中心に平行な線Lの決定)
エピポーラ平面上にあって、カメラC1、C2のそれぞれのレンズ中心を通る線に平行であり、注目ボクセルvの中心を通る線Lを引く。
(Step 3-2: Determination of a line L parallel to two camera centers)
A line L that is on the epipolar plane and is parallel to the line passing through the center of each of the cameras C1 and C2 and passing through the center of the target voxel v is drawn.

(ステップ3−3:線L上の注目ボクセルの周囲の点の決定)
注目ボクセルvの中心点(注目点、図3の三重丸)の周辺に、線L上のボクセルvの中心点を起点として、一定の間隔で、線L上に点を取っていく(図3の二重丸)。なお、この点にはボクセル中心の点も含まれるものとする。また、注目点は注目ボクセルvの中心点に限らず、注目ボクセルv内の任意の点であってもよい。間隔は、たとえば、ボクセルの辺の間隔でもよいが、これに限る必要はない。さらに、ここでは等間隔としたが、必ずしも等間隔である必要は無い。また、点を取る幾何学的な範囲は、特に限る必要はなく、ボクセル全体をカバーする範囲であっても良い。
(Step 3-3: Determination of points around the target voxel on the line L)
Points are drawn on the line L at regular intervals starting from the center point of the voxel v on the line L around the center point of the target voxel v (attention point, triple circle in FIG. 3) (see FIG. 3). double circle). This point includes a point at the center of the voxel. The attention point is not limited to the center point of the attention voxel v, but may be an arbitrary point in the attention voxel v. The interval may be, for example, the interval between the sides of the voxel, but is not limited thereto. Furthermore, although it was set as equal intervals here, it does not necessarily need to be equal intervals. Further, the geometric range for taking points is not particularly limited, and may be a range that covers the entire voxel.

(ステップ3−4:線L上を通るカメラ視線引きと注目ボクセルの周囲の点の決定)
カメラC1、C2のレンズ中心から上記各点(線L上の注目ボクセルの周囲の点)を通る線(カメラ視線)を引く。図3は線Lがボクセルのある1つの辺と平行な場合についての図であり、一点鎖線が、等間隔に取った上記各点とC1、C2のレンズ中心とを結んだ、カメラ視線である。
(Step 3-4: Camera line drawing passing on the line L and determination of points around the target voxel)
A line (camera line of sight) passing through the above points (points around the target voxel on the line L) is drawn from the lens center of the cameras C1 and C2. FIG. 3 is a diagram in the case where the line L is parallel to one side of the voxel, and the alternate long and short dash line is a camera line of sight connecting the above-mentioned points at equal intervals and the lens centers of C1 and C2. .

線L上の等間隔にとった各点、および、それらの点とC1、C2のレンズ中心とを結んだカメラ視線は、同じエピポーラ面上にあるので、カメラ視線同士はお互いに交わる。図中の白丸、二重丸、および、三重丸はそれらの交点を示している。   The points on the line L that are equally spaced and the camera line of sight connecting these points and the lens centers of C1 and C2 are on the same epipolar plane, so the camera lines of sight intersect each other. White circles, double circles, and triple circles in the figure indicate their intersections.

(ステップ4:カメラ視線の各交点における信頼度の算出)
各カメラ視線上の交点における信頼度を、各交点の近傍のボクセルの信頼度から求める。図4を用いてその例を示す。401はカメラ視線の交点、402はカメラ視線の交点を含む立体、403はカメラ視線の交点の近傍のボクセル群であり、402の立体と重なる部分を持つボクセル群、である。
(Step 4: Calculation of reliability at each intersection of camera line of sight)
The reliability at the intersection on each camera line of sight is obtained from the reliability of voxels near each intersection. An example is shown in FIG. 401 is an intersection of camera line of sight, 402 is a solid including the intersection of camera line of sight, 403 is a voxel group near the intersection of camera line of sight, and is a voxel group having a portion overlapping with the solid of 402.

401の交点における信頼度pC1C2d(i,j)(ただし、(i,j)はカメラC1、C2から出ている視線を区別する番号であり、(i,j)=(i,j)は注目ボクセルvの中心を通るカメラ視線であることを示す)は、403近傍のボクセル群をv〜vとし、それらの信頼度はそれぞれ信頼度pC1C2,1,(i,j)〜pC1C2,m,(i,j)、それらボクセル群と402の立体との重なっている体積に対する402の立体に対する割合をr〜rとすると以下のように計算する。 Reliability p C1C2d (i, j) at the intersection of 401 (where (i, j) is a number for distinguishing the line of sight from the cameras C1 and C2, and (i, j) = (i v , j v ) Indicates a camera line of sight passing through the center of the target voxel v), voxel groups in the vicinity of 403 are denoted by v 1 to v m, and their reliability levels are the reliability levels p C1C2,1, (i, j), respectively. ~p C1C2, m, (i, j), calculates the ratio of solid of 402 for overlapping and volume of the solid of and their voxels 402 as follows and r 1 ~r m.

Figure 0004732392
Figure 0004732392

もし、402の立体が401の交点を中心とするボクセルと同じ大きさであれば、m=8となる。   If the 402 solid is the same size as the voxel centered at the intersection of 401, then m = 8.

(ステップ5:信頼度の補正)
各カメラ視線上においては、1点のみに物体の表面が存在するはずである。そこで、この拘束条件を用いて、各交点における信頼度の精度を上げるための信頼度の補正を行う。
(Step 5: Reliability correction)
On each camera line of sight, the surface of the object should exist at only one point. Therefore, using this constraint condition, the reliability is corrected to increase the accuracy of the reliability at each intersection.

図3のカメラC1の視線上に物体表面がある場合、各交点における物体表面が存在する可能性はその物体表面に近い視線の交点のみで信頼度が大きく、そのほかの交点は小さくなることが望ましい。各交点での信頼度がそのようになるように以下の処理を行う。   When the object surface is on the line of sight of the camera C1 in FIG. 3, it is desirable that the possibility that the object surface exists at each intersection is high only at the intersection of the line of sight close to the object surface, and the other intersections are small. . The following processing is performed so that the reliability at each intersection is the same.

図6は本処理を説明する図である。図3のカメラ視線と視線の交点を再現したものを図6(a)に示す。一点鎖線はカメラ視線、白丸と三重丸はカメラ視線の交点を示す。特に、三重丸は注目ボクセルvの中心点を示す。図6(b)はカメラ視線を便宜的に平行になるように幾何学変換したものである。図6(a)に示すカメラ視線は交わらないものがあるが、図6(b)には黒丸で示した部分がその部分である。C1側、C2側とは、カメラが置かれている側を示している。   FIG. 6 is a diagram for explaining this processing. FIG. 6A shows a reproduction of the intersection of the camera line of sight and the line of sight in FIG. The alternate long and short dash line indicates the camera line of sight, and the white circle and the triple circle indicate the intersection of the camera line of sight. In particular, the triple circle indicates the center point of the target voxel v. FIG. 6B shows a result of geometric transformation so that the camera line of sight is parallel for convenience. Although the camera line of sight shown in FIG. 6A does not intersect, the part indicated by a black circle in FIG. 6B is that part. The C1 side and the C2 side indicate the side where the camera is placed.

(ステップ5−1:カメラ視線の交点の置き換え)
図6(b)の白丸、および、三重丸で示すカメラ視線の交点には、図6(a)で示すもとの信頼度を割り当て、図6(b)の黒丸で示す実際には交わらない点には、0を割り当てる。
(Step 5-1: Replacement of intersection of camera line of sight)
The original reliability shown in FIG. 6 (a) is assigned to the intersection of the camera line of sight indicated by the white circle and the triple circle in FIG. 6 (b), and is not actually intersected by the black circle in FIG. 6 (b). Is assigned 0.

(ステップ5−2:カメラ視線の交点の信頼度の最適化)
図6(b)のカメラ視線の交点の信頼度は、各行、各列で1つだけ大きくなることが望ましいので、たとえば、以下のようなエネルギー関数Eをつくり、これを最小化することを考える。
(Step 5-2: Optimization of reliability of intersection of camera line of sight)
Since it is desirable that the reliability of the intersection point of the camera line of sight in FIG. 6B is increased by one in each row and each column, for example, the following energy function E is created and considered to be minimized. .

Figure 0004732392
Figure 0004732392

ここで、信頼度pC1C2d(i,j)は図6に表記のi行j列の点の信頼度、nC1、nC2はそれぞれC1、C2側の線の数、A、Bは適当な大きさの定数を示す。 Here, the reliability p C1C2d (i, j) is the reliability of the point in the i row and j column shown in FIG. 6, n C1 and n C2 are the numbers of lines on the C1 and C2 sides, and A and B are appropriate. Indicates a constant size.

この式を、クロネッカーのデルタ関数を用いて、1=(1−δij)+δijを第1、2項のそれぞれに代入し、以下のように多重一次形式に変換する。 Using this equation, 1 = (1−δ ij ) + δ ij is substituted for each of the first and second terms using the Kronecker delta function, and converted into a multiple primary form as follows.

Figure 0004732392
Figure 0004732392

このエネルギー関数を用いて、下記の力学系を作る。   Using this energy function, the following dynamical system is created.

Figure 0004732392
Figure 0004732392

この力学系を用いてエネルギー関数を最小化するには、たとえば、下記のようにEuler法を用いるとよい。   In order to minimize the energy function using this dynamic system, for example, the Euler method may be used as follows.

まず、信頼度pC1C2d(i,j)に(8.5)式で計算した信頼度で初期化し、次に、 First, the reliability p C1C2d (i, j) is initialized with the reliability calculated by the equation (8.5), and then

Figure 0004732392
Figure 0004732392

を計算し、次に、 And then

Figure 0004732392
Figure 0004732392

を計算する。ただし、Δは時間刻み幅の最大値であり、ユーザが決める定数である。wはベクトルw=(w11,…,wC1C2)のノルムであり、たとえば、ベクトルの各エレメントの2乗和としてもよい。 Calculate However, Δ is the maximum value of the time interval and is a constant determined by the user. w is the norm of the vector w = (w 11 ,..., w C1C2 ), and may be, for example, the sum of squares of each element of the vector.

次に、信頼度pd(i,j)を次のように更新する。 Next, the reliability pd (i, j) is updated as follows.

Figure 0004732392
Figure 0004732392

終了条件としては、たとえば、以下の条件を用いることが考えられる。   For example, the following conditions may be used as the termination conditions.

Figure 0004732392
Figure 0004732392

ここで、εはユーザが決めるしきい値である。 Here, ε is a threshold determined by the user.

上記のような終了条件を満たすまで、繰り返して(8.9)、(8.10)、(8.11)式を行って(8.6)式、または、(8.7)式で示されたエネルギー関数を小さくしていきながら信頼度を更新していき、終了条件を満たしたところで繰り返しを終了する。   Until the above termination condition is satisfied, the equations (8.9), (8.10), and (8.11) are repeatedly performed and expressed as the equation (8.6) or (8.7). The reliability is updated while reducing the energy function, and the iteration is terminated when the termination condition is satisfied.

本実施例では、エネルギー関数の最小化を、Euler法を用いて行い、信頼度の補正を求める例を示したが、ここに示した手法に限られることなく、ニューラルネットワークを用いた組み合わせ最適化問題を解く手法等を用いても良い。   In this embodiment, the energy function is minimized using the Euler method and the correction of the reliability is obtained. However, the present invention is not limited to the method shown here, and the combination optimization using the neural network is performed. A method for solving the problem may be used.

(ステップ5−3:最適化された信頼度の注目ボクセルの信頼度への置き換え)
ステップ5−2を使って計算した、図6(b)に示す三重丸の注目ボクセルvの中心の信頼度を、新たに図6(a)に示す三重丸の注目ボクセルの信頼度とする。
(Step 5-3: Replacing the optimized reliability with the reliability of the target voxel)
The reliability of the center of the noticed voxel v of the triple circle shown in FIG. 6B calculated using step 5-2 is newly set as the reliability of the noticed voxel of the triple circle shown in FIG. 6A.

ステップ3で選んだカメラのペアを固定せず、複数のペアに対して同様の信頼度を求め、求められた信頼度を統合して、さらに信頼度の精度を上げることもできる。この場合には、以下のステップ5−4、5−5を追加する。   It is also possible to obtain the same reliability for a plurality of pairs without fixing the camera pair selected in step 3, and to integrate the obtained reliability to further improve the accuracy of the reliability. In this case, the following steps 5-4 and 5-5 are added.

(ステップ5−4:他のカメラペアにおける信頼度の最適化)
1つのボクセルに関して、複数のカメラペアについて、ステップ3〜5−3を行う。
(Step 5-4: Optimization of reliability in other camera pairs)
Steps 3 to 5-3 are performed for a plurality of camera pairs with respect to one voxel.

(ステップ5−5:複数カメラペアから算出された信頼度の統合)
1つのボクセルに関して、複数のカメラペアから得られた信頼度を統合する。
統合には、例えば以下のようにする。
(Step 5-5: Integration of reliability calculated from a plurality of camera pairs)
For one voxel, the reliability obtained from a plurality of camera pairs is integrated.
For example, the integration is as follows.

Figure 0004732392
Figure 0004732392

ここで、信頼度pCrCsd(iv,jv)はカメラペアCr、Csによって得られた、調べたいボクセルvの信頼度であり、信頼度pはそれらを統合した信頼度である。 Here, the reliability p CrCsd (iv, jv) camera pairs Cr, obtained by Cs, a reliability of the voxel v to be examined, the reliability p d is the confidence that integrates them.

信頼度は、次のように計算してもよい。   The reliability may be calculated as follows.

Figure 0004732392
Figure 0004732392

Biasはユーザが決める定数である。Biasは、たとえば、1とすれば、信頼度pCrCsd(iv,jv)が小さいものはその影響を小さくすることができる。 Bias is a constant determined by the user. If Bias is set to 1, for example, the influence of a low reliability pCrCsd (iv, jv) can be reduced.

(ステップ6:全ボクセルについての信頼度の最適化と統合)
全てのボクセルについて、ステップ3〜5を行う。
(Step 6: Optimization and integration of reliability for all voxels)
Repeat steps 3-5 for all voxels.

以上のステップにより、全ボクセルの信頼度が計算される。   Through the above steps, the reliability of all voxels is calculated.

ステップ3〜6を繰り返し実行し、全ボクセルの信頼度の信頼性をさらに上げることもできる。この場合は、以下のステップ7を追加する。   Steps 3 to 6 can be repeated to further increase the reliability of the reliability of all voxels. In this case, the following step 7 is added.

(ステップ7:信頼度の最計算の繰り返し実行)
ステップ3〜6を繰り返し実行する。
(Step 7: Repeated execution of maximum calculation of reliability)
Repeat steps 3-6.

(ステップ8:3次元形状データの出力)
最後に、再計算によって算出された全ボクセルの信頼度を3次元形状データとする。
(Step 8: Output of 3D shape data)
Finally, the reliability of all voxels calculated by recalculation is set as three-dimensional shape data.

さらに、この全ボクセルの信頼度を用いて、表面が有るか無いかといった2値的なデータを求めることができ、この表面の有無を3次元形状データとすることもできる。この場合は、以下のステップ9を追加する。   Furthermore, binary data such as whether or not there is a surface can be obtained using the reliability of all the voxels, and the presence or absence of this surface can also be used as three-dimensional shape data. In this case, the following step 9 is added.

(ステップ9:表面の有無の判別とそのデータの出力)
このためには、たとえば、あらかじめ決められた閾値を用いて、その閾値以上の信頼度を持つボクセルには物体表面が存在し、それ以外のボクセルには物体表面が存在しないと判断し、その判断結果を3次元形状データとする。
(Step 9: Discrimination of surface presence and output of data)
For this purpose, for example, using a predetermined threshold value, it is determined that an object surface exists in a voxel having a reliability equal to or higher than the threshold value, and no object surface exists in other voxels. The result is taken as three-dimensional shape data.

上記閾値は、上記のようにあらかじめ決めることもできるが、その他に、全ボクセルの信頼度の確率密度関数(信頼度の大きさを入力とし、その生起確率を出力とする関数)を用いて、最小2乗エラーを最小化する既存の2値化アルゴリズム(たとえば、大津の閾値選定法)や、平均誤識別率を最小にする既存の2値化アルゴリズム(たとえば、kittlerの閾値選定法)を使って、閾値を決めてもよい。   The threshold value can be determined in advance as described above, but in addition, using a probability density function of reliability of all voxels (a function having the magnitude of reliability as an input and its occurrence probability as an output), Use an existing binarization algorithm that minimizes the least square error (for example, Otsu's threshold selection method) or an existing binarization algorithm that minimizes the average misclassification rate (for example, the kittler threshold selection method) The threshold may be determined.

本実施の形態の効果としては、各ボクセルの信頼度を、カメラペアから得られる3次元的な整合性を持つように、カメラペアの視線の交点上の信頼度が幾何学的な矛盾が少なくなるように最適化を行って得ているため、各ボクセルの信頼度の精度が向上し、その結果、物体表面に同じようなテクスチャが存在した場合であっても、物体表面を正しく判定できるという利点がある。   As an effect of the present embodiment, the reliability at the intersection of the line of sight of the camera pair has little geometric contradiction so that the reliability of each voxel has a three-dimensional consistency obtained from the camera pair. As a result, the accuracy of the reliability of each voxel is improved, and as a result, even when a similar texture exists on the object surface, the object surface can be correctly determined. There are advantages.

また、本実施の形態の効果としては、各ボクセルの信頼度がカメラペアから得られる3次元的な整合性を持つため、信頼度の信頼性が向上するという利点がある。
また、本実施の形態の効果としては、複数のカメラペアの結果を統合するため、信頼度の信頼性が向上するという利点がある。
Further, as an effect of the present embodiment, since the reliability of each voxel has a three-dimensional consistency obtained from the camera pair, there is an advantage that the reliability of the reliability is improved.
Further, as an effect of the present embodiment, since the results of a plurality of camera pairs are integrated, there is an advantage that reliability of reliability is improved.

[実施の形態2]
実施の形態2の処理の流れを図9を用いて説明する。(a)は物体表面を、確定した結果として得る場合の流れであり、(b)は確率的な結果として得る場合の流れである。
[Embodiment 2]
The processing flow of the second embodiment will be described with reference to FIG. (A) is a flow when the object surface is obtained as a determined result, and (b) is a flow when the object surface is obtained as a probabilistic result.

まず、複数のカメラを用いて同一の物体を撮影する。
撮影された画像データを用いて、3次元形状データ生成装置(図示していない)が以下の計算を行う。3次元形状データ生成装置は、記憶装置に記憶されたプログラムとコンピュータで構成することができ、また、そのプログラムの一部または全部に代えてハードウェアを用いることもできる。
3次元形状データを測定したい対象物体の表面が存在すると思われる3次元空間を、スペースカービング法で行っているように、ボクセルで分割する。
次に、1つのボクセルに注目して、その周辺に複数の点をとり、選んだ2つのカメラのレンズ中心から、それらの点を通るようなカメラ視線を引く。
次に、カメラ視線同士の交点それぞれに対して、物体表面の存在する可能性を示す値を算出する。
次に、最適化アルゴリズムを適用し、注目点における物体表面の存在する可能性を示す値、および、周辺の点数の点における物体表面の存在する可能性を示す値を補正した値を算出し、注目点における値を物体表面の存在確率を示す値とする。
上記を全てのカメラから2つ選ぶ全組み合わせについて、それぞれ、注目点における物体表面の存在確率を求め、これらを統合したものを、注目点における物体表面の存在確率とする。
全ボクセルにおいて物体表面が存在する可能性を示す値を計算する。
最後に、該物体表面が存在する可能性が高い点を該物体の表面とする、あるいは、該物体表面が存在する可能性から該物体の表面の存在する確率を算出する。
First, the same object is imaged using a plurality of cameras.
Using the captured image data, a three-dimensional shape data generation device (not shown) performs the following calculation. The three-dimensional shape data generation apparatus can be configured by a program stored in a storage device and a computer, and hardware can be used in place of a part or all of the program.
A three-dimensional space in which the surface of a target object for which three-dimensional shape data is desired to be measured is divided by voxels as in the space carving method.
Next, paying attention to one voxel, a plurality of points are taken around the voxel, and a camera line of sight passing through these points is drawn from the lens centers of the two selected cameras.
Next, a value indicating the possibility that the object surface exists is calculated for each intersection of the camera line of sight.
Next, an optimization algorithm is applied to calculate a value obtained by correcting a value indicating the possibility that the object surface exists at the point of interest and a value indicating the possibility that the object surface exists at the peripheral points. The value at the point of interest is a value indicating the existence probability of the object surface.
For all combinations in which two of the above are selected from all cameras, the object surface existence probability at the point of interest is obtained, and the result obtained by integrating these is set as the object surface existence probability at the point of interest.
A value indicating the possibility that an object surface exists in all voxels is calculated.
Finally, a point where the object surface is highly likely to be present is set as the surface of the object, or the probability that the object surface exists is calculated from the possibility that the object surface exists.

以下、図面を用いて本発明の実施の形態2を詳細に説明する。   Hereinafter, the second embodiment of the present invention will be described in detail with reference to the drawings.

図1、図3、図5、図6を用いて、実施の形態2の3次元データ生成方法について説明する。この方法は、複数のカメラを用いて同一の物体を撮影し、撮影された画像の類似性から空間中のある点における物体の表面が存在する可能性を計算し、存在する可能性が高い点を該物体の表面とすること、または、存在する可能性から該物体の表面の存在する確率を計算することで、該物体の表面の3次元形状データを生成する方法である。以下、物体の表面が存在する可能性を計算する方法について詳述する。   A three-dimensional data generation method according to the second embodiment will be described with reference to FIGS. 1, 3, 5, and 6. This method captures the same object using multiple cameras, calculates the possibility of the surface of the object at a certain point in space from the similarity of the captured images, and is likely to exist Is the surface of the object, or the probability of existence of the surface of the object is calculated from the possibility of existence of the object, thereby generating three-dimensional shape data of the surface of the object. Hereinafter, a method for calculating the possibility that the surface of the object exists will be described in detail.

(ステップ1:空間のボクセル分割)
図1に示すように、3次元形状データを測定したい対象物体を含む3次元空間を、スペースカービング法で行っているように、ボクセルで分割する。101はこの分割された1つのボクセルを示している。空間中にある物体を撮像するカメラが複数台あり、ここではn台あるものとする。111はそのうちの1つのカメラC1であり、便宜的に1台目のカメラとしている。112はカメラC1のレンズ、113はレンズ112のレンズ中心、114はカメラC1の撮像素子、115は撮像素子114の原点、116はボクセル101が結像すると計算される撮像素子114上の対応点、である。他のカメラC2〜Cnも同様である。
(Step 1: Voxel division of space)
As shown in FIG. 1, a three-dimensional space including a target object whose three-dimensional shape data is to be measured is divided by voxels as in the space carving method. Reference numeral 101 denotes one divided voxel. It is assumed that there are a plurality of cameras that image an object in the space, and here there are n cameras. Reference numeral 111 denotes one of the cameras C1, which is the first camera for convenience. 112 is the lens of the camera C1, 113 is the lens center of the lens 112, 114 is the image sensor of the camera C1, 115 is the origin of the image sensor 114, 116 is a corresponding point on the image sensor 114 that is calculated when the voxel 101 is imaged, It is. The same applies to the other cameras C2 to Cn.

カメラC1の111では、ボクセル101はレンズ112のレンズ中心113を通り、撮像素子114上の点116で結像する。ただし、点116の座標は点115を原点とする座標系で表される。   In the camera C 1 111, the voxel 101 passes through the lens center 113 of the lens 112 and forms an image at a point 116 on the image sensor 114. However, the coordinates of the point 116 are expressed in a coordinate system with the point 115 as the origin.

(ステップ2:注目ボクセルにおける物体表面がある可能性の算出)
ボクセル101をvとし、このボクセル内に物体表面があるかどうかの可能性を示す値(=信頼度)を、ボクセル101が結像している各カメラC1〜Cnの撮像素子上の点、もしくは、その点の近傍の点の画素値の類似性で仮に決め、その後、その信頼度の信頼性を上げるため、後述するような信頼度の再計算による補正を行う。
(Step 2: Calculation of possibility of object surface in target voxel)
A value (= reliability) indicating the possibility of whether or not an object surface is present in the voxel is set to v, and a point on the image sensor of each camera C1 to Cn on which the voxel 101 forms an image, or Then, tentative determination is made based on the similarity of the pixel values of the points in the vicinity of the point, and then correction by recalculation of reliability as described later is performed in order to increase the reliability of the reliability.

(ステップ2−1:注目ボクセルの周囲の点の決定)
複数のカメラの中から1つのカメラのペアを選び、下記に示すようなカメラ視線を引いて、その交点である注目ボクセルの近傍点を決定する。このカメラ視線の引き方について図3を用いて説明する。
(Step 2-1: Determination of points around the target voxel)
One camera pair is selected from a plurality of cameras, and a camera line of sight as shown below is drawn to determine a neighboring point of the target voxel that is the intersection. How to draw the camera line of sight will be described with reference to FIG.

301は信頼度を計算し直そうとしている注目ボクセルv、302は物体表面の有無を調べたい3次元空間上の範囲であり、ボクセルで分割する3次元空間上の範囲、である。空間中にある物体を撮像するカメラが複数台あるが、ここではその中のカメラのペアの1組C1、C2のみを示している。311はそのうちの1つのカメラC1、312はカメラC1のレンズ、313はレンズ312のレンズ中心、314はカメラC1の撮像素子、315は撮像素子314の画素、である。他のカメラC2も同様である。303は注目ボクセルvを通り、カメラC1、C2のレンズ中心を通る線に平行な線Lである。   Reference numeral 301 denotes a target voxel v whose reliability is to be recalculated, and 302 is a range in a three-dimensional space in which the presence or absence of the object surface is to be examined, and a range in a three-dimensional space to be divided by voxels. There are a plurality of cameras that image an object in the space. Here, only one pair C1 and C2 of the camera pair is shown here. Reference numeral 311 denotes one of the cameras C 1 and 312, a lens of the camera C 1, 313 denotes a lens center of the lens 312, 314 denotes an image sensor of the camera C 1, and 315 denotes a pixel of the image sensor 314. The same applies to the other cameras C2. Reference numeral 303 denotes a line L passing through the target voxel v and parallel to a line passing through the lens centers of the cameras C1 and C2.

(ステップ2−1−1:エピポーラ平面の決定)
信頼度pの精度を上げたい注目ボクセルvを決める。このときボクセルvとC1、C2のカメラのそれぞれのカメラレンズの中心を含む平面上が決まる。この平面をエピポーラ平面という。
(Step 2-1-1: Determination of epipolar plane)
The target voxel v for which the accuracy of the reliability p is desired to be increased is determined. At this time, the plane including the center of each camera lens of the voxel v and the cameras C1 and C2 is determined. This plane is called an epipolar plane.

(ステップ2−1−2:2つのカメラ中心に平行な線Lの決定)
エピポーラ平面上にあって、カメラC1、C2のそれぞれのレンズ中心を通る線に平行であり、注目ボクセルvの中心を通る線Lを引く。
(Step 2-1-2: Determination of a line L parallel to two camera centers)
A line L that is on the epipolar plane and is parallel to the line passing through the center of each of the cameras C1 and C2 and passing through the center of the target voxel v is drawn.

(ステップ2−1−3:線L上の注目ボクセルの周囲の点の決定)
注目ボクセルvの中心点(注目点、図3の三重丸)の周辺に、線L上のボクセルvの中心点を起点として、一定の間隔で、線L上に点を取っていく(図3の二重丸)。なお、この点にはボクセル中心の点も含まれるものとする。また、注目点は注目ボクセルvの中心点に限らず、注目ボクセルv内の任意の点であってもよい。間隔は、たとえば、ボクセルの辺の間隔でもよいが、これに限る必要はない。さらに、ここでは等間隔としたが、必ずしも等間隔である必要は無い。また、点を取る幾何学的な範囲は、特に限る必要はなく、ボクセル全体をカバーする範囲であっても良い。
(Step 2-1-3: Determination of points around the target voxel on the line L)
Points are drawn on the line L at regular intervals starting from the center point of the voxel v on the line L around the center point of the target voxel v (attention point, triple circle in FIG. 3) (see FIG. 3). double circle). This point includes a point at the center of the voxel. The attention point is not limited to the center point of the attention voxel v, but may be an arbitrary point in the attention voxel v. The interval may be, for example, the interval between the sides of the voxel, but is not limited thereto. Furthermore, although it was set as equal intervals here, it does not necessarily need to be equal intervals. Further, the geometric range for taking points is not particularly limited, and may be a range that covers the entire voxel.

(ステップ2−1−4:線L上を通るカメラ視線引きと注目ボクセルの周囲の点の決定)
カメラC1、C2のレンズ中心から上記各点(線L上の注目ボクセルの周囲の点)を通る線(カメラ視線)を引く。図3は線Lがボクセルのある1つの辺と平行な場合についての図であり、一点鎖線が、等間隔に取った上記各点とC1、C2のレンズ中心とを結んだ、カメラ視線である。
(Step 2-1-4: Camera line-of-sight drawing on line L and determination of points around target voxel)
A line (camera line of sight) passing through the above points (points around the target voxel on the line L) is drawn from the lens center of the cameras C1 and C2. FIG. 3 is a diagram in the case where the line L is parallel to one side of the voxel, and the alternate long and short dash line is a camera line of sight connecting the above-mentioned points at equal intervals and the lens centers of C1 and C2. .

線L上の等間隔にとった各点、および、それらの点とC1、C2のレンズ中心とを結んだカメラ視線は、同じエピポーラ面上にあるので、カメラ視線同士はお互いに交わる。図中の白丸、二重丸、および、三重丸はそれらの交点を示している。   The points on the line L that are equally spaced and the camera line of sight connecting these points and the lens centers of C1 and C2 are on the same epipolar plane, so the camera lines of sight intersect each other. White circles, double circles, and triple circles in the figure indicate their intersections.

(ステップ2−2:注目ボクセルの中心点およびカメラ視線の各交点における物体表面がある可能性の仮の算出)
注目ボクセルvの中心点、および、その周りにあるカメラ視線の各交点において、物体表面があるかどうかの可能性を示す値(=信頼度)を、各交点が結像しているカメラペアC1、C2の撮像素子上の点、もしくは、その点の近傍の点の画素の類似度で決める。たとえば、類似性を表す値とは、同一点が結像していると計算されている、カメラペアC1、C2のカメラの撮像素子上の対応点、および、その点の近傍の画素値の標準偏差に類する値である。
(Step 2-2: Provisional calculation of the possibility that there is an object surface at each intersection of the center point of the target voxel and the camera line of sight)
A camera pair C1 in which each intersection point forms a value (= reliability) indicating the possibility of the presence of an object surface at each intersection point of the voxel v of interest and the camera line of sight around it. , And the pixel similarity of a point on the image sensor of C2 or a point in the vicinity of the point. For example, the value indicating similarity is a standard of pixel values in the vicinity of the corresponding point on the image sensor of the camera pair C1, C2 that is calculated that the same point is imaged. It is a value similar to a deviation.

以下、相違度disRC1C2(i,j)を用いて類似性を計算する方法を述べる。ただし、(i,j)はカメラC1、C2からでている視線を区別する番号であり、(i,j)=(i,j)は注目ボクセルvの中心を通るカメラ視線であることを示す。相違度disRC1C2(i,j)は、たとえば、以下のように計算する。 Hereinafter, a method of calculating similarity using the dissimilarity disR C1C2 (i, j) will be described. However, (i, j) is the number to distinguish the line of sight is out of the camera C1, C2, (i, j ) = (i v, j v) it is a camera line-of-sight passing through the center of the voxel of interest v Indicates. The dissimilarity disR C1C2 (i, j) is calculated as follows, for example.

Figure 0004732392
Figure 0004732392

ここで、m(i,j),Ckは注目ボクセルvの中心点、および、その周りにあるカメラ視線の各交点を、カメラCkで撮像したときのカメラCkの撮像素子上の結像位置、aはカメラの撮像素子上のm(i,j),Ckの近傍を示すベクトルの集合であり、m(i,j),Ckを原点としたベクトルの集合、pはaの中の1つのベクトル、T(k)は撮像素子上の画素の座標kにおけるテクスチャであり、通常RGBの色濃度を要素とする色ベクトル、バーT(i,j)(k)はm(i,j),Ckの近傍内にある点の座標pについての全カメラのテクスチャの平均、|x|はxの大きさを表し、たとえば、各要素の2乗和の平方根、mはテクスチャの分散(|T−Tの平均|で表される)に対するdisRや信頼度の変化の仕方を変える値、である。 Here, m (i, j), Ck is the imaging position on the image sensor of the camera Ck when the camera Ck images the center point of the target voxel v and each intersection of the camera gazes around it. a is a set of vectors indicating the vicinity of m (i, j) and Ck on the image sensor of the camera, a set of vectors having m (i, j) and Ck as the origin, and p is one of a The vector, T (k), is a texture at the coordinate k of the pixel on the image sensor, and is usually a color vector whose elements are RGB color densities, and the bar T (i, j) (k) is m (i, j), The average of all camera textures for the coordinates p of points in the vicinity of Ck , | x | represents the magnitude of x, for example, the square root of the sum of squares of each element, and m is the variance of the texture (| T− Change how disR and reliability change with respect to the average of T That value is.

テクスチャT(m(i,j),Ck+p)の求め方の一例について図5を用いて説明する。ここで、501はカメラC1、C2のカメラ視線の交点、502はカメラC1のカメラ視線、503はカメラC1のカメラ視線と撮像素子の交点、504はカメラC1のカメラ視線の近傍の撮像素子上の画素群、505はカメラC1のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形、506はカメラC1のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形の近傍の、撮像素子の画素と同じ大きさの四角形、512はカメラC2のカメラ視線、513はカメラC2のカメラ視線と撮像素子の交点、514はカメラC2のカメラ視線の近傍の撮像素子上の画素群、515はカメラC2のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形、である。 An example of how to obtain the texture T (m (i, j), Ck + p) will be described with reference to FIG. Here, 501 is the intersection of the camera lines of sight of cameras C1 and C2, 502 is the camera line of sight of camera C1, 503 is the intersection of the camera line of sight of camera C1 and the image sensor, and 504 is on the image sensor near the camera line of sight of camera C1. A pixel group, 505 is centered on the intersection of the camera line of sight of the camera C1 and the image sensor, and is a square having the same size as the pixel of the image sensor, 506 is an image sensor centered on the intersection of the camera line of sight of the camera C1 and the image sensor A square of the same size as the pixel of the image sensor in the vicinity of the square of the same size as the pixel of, 512 is a camera line of sight of the camera C2, 513 is an intersection of the camera line of sight of the camera C2 and the image sensor, and 514 is a camera of the camera C2 A pixel group 515 on the image sensor in the vicinity of the line of sight is a quadrangle having the same size as the pixel of the image sensor centering on the intersection of the camera line of sight of the camera C2 and the image sensor.

撮像素子上の画素の座標m(i,j),Ckは、撮像素子の画素の座標と一致するとは限らないので、aが画素幅を単位とするベクトルの集合だとしても、m(i,j),Ck+pは撮像素子の画素の座標とは一致しない。この様子を図5(a)に示す。図5(a)では、カメラ視線の交点501を通る2本の視線がそれぞれカメラC1、C2の撮像素子上で、503と513で示す点で交わっており、その点がそれぞれのカメラの撮像素子上の画素の中心とはずれている様子を示している。 Since the coordinates m (i, j), Ck of the pixels on the image sensor do not necessarily match the coordinates of the pixels of the image sensor, even if a is a set of vectors in units of pixel width, m (i, j), Ck + p does not match the coordinates of the pixels of the image sensor. This situation is shown in FIG. In FIG. 5A, two lines of sight passing through the camera line of sight intersection 501 intersect at the points indicated by 503 and 513 on the image sensors of the cameras C1 and C2, respectively. A state where the center of the upper pixel is deviated is shown.

図5(b)はカメラC1の撮像素子を真上から見た図であり、505のカメラ視線との交点を含む撮像素子と同じ大きさの四角形と、その周りに、同じ大きさの四角形506を描いている。m(i,j),Ckは503の座標、aは505、506のそれぞれの四角形の中心座標に対応する。ただし、これは図5(b)に図示したように、aが交点を中心とした9つの座標となる場合のものである。 FIG. 5B is a view of the image sensor of the camera C1 as viewed from directly above. A quadrangle having the same size as that of the image sensor including an intersection with the camera sight line 505, and a quadrangle 506 having the same size around the image sensor. Is drawn. m (i, j) and Ck correspond to the coordinates of 503, and a corresponds to the center coordinates of the respective squares 505 and 506. However, as shown in FIG. 5B, this is a case where a is nine coordinates centered on the intersection.

図5(d)はカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形と、撮像素子の画素との関係を示した図であり、m(i,j),Ckは、撮像素子の画素の座標、mn1(i,j),Ck、mn2(i,j),Ck、mn3(i,j),Ck、mn4(i,j),Ckは、カメラ視線と撮像素子の交点を中心とする、撮像素子と同じ大きさの四角形と重なる、撮像素子の画素の中心の座標である。図中のs、tは重なる割合を示しており、0≦s,t≦1である。このとき、テクスチャT(m(i,j),Ck)は以下のように、バイリニア法を使って計算することができる。 FIG. 5D is a diagram showing a relationship between a square of the same size as the pixel of the image sensor centered on the intersection of the camera line of sight and the image sensor, and m (i, j) , Ck are the coordinates of the pixels of the image sensor , mn1 (i, j), Ck , mn2 (i, j), Ck , mn3 (i, j), Ck , mn4 (i, j), Ck Is the coordinates of the center of the pixel of the image sensor that overlaps a quadrangle of the same size as the image sensor centered on the intersection of the camera line of sight and the image sensor. In the figure, s and t indicate the overlapping ratio, and 0 ≦ s and t ≦ 1. At this time, the texture T (m (i, j), Ck ) can be calculated using the bilinear method as follows.

Figure 0004732392
Figure 0004732392

ここではバイリニア法を示したが、その他、ニアレストネイバー法、バイキュービック法等の既存の補間方法を使用しても良い。a内でpを変えた場合のテクスチャT(m(i,j),Ck+p)も同様に計算できる。 Although the bilinear method is shown here, other existing interpolation methods such as the nearest neighbor method and the bicubic method may be used. The texture T (m (i, j), Ck + p) when p is changed in a can be calculated in the same manner.

物体表面のある微小領域から発した光は、各カメラの撮像素子上の対応する領域ではほぼ同一のテクスチャを持つものと考えられるため、相違度disRC1C2(i,j)は小さくなる。逆に相違度disRC1C2(i,j)が小さいほど、それに対応するボクセルvには物体表面がある可能性が高くなる。相違度disRC1C2(i,j)からその逆の性質を持つ類似度RC1C2(i,j)を、たとえば、以下のように求める。 Since the light emitted from a minute area on the object surface is considered to have almost the same texture in the corresponding area on the image sensor of each camera, the dissimilarity disR C1C2 (i, j) becomes small. Conversely, the smaller the dissimilarity disR C1C2 (i, j), the higher the possibility that the corresponding voxel v has an object surface. From the dissimilarity disR C1C2 (i, j), the similarity R C1C2 (i, j) having the opposite property is obtained as follows, for example.

Figure 0004732392
Figure 0004732392

ここで、σは相違度disRC1C2(i,j)に対する類似度RC1C2(i,j)への影響を調整するパラメタであり、σが小さいほど、相違度のわずかの違いで類似度の大きさが変化する。 Here, σ is a parameter for adjusting the influence on the similarity R C1C2 (i, j) with respect to the dissimilarity disR C1C2 (i, j) , and the smaller the σ, the larger the similarity. Changes.

この類似度が大きいボクセルほど、物体表面がそのボクセル中にある可能性が高い。この可能性を信頼度を呼ぶこととしpC1C2d(i,j)であらわすこととする。pC1C2d(i,j)を以下のようにする。なお、このpは(8.101)式等におけるベクトルのpとは異なる。イメージデータである式においてはこれらは区別できるが、文章上では区別がつかないので、以下、文章上では「信頼度p」と記載する。 The higher the degree of similarity, the higher the possibility that the object surface is in the voxel. This possibility is referred to as reliability and expressed as p C1C2d (i, j) . Let p C1C2d (i, j) be as follows: This p is different from the vector p in (8.101). These can be distinguished in the expression which is the image data, but cannot be distinguished on the text. Therefore, hereinafter, “reliability p” is described on the text.

Figure 0004732392
Figure 0004732392

ボクセルの信頼度の精度を上げるため、下記に示すような処理により信頼度の再計算による補正を行う。 In order to increase the accuracy of the voxel reliability, correction by recalculation of reliability is performed by the following processing.

(ステップ2−3:信頼度の補正)
各カメラ視線上においては、1点のみに物体の表面が存在するはずである。そこで、この拘束条件を用いて、各交点における信頼度の精度を上げるための信頼度の補正を行う。
(Step 2-3: Correction of reliability)
On each camera line of sight, the surface of the object should exist at only one point. Therefore, using this constraint condition, the reliability is corrected to increase the accuracy of the reliability at each intersection.

図3のカメラC1の視線上に物体表面がある場合、各交点における物体表面が存在する可能性はその物体表面に近い視線の交点のみで信頼度が大きく、そのほかの交点は小さくなることが望ましい。各交点での信頼度が上記のような望ましい状態になるように以下の処理を行う。   When the object surface is on the line of sight of the camera C1 in FIG. 3, it is desirable that the possibility that the object surface exists at each intersection is high only at the intersection of the line of sight close to the object surface, and the other intersections are small. . The following processing is performed so that the reliability at each intersection is in the desired state as described above.

図6は本処理を説明する図である。図3のカメラ視線と視線の交点を再現したものを図6(a)に示す。一点鎖線はカメラ視線、白丸と三重丸はカメラ視線の交点を示す。特に、三重丸は注目ボクセルvの中心点を示す。図6(b)はカメラ視線を便宜的に平行になるように幾何学変換したものである。図6(a)に示すカメラ視線は交わらないものがあるが、図6(b)には黒丸で示した部分がその部分である。C1側、C2側とは、カメラが置かれている側を示している。   FIG. 6 is a diagram for explaining this processing. FIG. 6A shows a reproduction of the intersection of the camera line of sight and the line of sight in FIG. The alternate long and short dash line indicates the camera line of sight, and the white circle and the triple circle indicate the intersection of the camera line of sight. In particular, the triple circle indicates the center point of the target voxel v. FIG. 6B shows a result of geometric transformation so that the camera line of sight is parallel for convenience. Although the camera line of sight shown in FIG. 6A does not intersect, the part indicated by a black circle in FIG. 6B is that part. The C1 side and the C2 side indicate the side where the camera is placed.

(ステップ2−3−1:カメラ視線の交点の置き換え)
図6(b)の白丸、および、三重丸で示すカメラ視線の交点には、図6(a)で示すもとの信頼度を割り当て、図6(b)の黒丸で示す実際には交わらない点には、0を割り当てる。
(Step 2-3-1: Replacement of intersection of camera line of sight)
The original reliability shown in FIG. 6 (a) is assigned to the intersection of the camera line of sight indicated by the white circle and the triple circle in FIG. 6 (b), and is not actually intersected by the black circle in FIG. 6 (b). Is assigned 0.

(ステップ2−3−2:カメラ視線の交点の信頼度の最適化)
図6(b)のカメラ視線の交点の信頼度は、各行、各列で1つだけ大きくなることが望ましいので、たとえば、以下のようなエネルギー関数Eをつくり、これを最小化することを考える。
(Step 2-3-2: Optimization of reliability of intersection of camera line of sight)
Since it is desirable that the reliability of the intersection point of the camera line of sight in FIG. 6B is increased by one in each row and each column, for example, the following energy function E is created and considered to be minimized. .

Figure 0004732392
Figure 0004732392

ここで、信頼度pC1C2d(i,j)は図6に表記のi行j列の点の信頼度、nC1、nC2はそれぞれC1、C2側の線の数、A、Bは適当な大きさの定数を示す。 Here, the reliability p C1C2d (i, j) is the reliability of the point in the i row and j column shown in FIG. 6, n C1 and n C2 are the numbers of lines on the C1 and C2 sides, and A and B are appropriate. Indicates a constant size.

この式を、クロネッカーのデルタ関数を用いて、1=(1−δij)+δijを第1、2項のそれぞれに代入し、以下のように多重一次形式に変換する。 Using this equation, 1 = (1−δ ij ) + δ ij is substituted for each of the first and second terms using the Kronecker delta function, and converted into a multiple primary form as follows.

Figure 0004732392
Figure 0004732392

このエネルギー関数を用いて、下記の力学系を作る。   Using this energy function, the following dynamical system is created.

Figure 0004732392
Figure 0004732392

この力学系を用いてエネルギー関数を最小化するには、たとえば、下記のようにEuler法を用いるとよい。   In order to minimize the energy function using this dynamic system, for example, the Euler method may be used as follows.

まず、信頼度pC1C2d(i,j)に(8.104)式で計算した信頼度で初期化し、次に、 First, the reliability p C1C2d (i, j) is initialized with the reliability calculated by the equation (8.104), and then

Figure 0004732392
Figure 0004732392

を計算し、次に、 And then

Figure 0004732392
Figure 0004732392

を計算する。ただし、Δは時間刻み幅の最大値であり、ユーザが決める定数である。wはベクトルw=(w11,…,wC1C2)のノルムであり、たとえば、ベクトルの各エレメントの2乗和としてもよい。 Calculate However, Δ is the maximum value of the time interval and is a constant determined by the user. w is the norm of the vector w = (w 11 ,..., w C1C2 ), and may be, for example, the sum of squares of each element of the vector.

次に、信頼度pC1C2d(i,j)を次のように更新する。 Next, the reliability p C1C2d (i, j) is updated as follows.

Figure 0004732392
Figure 0004732392

終了条件としては、たとえば、以下の条件を用いることが考えられる。   For example, the following conditions may be used as the termination conditions.

Figure 0004732392
Figure 0004732392

ここで、εはユーザが決めるしきい値である。 Here, ε is a threshold determined by the user.

上記のような終了条件を満たすまで、繰り返して(8.109)、(8.110)、(8.111)式を行って(8.106)式、または、(8.107)式で示されたエネルギー関数を小さくしていきながら信頼度を更新していき、終了条件を満たしたところで繰り返しを終了する。   Until the end condition as described above is satisfied, the expressions (8.109), (8.110), and (8.111) are repeatedly performed and expressed as the expression (8.106) or (8.107). The reliability is updated while reducing the energy function, and the iteration is terminated when the termination condition is satisfied.

本実施例では、エネルギー関数の最小化を、Euler法を用いて行い、信頼度の補正を求める例を示したが、ここに示した手法に限られることなく、ニューラルネットワークを用いた組み合わせ最適化問題を解く手法等を用いても良い。   In this embodiment, the energy function is minimized using the Euler method and the correction of the reliability is obtained. However, the present invention is not limited to the method shown here, and the combination optimization using the neural network is performed. A method for solving the problem may be used.

(ステップ2−3−3:最適化された信頼度の注目ボクセルの信頼度への置き換え)
ステップ2−3−2を使って計算した、図6(b)に示す三重丸の注目ボクセルvの中心の信頼度を、新たに図6(a)に示す三重丸の注目ボクセルの信頼度とする。
(Step 2-3-3: Replacing the Optimized Reliability with the Reliability of the Voxel of Interest)
The reliability of the center of the noticed voxel v of the triple circle shown in FIG. 6B calculated using step 2-3-2 is newly set as the reliability of the noticed voxel of the triple circle shown in FIG. 6A.

ステップ2−1で選んだカメラのペアを固定せず、複数のペアに対して同様の信頼度を求め、求められた信頼度を統合して、さらに信頼度の精度を上げることもできる。この場合には、以下のステップ2−3−4、2−3−5を追加する。   It is also possible to obtain the same reliability for a plurality of pairs without fixing the camera pair selected in step 2-1, and integrate the obtained reliability to further improve the accuracy of the reliability. In this case, the following steps 2-3-4 and 2-3-5 are added.

(ステップ2−3−4:他のカメラペアにおける信頼度の最適化)
1つのボクセルに関して、複数のカメラペアについて、ステップ2−1〜2−3−3を行う。
(Step 2-3-4: Optimization of reliability in other camera pairs)
Steps 2-1 to 2-3-3 are performed for a plurality of camera pairs with respect to one voxel.

(ステップ2−3−5:複数カメラペアから算出された信頼度の統合)
1つのボクセルに関して、複数のカメラペアから得られた信頼度を統合する。統合には、例えば以下のようにする。
(Step 2-3-5: Integration of reliability calculated from a plurality of camera pairs)
For one voxel, the reliability obtained from a plurality of camera pairs is integrated. For example, the integration is as follows.

Figure 0004732392
Figure 0004732392

ここで、信頼度pCrCsd(iv,jv)はカメラペアCr、Csによって得られた、調べたいボクセルvの信頼度であり、信頼度pはそれらを統合した信頼度である。 Here, the reliability p CrCsd (iv, jv) camera pairs Cr, obtained by Cs, a reliability of the voxel v to be examined, the reliability p d is the confidence that integrates them.

信頼度は、次のように計算してもよい。   The reliability may be calculated as follows.

Figure 0004732392
Figure 0004732392

Biasはユーザが決める定数である。Biasは、たとえば、1とすれば、信頼度pCrCsd(iv,jv)が小さいものはその影響を小さくすることができる。 Bias is a constant determined by the user. If Bias is set to 1, for example, the influence of a low reliability pCrCsd (iv, jv) can be reduced.

(ステップ3:全ボクセルについての信頼度の最適化と統合)
全てのボクセルについて、ステップ2を行う。
(Step 3: Optimization and integration of reliability for all voxels)
Step 2 is performed for all voxels.

以上のステップにより、全ボクセルの信頼度が計算される。   Through the above steps, the reliability of all voxels is calculated.

この後、ステップ2〜3を繰り返し実行し、全ボクセルの信頼度の信頼性をさらに上げることもできる。この場合は、以下のステップ4を追加する。   Thereafter, Steps 2 to 3 can be repeatedly performed to further increase the reliability of the reliability of all voxels. In this case, the following step 4 is added.

(ステップ4:信頼度の最計算の繰り返し実行)
ステップ2〜3を繰り返し実行する。
(Step 4: Repeated execution of maximum calculation of reliability)
Repeat steps 2-3.

(ステップ5:3次元形状データの出力)
最後に、再計算によって算出された全ボクセルの信頼度を3次元形状データとする。
(Step 5: Output of 3D shape data)
Finally, the reliability of all voxels calculated by recalculation is set as three-dimensional shape data.

さらに、この全ボクセルの信頼度を用いて、表面が有るか無いかといった2値的なデータを求めることができ、この表面の有無を3次元形状データとすることもできる。この場合は、以下のステップ6を追加する。   Furthermore, binary data such as whether or not there is a surface can be obtained using the reliability of all the voxels, and the presence or absence of this surface can also be used as three-dimensional shape data. In this case, the following step 6 is added.

(ステップ6:表面の有無の判別とそのデータの出力)
このためには、たとえば、あらかじめ決められた閾値を用いて、その閾値以上の信頼度を持つボクセルには物体表面が存在し、それ以外のボクセルには物体表面が存在しないと判断し、その判断結果を3次元形状データとする。
(Step 6: Discrimination of presence / absence of surface and output of data)
For this purpose, for example, using a predetermined threshold value, it is determined that an object surface exists in a voxel having a reliability equal to or higher than the threshold value, and no object surface exists in other voxels. The result is taken as three-dimensional shape data.

上記閾値は、上記のようにあらかじめ決めることもできるが、その他に、全ボクセルの信頼度の確率密度関数(信頼度の大きさを入力とし、その生起確率を出力とする関数)を用いて、最小2乗エラーを最小化する既存の2値化アルゴリスム(たとえば、大津の閾値選定法)や、平均誤識別率を最小にする既存の2値化アルゴリズム(たとえば、kittlerの閾値選定法)を使って、閾値を決めてもよい。   The threshold value can be determined in advance as described above, but in addition, using a probability density function of reliability of all voxels (a function having the magnitude of reliability as an input and its occurrence probability as an output), Use an existing binarization algorithm that minimizes the least square error (for example, Otsu's threshold selection method) or an existing binarization algorithm that minimizes the average misidentification rate (for example, the kittler threshold selection method) The threshold may be determined.

本実施の形態の効果としては、各ボクセルの信頼度を、カメラペアから得られる3次元的な整合性を持つように、カメラペアの視線の交点上の信頼度が幾何学的な矛盾が少なくなるように最適化を行って得ているため、各ボクセルの信頼度の精度が向上し、その結果、物体表面に同じようなテクスチャが存在した場合であっても、物体表面を正しく判定できるという利点がある。   As an effect of the present embodiment, the reliability at the intersection of the line of sight of the camera pair has little geometric contradiction so that the reliability of each voxel has a three-dimensional consistency obtained from the camera pair. As a result, the accuracy of the reliability of each voxel is improved, and as a result, even when a similar texture exists on the object surface, the object surface can be correctly determined. There are advantages.

また、本実施の形態の効果としては、各ボクセルの信頼度がカメラペアから得られる3次元的な整合性を持つため、信頼度の信頼性が向上するという利点がある。   Further, as an effect of the present embodiment, since the reliability of each voxel has a three-dimensional consistency obtained from the camera pair, there is an advantage that the reliability of the reliability is improved.

また、本実施の形態の効果としては、複数のカメラペアの結果を統合するため、信頼度の信頼性が向上するという利点がある。   Further, as an effect of the present embodiment, since the results of a plurality of camera pairs are integrated, there is an advantage that reliability of reliability is improved.

以上、本発明者によってなされた発明を、前記実施形態に基づき具体的に説明したが、本発明は、前記実施形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Of course.

3次元空間のボクセルによる分割と複数カメラの撮像位置との関係を示す図である。It is a figure which shows the relationship between the division | segmentation by the voxel of three-dimensional space, and the imaging position of several cameras. 従来の方法の問題点を示す図である。It is a figure which shows the trouble of the conventional method. カメラペアを使った類似度の3次元位置的な整合をとるための計算に用いるカメラ視線の交点の配置を示す図である。It is a figure which shows arrangement | positioning of the intersection of a camera line of sight used for the calculation for taking the three-dimensional positional alignment of the similarity using a camera pair. 視線の交点とその近傍のボクセルを示す図である。It is a figure which shows the intersection of eyes | visual_axis, and the voxel of the vicinity. 視線の交点とその交点を通る視線近傍の撮像素子上の画素(視線同士の交点と2つのカメラ内の撮像素子の関係)を示す図である。It is a figure which shows the pixel on the image pick-up element of the visual line vicinity which passes through the intersection of a visual line (the relationship between the intersection of visual lines, and the image sensor in two cameras). 視線の交点とその交点を通る視線近傍の撮像素子上の画素(カメラ視線と撮像素子の交点とその近傍の画素)を示す図である。It is a figure which shows the pixel on the image pick-up element of the visual line vicinity which passes through the intersection of a visual line (the intersection of a camera visual line and an image sensor, and the pixel of the vicinity). 視線の交点とその交点を通る視線近傍の撮像素子上の画素(注目点を中心とする撮像素子画素と同じ大きさの四角形と撮像素子の画素との関係)を示す図である。It is a figure which shows the pixel on the image pick-up element in the vicinity of a visual line passing through the intersection of the line of sight (the relationship between the square of the same size as the image pickup element pixel around the point of interest and the pixel of the image pickup element). 視線の交点とその交点を通る視線近傍の撮像素子上の画素(視線i,jの交点を中心とする撮像素子画像と同じ大きさの四角形と撮像素子の画像との関係)を示す図である。It is a figure which shows the pixel on the image pick-up element in the vicinity of a visual line passing through the intersection of the line of sight (relationship between a rectangle having the same size as the image pickup element image centering on the intersection of the lines of sight i and j and the image of the image pickup element). . 交点の配置と視線を平行にして交点を置き換えた様子を示す図である。It is a figure which shows a mode that the arrangement | positioning of an intersection and the line of sight were made parallel, and the intersection was replaced. 従来技術の代表的な全体処理のフローを示す図である。It is a figure which shows the flow of the typical whole process of a prior art. 実施形態1による全体処理1のフロー(物体表面を確定した結果として得る場合)を示す図である。It is a figure which shows the flow (when obtaining as a result of determining the object surface) of the whole process 1 by Embodiment 1. FIG. 実施形態1による全体処理1のフロー(物体表面を確率的な結果として得る場合)を示す図である。It is a figure which shows the flow (when obtaining the object surface as a stochastic result) of the whole process 1 by Embodiment 1. FIG. 実施形態2による全体処理2のフロー(物体表面を確定した結果として得る場合)を示す図である。It is a figure which shows the flow (when obtaining as a result of having determined the object surface) of the whole process 2 by Embodiment 2. FIG. 実施形態2による全体処理2のフロー(物体表面を確率的な結果として得る場合)を示す図である。It is a figure which shows the flow (when obtaining the object surface as a stochastic result) of the whole process 2 by Embodiment 2. FIG.

符号の説明Explanation of symbols

101はボクセルv、111はカメラ、112はレンズ、113はレンズ中心、114は撮像素子、115は撮像素子原点、116はボクセルの結像点、201は物体表面を含まないボクセルv1、202は物体表面を含むボクセルv2、203は物体表面上の小領域a、204は物体表面上の小領域b、211はカメラ、212はレンズ、213はカメラ中心、214は撮像素子、2031はカメラC1における物体表面上小領域aの結像領域aC1、2032はカメラC2における物体表面上小領域aの結像領域aC2、2033はカメラC2における物体表面上小領域bの結像領域bC2、301は注目ボクセルv、302はボクセルで分割する範囲、303は注目ボクセルの中心を通ってカメラC1、C2のレンズ中心を通る線に平行な線、311はカメラ、312はレンズ、313はレンズ中心、314は撮像素子、315は撮像素子画素、401はカメラ視線の交点、402はカメラ視線の交点を中心とするボクセルと同じ大きさの立体、403はカメラ視線の交点の近傍のボクセル群、501はカメラC1、C2のカメラ視線の交点、502はカメラC1のカメラ視線、503はカメラC1のカメラ視線と撮像素子の交点、504はカメラC1のカメラ視線の近傍の撮像素子上の画素群、505はカメラC1のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形、506はカメラC1のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形の近傍の、撮像素子の画素と同じ大きさの四角形、512はカメラC2のカメラ視線、513はカメラC2のカメラ視線と撮像素子の交点、514はカメラC2のカメラ視線の近傍の撮像素子上の画素群、515はカメラC2のカメラ視線と撮像素子の交点を中心とする、撮像素子の画素と同じ大きさの四角形、である。 101 is a voxel v, 111 is a camera, 112 is a lens, 113 is a lens center, 114 is an image sensor, 115 is an image sensor origin, 116 is an image point of the voxel, 201 is a voxel v1 and 202 that do not include the object surface, and 202 is an object Voxels v2 and 203 including the surface are a small area a on the object surface, 204 is a small area b on the object surface, 211 is a camera, 212 is a lens, 213 is a camera center, 214 is an image sensor, and 2031 is an object in the camera C1. An imaging region a C1 , 2032 of the small surface area a is an imaging region a C2 , 2033 of the small object surface region a in the camera C2, and 2033 is an imaging region b C2 , 301 of the small object surface region b of the camera C2. The target voxel v, 302 is a range to be divided by the voxel, 303 is a line passing through the center of the camera C1, C2 through the center of the target voxel. Parallel lines, 311 is a camera, 312 is a lens, 313 is a lens center, 314 is an image sensor, 315 is an image sensor pixel, 401 is an intersection of camera lines of sight, and 402 is the same size as a voxel centered at the intersection of camera lines of sight 403 is a group of voxels near the intersection of the camera line of sight, 501 is the intersection of the camera lines of sight of the cameras C1 and C2, 502 is the camera line of sight of the camera C1, 503 is the intersection of the camera line of sight of the camera C1 and the image sensor, and 504 is A pixel group on the image sensor in the vicinity of the camera line of sight of the camera C1, 505 is a quadrangle having the same size as the pixel of the image sensor centering on the intersection of the camera line of sight of the camera C1 and the image sensor, and 506 is a camera line of sight of the camera C1. And a square of the same size as the pixels of the image sensor in the vicinity of the square of the same size as the pixels of the image sensor centering on the intersection of the image sensor and 512 La C2 camera line of sight 513 is the intersection of the camera line of sight of the camera C2 and the image sensor, 514 is a pixel group on the image sensor near the camera line of sight of the camera C2, 515 is centered on the intersection of the camera line of sight of the camera C2 and the image sensor A quadrangle having the same size as the pixels of the image sensor.

Claims (6)

複数のカメラにより同一の物体が撮影された画像の類似性から空間中のある点における物体の表面が存在する可能性を計算し、存在する可能性が高い点を該物体の表面とすることで該物体の表面の3次元形状データを生成する3次元形状データ生成装置における3次元形状データ生成方法において、
空間中のある点における物体の表面が存在する可能性を示す値の前記3次元形状データ生成装置による計算が、
空間をボクセルで分割する第一のステップと、
各々のボクセルにおける物体表面が存在する可能性を示す第一の値を、各々のボクセルに対応する各カメラの撮像素子上の点の画素値の類似性から求める第二のステップと、
前記ボクセルのうちの一つのボクセルに注目し、そのボクセル内の任意の点である注目点の周辺に複数の点を取り、2つのカメラのレンズ中心から、それらの点を通るようなカメラ視線を引く第三のステップと、
前記カメラ視線同士の交点それぞれに対して、該交点における物体の存在する可能性を示す第二の値を、該交点の近傍のボクセルにおける第一の値から算出する第四のステップと、
前記交点における第二の値に対して、各カメラ視線上ではそれぞれ1つの交点でのみ物体が存在するという拘束条件を用いた最適化アルゴリズムを適用し、各交点における物体の表面の存在する可能性の値を補正した第三の値を算出し、前記注目点における第三の値を注目するボクセルに物体表面が存在する可能性を示す第四の値とする第五のステップと、
第一のステップで作成した他のボクセルに対して第三のステップから第五のステップまでの処理を実行する第六のステップと
からなることを特徴とする、3次元形状データ生成方法。
By calculating the possibility that the surface of an object exists at a certain point in space from the similarity of images in which the same object is captured by multiple cameras, and setting the point that is highly likely to exist as the surface of the object In the three-dimensional shape data generation method in the three-dimensional shape data generation device that generates the three-dimensional shape data of the surface of the object,
The calculation by the three-dimensional shape data generation device of the value indicating the possibility that the surface of the object exists at a certain point in the space,
A first step of dividing the space by voxels;
A second step of determining a first value indicating the possibility that an object surface exists in each voxel from the similarity of pixel values of points on the image sensor of each camera corresponding to each voxel;
Pay attention to one of the voxels, take a plurality of points around the point of interest, which is an arbitrary point in the voxel, and take a camera line of sight that passes through those points from the lens center of the two cameras A third step to draw,
A fourth step of calculating, for each intersection between the camera lines of sight, a second value indicating the possibility of an object at the intersection from the first value in a voxel near the intersection;
Applying an optimization algorithm using a constraint that an object exists only at one intersection point on each camera line of sight to the second value at the intersection point, the possibility that the surface of the object exists at each intersection point Calculating a third value obtained by correcting the value of the fifth, and the fifth value as a fourth value indicating the possibility that the object surface exists in the voxel to which the third point at the point of interest is noted;
A method for generating three-dimensional shape data, comprising: a sixth step for executing the processing from the third step to the fifth step on the other voxels created in the first step.
請求項1記載の3次元形状データ生成方法において、
前記第一のステップにおいて、物体の表面が存在すると思われる領域の空間をボクセルで分割し、
前記第三のステップにおいて、前記注目点を注目するボクセルの中心点とし、該注目点と前記2つのカメラのレンズ中心とで成すエピポーラ面上に、該注目点の周辺に複数の点を取る
ことを特徴とする、3次元形状データ生成方法。
The three-dimensional shape data generation method according to claim 1,
In the first step, the space of the region where the surface of the object is supposed to exist is divided by voxels,
In the third step, the target point is set as a center point of the target voxel, and a plurality of points are taken around the target point on an epipolar plane formed by the target point and the lens center of the two cameras. A method for generating three-dimensional shape data.
請求項1または2記載の3次元形状データ生成方法において、
前記複数のカメラは3台以上であり、
前記第三のステップから前記第五のステップまでの処理を、前記複数のカメラから2台のカメラを、組み合わせを変えた複数の選び方で選択し、各組み合わせにおいて注目するボクセルに対する第四の値を計算して各組み合わせにおける第四の値を統合した値を、注目するボクセルに物体表面が存在する可能性を示す値とする第七のステップ
をさらに有することを特徴とする、3次元形状データ生成方法。
The three-dimensional shape data generation method according to claim 1 or 2,
The plurality of cameras are three or more,
In the processes from the third step to the fifth step, two cameras are selected from the plurality of cameras by a plurality of selection methods with different combinations, and a fourth value for the voxel to be noticed in each combination is selected. 3D shape data generation characterized by further comprising a seventh step of calculating and integrating the fourth value in each combination as a value indicating the possibility that an object surface exists in the target voxel Method.
複数のカメラにより同一の物体が撮影された画像の類似性から空間中のある点における物体の表面が存在する可能性を計算し、存在する可能性が高い点を該物体の表面とすることで該物体の表面の3次元形状データを生成する3次元形状データ生成装置における3次元形状データ生成方法において、
空間中のある点における物体の表面が存在する可能性を示す値の前記3次元形状データ生成装置による計算が、
空間をボクセル分割する第一のステップと、
前記ボクセルのうちの一つのボクセルに注目し、そのボクセル内の任意の点である注目点の周辺に複数の点を取り、2つのカメラのレンズ中心から、それらの点を通るようなカメラ視線を引く第二のステップと、
前記カメラ視線同士の交点それぞれに対して、該交点における物体の存在する可能性を示す第一の値を、該交点に対応する該当2つのカメラの撮像素子上の対応点の画素値の類似性から算出する第三のステップと、
前記交点における第一の値に対して各カメラ視線上ではそれぞれ1つの交点でのみ物体が存在するという拘束条件を用いた最適化アルゴリズムを適用し、各交点における物体の表面の存在する可能性の値を補正した第二の値を算出し、注目点における第二の値を注目するボクセルに物体表面が存在する可能性を示す第三の値とする第四のステップと、
第一のステップで作成した他のボクセルに対して第二のステップから第四のステップまでの処理を実行する第五のステップと、
からなることを特徴とする、3次元形状データ生成方法。
By calculating the possibility that the surface of an object exists at a certain point in space from the similarity of images in which the same object is captured by multiple cameras, and setting the point that is highly likely to exist as the surface of the object In the three-dimensional shape data generation method in the three-dimensional shape data generation device that generates the three-dimensional shape data of the surface of the object,
The calculation by the three-dimensional shape data generation device of the value indicating the possibility that the surface of the object exists at a certain point in the space,
A first step to voxel-divide the space;
Pay attention to one of the voxels, take a plurality of points around the point of interest, which is an arbitrary point in the voxel, and take a camera line of sight that passes through those points from the lens center of the two cameras The second step to draw,
For each intersection of the camera line of sight, the first value indicating the possibility that an object exists at the intersection is the similarity of the pixel values of the corresponding points on the image sensor of the corresponding two cameras corresponding to the intersection. A third step to calculate from
Applying an optimization algorithm using a constraint condition that an object exists only at one intersection point on each camera line of sight with respect to the first value at the intersection point, the possibility that the surface of the object exists at each intersection point A fourth step of calculating a second value corrected value, and setting the second value at the point of interest as a third value indicating the possibility that the object surface exists in the target voxel;
A fifth step for performing the processing from the second step to the fourth step on the other voxels created in the first step;
A three-dimensional shape data generating method comprising:
請求項4記載の3次元形状データ生成方法において、
前記第一のステップにおいて、物体の表面が存在すると思われる領域の空間をボクセルで分割し、
前記第二のステップにおいて、前記注目点を注目するボクセルの中心点とし、該注目点と前記2つのカメラのレンズ中心とで成すエピポーラ面上に、該注目点の周辺に複数の点を取る
ことを特徴とする、3次元形状データ生成方法。
The three-dimensional shape data generation method according to claim 4,
In the first step, the space of the region where the surface of the object is supposed to exist is divided by voxels,
In the second step, the target point is set as a center point of the target voxel, and a plurality of points are taken around the target point on an epipolar plane formed by the target point and the lens center of the two cameras. A method for generating three-dimensional shape data.
請求項4または5記載の3次元形状データ生成方法において、
前記複数のカメラは3台以上であり、
前記第二のステップから前記第四のステップまでの処理を、前記複数のカメラから2台のカメラを、組み合わせを変えた複数の選び方で選択し、各組み合わせにおいて注目するボクセルに対する第三の値を計算して各組み合わせにおける第三の値を統合した値を、注目するボクセルに物体表面が存在する可能性を示す値とする第六のステップ
をさらに有することを特徴とする、3次元形状データ生成方法。
The three-dimensional shape data generation method according to claim 4 or 5,
The plurality of cameras are three or more,
In the processes from the second step to the fourth step, two cameras are selected from the plurality of cameras by a plurality of selection methods with different combinations, and a third value for the voxel to be noticed in each combination is selected. 3D shape data generation characterized by further comprising a sixth step of calculating and integrating a third value in each combination as a value indicating the possibility that an object surface exists in the target voxel Method.
JP2007090003A 2007-03-30 2007-03-30 3D shape data generation method Expired - Fee Related JP4732392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007090003A JP4732392B2 (en) 2007-03-30 2007-03-30 3D shape data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007090003A JP4732392B2 (en) 2007-03-30 2007-03-30 3D shape data generation method

Publications (2)

Publication Number Publication Date
JP2008250582A JP2008250582A (en) 2008-10-16
JP4732392B2 true JP4732392B2 (en) 2011-07-27

Family

ID=39975471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007090003A Expired - Fee Related JP4732392B2 (en) 2007-03-30 2007-03-30 3D shape data generation method

Country Status (1)

Country Link
JP (1) JP4732392B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011033497A (en) * 2009-08-03 2011-02-17 Honda Motor Co Ltd Environmental recognition system, environmental recognition method, and robot
JP5648159B2 (en) * 2012-06-26 2015-01-07 株式会社ベイビッグ Three-dimensional relative coordinate measuring apparatus and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236522A (en) * 1999-12-17 2001-08-31 Canon Inc Image processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236522A (en) * 1999-12-17 2001-08-31 Canon Inc Image processor

Also Published As

Publication number Publication date
JP2008250582A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
EP3620964B1 (en) Lane line processing method and device
JP6261489B2 (en) Non-primary computer-readable medium storing method, image processing apparatus, and program for extracting plane from three-dimensional point cloud
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
CN105184801B (en) It is a kind of based on multi-level tactful optics and SAR image high-precision method for registering
CN100494886C (en) Three-dimensional scanning system circular index point detection method
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
US10325184B2 (en) Depth-value classification using forests
CN103295239A (en) Laser-point cloud data automatic registration method based on plane base images
US20180130217A1 (en) Method and apparatus for performing background image registration
JP5726472B2 (en) Alignment method and detection apparatus
Treiber Optimization for computer vision
KR20200049207A (en) System and method for image correction based estimation of distortion parameters
Jacob et al. Depth information enhancement using block matching and image pyramiding stereo vision enabled RGB-D sensor
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
CN114612412A (en) Processing method of three-dimensional point cloud data, application of processing method, electronic device and storage medium
Cárdenes et al. Fast and accurate geodesic distance transform by ordered propagation
JP4732392B2 (en) 3D shape data generation method
CN112950650B (en) Deep learning distorted light spot center extraction method suitable for high-precision morphology measurement
CN111105423B (en) Deep learning-based kidney segmentation method in CT image
JP7312026B2 (en) Image processing device, image processing method and program
Garcia et al. Real-time distance-dependent mapping for a hybrid ToF multi-camera rig
JP2011210160A (en) Image processing method, image processor, program and program storage medium
ES2943287T3 (en) Method of verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image
CN111753723B (en) Fingerprint identification method and device based on density calibration
CN113344988B (en) Stereo matching method, terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110420

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees