JP2018063161A - Information processing apparatus, method for controlling information processing apparatus, and program - Google Patents

Information processing apparatus, method for controlling information processing apparatus, and program Download PDF

Info

Publication number
JP2018063161A
JP2018063161A JP2016201185A JP2016201185A JP2018063161A JP 2018063161 A JP2018063161 A JP 2018063161A JP 2016201185 A JP2016201185 A JP 2016201185A JP 2016201185 A JP2016201185 A JP 2016201185A JP 2018063161 A JP2018063161 A JP 2018063161A
Authority
JP
Japan
Prior art keywords
similarity
image
reliability
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016201185A
Other languages
Japanese (ja)
Inventor
正樹 稲葉
Masaki Inaba
正樹 稲葉
望 糟谷
Nozomu Kasuya
望 糟谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016201185A priority Critical patent/JP2018063161A/en
Publication of JP2018063161A publication Critical patent/JP2018063161A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure a three-dimensional image in an accurate and safe manner irrespective of the texture of a target object.SOLUTION: An information processing apparatus comprises: an image acquisition part that acquires a first image obtained by picking up an image of a target object in which a pattern image is projected, and a plurality of second images obtained by picking up images of the target object from a plurality of view points; a first similarity acquisition part that acquires first similarity on the basis of comparison between a local area of the first image and a local area of the pattern image; a second similarity acquisition part that acquires second similarity on the basis of comparison between local areas of the plurality of second images; and a determination part that determines three-dimensional coordinates of the surface of the target object on the basis of the first similarity and second similarity.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関する。   The present invention relates to an information processing apparatus, a control method for the information processing apparatus, and a program.

対象物体の三次元形状を取得する手法は、アクティブ方式とパッシブ方式に大別される。アクティブ方式とは、プロジェクタから対象物体にパターン光を投影し、その反射光をカメラによって観測することで三次元計測を行う手法である。一方、パッシブ方式とは、対象物体を複数視点からカメラによって撮像することで三次元計測を行う手法である。これらの計測手法は、画像の局所領域同士の類似度を算出し、類似度が最大となる三次元座標を探索することで、三次元形状を求めている。しかし、アクティブ方式もパッシブ方式も、対象物体のテクスチャによっては、計測精度が悪化するという問題がある。アクティブ方式では、対象物体のテクスチャがない場合は正しい三次元座標が算出できるが、対象物体のテクスチャが複雑な場合に正しい三次元座標の算出が難しい。一方、パッシブ方式では、対象物体のテクスチャが複雑な場合は正しい三次元座標が算出できるが、対象物体のテクスチャがない場合や周期的な場合に正しい三次元座標の算出が難しい。   Methods for acquiring the three-dimensional shape of the target object are roughly classified into an active method and a passive method. The active method is a method of performing three-dimensional measurement by projecting pattern light onto a target object from a projector and observing the reflected light with a camera. On the other hand, the passive method is a method of performing three-dimensional measurement by imaging a target object with a camera from a plurality of viewpoints. In these measurement methods, a similarity between local regions of an image is calculated, and a three-dimensional shape is obtained by searching for a three-dimensional coordinate that maximizes the similarity. However, both the active method and the passive method have a problem that the measurement accuracy deteriorates depending on the texture of the target object. In the active method, correct three-dimensional coordinates can be calculated when there is no texture of the target object, but it is difficult to calculate correct three-dimensional coordinates when the texture of the target object is complicated. On the other hand, in the passive method, correct three-dimensional coordinates can be calculated when the texture of the target object is complex, but it is difficult to calculate correct three-dimensional coordinates when there is no texture of the target object or when it is periodic.

これに対して、特許文献1では、パッシブ方式の三次元計測手法だけでなくアクティブ方式などの他の三次元計測手法と組み合わせる手法が開示されている。   On the other hand, Patent Document 1 discloses a technique that is combined with not only a passive three-dimensional measurement technique but also another three-dimensional measurement technique such as an active method.

特開2015−49200号公報JP2015-49200A

しかしながら、特許文献1に記載の技術では、パッシブ方式の三次元計測手法と他の三次元計測手法とで計測精度が異なるため、対象物体のテクスチャによっては、計測精度が一定にならないという課題がある。   However, the technique described in Patent Literature 1 has a problem in that the measurement accuracy is not constant depending on the texture of the target object because the measurement accuracy differs between the passive three-dimensional measurement method and other three-dimensional measurement methods. .

本発明は、上記の課題に鑑みてなされたものであり、対象物体のテクスチャによらず、安定して高精度に三次元形状を計測するための技術を提供することを目的する。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for stably measuring a three-dimensional shape with high accuracy regardless of the texture of a target object.

上記の目的を達成する本発明に係る情報処理装置は、
パターン画像が投影された対象物体を撮像して得られた第一の画像と、複数視点から前記対象物体を撮像して得られた複数の第二の画像とを取得する画像取得手段と、
前記第一の画像の局所領域と前記パターン画像の局所領域との比較に基づいて第一の類似度を取得する第一類似度取得手段と、
前記複数の第二の画像のそれぞれにおける局所領域同士の比較に基づいて第二の類似度を取得する第二類似度取得手段と、
前記第一の類似度と前記第二の類似度とに基づいて前記対象物体の表面の三次元座標を決定する決定手段と、
を備えることを特徴とする。
An information processing apparatus according to the present invention that achieves the above object is as follows.
Image acquisition means for acquiring a first image obtained by imaging a target object on which a pattern image is projected, and a plurality of second images obtained by imaging the target object from a plurality of viewpoints;
First similarity acquisition means for acquiring a first similarity based on a comparison between the local region of the first image and the local region of the pattern image;
Second similarity acquisition means for acquiring a second similarity based on a comparison between local regions in each of the plurality of second images;
Determining means for determining a three-dimensional coordinate of the surface of the target object based on the first similarity and the second similarity;
It is characterized by providing.

本発明によれば、対象物体のテクスチャによらず、安定して高精度に三次元形状を計測できる。   According to the present invention, a three-dimensional shape can be measured stably and with high accuracy regardless of the texture of the target object.

第1の実施形態の情報処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an information processing apparatus according to a first embodiment. 第1の実施形態の情報処理装置による計測処理を説明するフローチャート。5 is a flowchart for explaining measurement processing by the information processing apparatus according to the first embodiment. 第1の実施形態の第一類似度取得部の処理を説明する図。The figure explaining the process of the 1st similarity acquisition part of 1st Embodiment. 第1の実施形態の第二類似度取得部の処理を説明する図。The figure explaining the process of the 2nd similarity acquisition part of 1st Embodiment. 第2の実施形態の情報処理装置の構成例を示すブロック図。The block diagram which shows the structural example of the information processing apparatus of 2nd Embodiment. 第2の実施形態の情報処理装置による計測処理を説明するフローチャート。9 is a flowchart for explaining measurement processing by the information processing apparatus according to the second embodiment. 第2の実施形態の信頼度取得部の処理を説明する図。The figure explaining the process of the reliability acquisition part of 2nd Embodiment. 第3の実施形態の情報処理装置の構成例を示すブロック図。The block diagram which shows the structural example of the information processing apparatus of 3rd Embodiment. 第3の実施形態の情報処理装置による計測処理を説明するフローチャート。10 is a flowchart for explaining measurement processing by the information processing apparatus according to the third embodiment.

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

(第1の実施形態)
第1の実施形態において説明する情報処理装置は、アクティブ方式とパッシブ方式の三次元計測手法を併用して対象物体の三次元形状を取得する三次元計測装置である。ランダムドットパターンを利用したアクティブ方式によって求められる類似度と二眼ステレオのパッシブ方式によって求められる類似度とを統合した類似度に基づいて、三次元点を決定する。対象物体のテクスチャがない場合はアクティブ方式の類似度によって、対象物体のテクスチャが複雑な場合はパッシブ方式の類似度によって、正しい三次元座標が求められる。結果、対象物体のテクスチャによらず安定、高精度な三次元座標を算出することができる。
(First embodiment)
The information processing apparatus described in the first embodiment is a three-dimensional measurement apparatus that acquires a three-dimensional shape of a target object using a combination of active and passive three-dimensional measurement techniques. A three-dimensional point is determined based on a similarity obtained by integrating a similarity obtained by an active method using a random dot pattern and a similarity obtained by a binocular stereo passive method. When there is no texture of the target object, a correct three-dimensional coordinate is obtained by the similarity of the active method, and when the texture of the target object is complicated, the correct three-dimensional coordinate is obtained by the similarity of the passive method. As a result, stable and highly accurate three-dimensional coordinates can be calculated regardless of the texture of the target object.

[装置の構成]
図1のブロック図を参照して、第1の実施形態の情報処理装置1100を備える三次元計測装置1000の装置例を示す。近赤外投影装置1は、近赤外光源を用いてランダムドットパターンを計測対象物体に投影する。パターン光は、計測対象物体の表面で反射し、近赤外撮像装置2によって撮像される。また同時に、可視光撮像装置3と可視光撮像装置4によって、対象物体を撮像する。近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4が撮像した画像は、情報処理装置1100に送られ、情報処理装置1100によって対象物体の三次元座標が算出される。また、情報処理装置1100は、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4の動作を制御する。さらに、近赤外投影装置1、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4はお互いの位置関係を知るための校正が予め行われており、校正データが外部メモリに保存されている。なお、アクティブ方式とパッシブ方式のそれぞれから求められる三次元点の精度を一致させるため、近赤外投影装置1と近赤外撮像装置2間の基線長と可視光撮像装置3と可視光撮像装置4間(撮像装置間)の基線長の長さは略一致している。また、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4の解像度や焦点距離は略一致している。
[Device configuration]
With reference to the block diagram of FIG. 1, an example of a three-dimensional measurement apparatus 1000 including the information processing apparatus 1100 according to the first embodiment is shown. The near-infrared projection device 1 projects a random dot pattern onto a measurement target object using a near-infrared light source. The pattern light is reflected by the surface of the measurement target object and is imaged by the near-infrared imaging device 2. At the same time, the target object is imaged by the visible light imaging device 3 and the visible light imaging device 4. Images captured by the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 are sent to the information processing device 1100, and the information processing device 1100 calculates the three-dimensional coordinates of the target object. Further, the information processing apparatus 1100 controls the operations of the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4. Further, the near-infrared projection device 1, the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 are preliminarily calibrated so as to know their positional relationship, and the calibration data is external. Stored in memory. In addition, in order to make the accuracy of the three-dimensional point calculated | required from each of an active system and a passive system correspond, the base line length between the near-infrared projection apparatus 1 and the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device The lengths of the baseline lengths between the four (between imaging devices) are substantially the same. Further, the resolution and focal length of the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 are substantially the same.

情報処理装置1100は、投影パターン情報保持部101、画像取得部102、第一類似度取得部103、第二類似度取得部104、及び三次元座標決定部105を備える。投影パターン情報保持部101は、投影するランダムドットパターンの輝度画像を保持している。   The information processing apparatus 1100 includes a projection pattern information holding unit 101, an image acquisition unit 102, a first similarity acquisition unit 103, a second similarity acquisition unit 104, and a three-dimensional coordinate determination unit 105. The projection pattern information holding unit 101 holds a luminance image of a random dot pattern to be projected.

画像取得部102は、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4を制御して撮像させるとともに、各々の撮像画像を取得する。そして、近赤外撮像装置2によって撮像された画像(第一の画像:アクティブ方式用の画像)を第一類似度取得部103に出力する。また、可視光撮像装置3、および、可視光撮像装置4によって撮像された画像(第二の画像:パッシブ方式用の画像)を第二類似度取得部104に出力する。   The image acquisition unit 102 controls the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 to capture images, and acquires each captured image. Then, the image captured by the near-infrared imaging device 2 (first image: image for the active method) is output to the first similarity acquisition unit 103. Further, the image picked up by the visible light imaging device 3 and the visible light imaging device 4 (second image: image for passive method) is output to the second similarity acquisition unit 104.

第一類似度取得部103は、第一の画像とランダムドットパターン画像との間の局所領域における輝度分布がどれだけ似ているかを表す第一の類似度を算出して取得する。そして、算出された第一の類似度を三次元座標決定部105に出力する。   The first similarity acquisition unit 103 calculates and acquires a first similarity that indicates how similar the luminance distribution in the local region between the first image and the random dot pattern image is. Then, the calculated first similarity is output to the three-dimensional coordinate determination unit 105.

第二類似度取得部104は、複数視点で撮像された二枚の第二の画像間の局所領域における輝度分布がどれだけ似ているかを示す第二の類似度を算出して取得する。そして、算出された第二の類似度を三次元座標決定部105に出力する。   The second similarity acquisition unit 104 calculates and acquires a second similarity that indicates how similar the luminance distribution in the local region between two second images captured from a plurality of viewpoints is. Then, the calculated second similarity is output to the three-dimensional coordinate determination unit 105.

三次元座標決定部105は、第一の類似度、および、第二の類似度を統合することで、アクティブ方式とパッシブ方式の両者を考慮した類似度を求め、統合した類似度に基づき計測対象物体の三次元座標を決定する。   The three-dimensional coordinate determination unit 105 obtains the similarity considering both the active method and the passive method by integrating the first similarity and the second similarity, and the measurement target based on the integrated similarity Determine the three-dimensional coordinates of the object.

[計測処理]
続いて、図2のフローチャートを参照して、第1の実施形態の情報処理装置1100による計測処理の手順を説明する。
[Measurement processing]
Next, the procedure of the measurement process performed by the information processing apparatus 1100 according to the first embodiment will be described with reference to the flowchart of FIG.

(ステップS11)
ステップS11では、三次元計測装置1000が起動されると、初期化処理が実行される。初期化処理には、近赤外投影装置1、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4の起動、近赤外投影装置1が投影パターン情報保持部101から読み込んだランダムドットパターン画像を投影する処理が含まれる。また、外部メモリから校正データを読み込む処理なども含まれる。
(Step S11)
In step S11, when the three-dimensional measurement apparatus 1000 is activated, an initialization process is executed. In the initialization process, the near-infrared projection device 1, the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 are activated, and the near-infrared projection device 1 starts from the projection pattern information holding unit 101. A process of projecting the read random dot pattern image is included. Also included is processing for reading calibration data from an external memory.

(ステップS12)
ステップS12では、画像取得部102が、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4を制御して画像を撮像させる。この際、撮像の波長を近赤外光と可視光とで分けているため、近赤外撮像装置2にはランダムドットパターンが投影された対象物体が写され、可視光撮像装置3、および、可視光撮像装置4には環境光のみによって照らされた対象物体が写される。画像取得部102は、近赤外撮像装置2によって撮像された第一の画像を第一類似度取得部103に出力し、可視光撮像装置3、および、可視光撮像装置4によって撮像された第二の画像を第二類似度取得部104に出力する。
(Step S12)
In step S12, the image acquisition unit 102 controls the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 to capture an image. At this time, since the imaging wavelength is divided into near-infrared light and visible light, the target object onto which the random dot pattern is projected is copied to the near-infrared imaging device 2, and the visible-light imaging device 3, and The visible light imaging device 4 captures a target object illuminated only by ambient light. The image acquisition unit 102 outputs the first image captured by the near-infrared imaging device 2 to the first similarity acquisition unit 103, and the first image captured by the visible light imaging device 3 and the visible light imaging device 4. The second image is output to the second similarity acquisition unit 104.

(ステップS13)
ステップS13では、第一類似度取得部103が、画像取得部102から入力された第一の画像の局所領域とランダムドットパターン画像の局所領域との類似度を求める。以下、図3を用いて類似度を求める処理を説明する。図3において、11は第一の画像、p1は第一の画像における注目画素、v1は近赤外撮像装置2の視点、e1はp1を通る光線方向をそれぞれ表している。また、q0、q1、q2はe1上の三次元点、12はランダムドットパターン画像、p2はランダムドットパターン画像における注目画素をそれぞれ表している。
(Step S13)
In step S <b> 13, the first similarity acquisition unit 103 obtains the similarity between the local region of the first image input from the image acquisition unit 102 and the local region of the random dot pattern image. Hereinafter, the process for obtaining the similarity will be described with reference to FIG. In FIG. 3, reference numeral 11 denotes a first image, p1 denotes a pixel of interest in the first image, v1 denotes a viewpoint of the near-infrared imaging device 2, and e1 denotes a light ray direction passing through p1. Q0, q1, and q2 are three-dimensional points on e1, 12 is a random dot pattern image, and p2 is a pixel of interest in the random dot pattern image.

まず、類似度を算出するために必要なランダムドットパターン画像を投影パターン情報保持部101から読み込む。次に、第一の画像11とランダムドットパターン画像12との間で局所領域(注目画素(p1、および、p2)とその近傍領域の画素(例えば、注目画素の周囲8画素))における輝度差の絶対値(SAD : Sum of Absolute Difference)の逆数を求めることで第一の類似度を算出する。類似度を算出する際、近赤外撮像装置2の視点v1を基準として、校正データから求められるp1を通る光線方向e1に沿って三次元点(q:q0、q1、q2...)を動かし、各qにおける類似度を算出する。各三次元点qは、ランダムドットパターン画像12上でエピポーラ線上に投影されるため、校正データから三次元点qに対応する注目画素p2が分かり、注目画素p1、および、注目画素p2とその近傍領域の画素とのSADの逆数が求められる。   First, a random dot pattern image necessary for calculating the similarity is read from the projection pattern information holding unit 101. Next, a luminance difference between the first image 11 and the random dot pattern image 12 in a local region (pixels of interest (p1 and p2) and pixels in the vicinity thereof (for example, 8 pixels around the pixel of interest)) The first similarity is calculated by obtaining the reciprocal of the absolute value (SAD: Sum of Absolute Difference). When calculating the similarity, a three-dimensional point (q: q0, q1, q2,...) Is taken along the light ray direction e1 passing through p1 obtained from the calibration data with reference to the viewpoint v1 of the near-infrared imaging device 2. Move to calculate the similarity at each q. Since each three-dimensional point q is projected on the epipolar line on the random dot pattern image 12, the target pixel p2 corresponding to the three-dimensional point q is known from the calibration data, and the target pixel p1 and the target pixel p2 and their vicinity The reciprocal of SAD with the pixels in the area is determined.

このような処理をすべての注目画素p1について行うことで、第一の画像の各画素において第一の類似度が求められる。求められた第一の類似度を三次元座標決定部105に出力する。   By performing such processing for all the target pixels p1, the first similarity is obtained for each pixel of the first image. The obtained first similarity is output to the three-dimensional coordinate determination unit 105.

(ステップS14)
ステップS14では、第二類似度取得部104が、画像取得部102から入力された二枚の第二の画像の局所領域同士の類似度を求める。以下、図4を用いて類似度を求める処理を説明する。図4と図3で同じものを意味するものは同符号を付して説明を省略する。図4において、13は可視光撮像装置3によって撮像された画像、14は可視光撮像装置4によって撮像された画像をそれぞれ表している。また、p3は可視光撮像装置3によって撮像された画像における注目画素、p4は可視光撮像装置4によって撮像された画像における注目画素をそれぞれ表している。
(Step S14)
In step S <b> 14, the second similarity acquisition unit 104 obtains the similarity between the local regions of the two second images input from the image acquisition unit 102. Hereinafter, the process for obtaining the similarity will be described with reference to FIG. 4 and 3 that are the same as those in FIG. In FIG. 4, 13 indicates an image captured by the visible light imaging device 3, and 14 indicates an image captured by the visible light imaging device 4. Further, p3 represents a pixel of interest in an image captured by the visible light imaging device 3, and p4 represents a pixel of interest in an image captured by the visible light imaging device 4, respectively.

次に、可視光撮像装置3によって撮像された画像13と可視光撮像装置4によって撮像された画像14との間で注目画素(p3、および、p4)における類似度をステップS14と同様に算出する。各三次元点qは、各画像13、14上でエピポーラ線上に投影されるため、校正データから三次元点qに対応する注目画素p3およびp4が分かり、注目画素p1における注目画素p3および注目画素p4とその近傍領域の画素とのSADの逆数が求められる。   Next, the similarity in the pixel of interest (p3 and p4) between the image 13 captured by the visible light imaging device 3 and the image 14 captured by the visible light imaging device 4 is calculated in the same manner as in step S14. . Since each three-dimensional point q is projected on the epipolar line on each image 13, 14, the target pixels p3 and p4 corresponding to the three-dimensional point q are known from the calibration data, and the target pixel p3 and the target pixel in the target pixel p1 are found. The reciprocal of SAD between p4 and the pixels in the vicinity thereof is obtained.

このような処理をすべての注目画素p1について行うことで、第一の画像の各画素において第二の類似度が求められる。求められた第二の類似度を三次元座標決定部105に出力する。   By performing such processing for all the target pixels p1, the second similarity is obtained for each pixel of the first image. The obtained second similarity is output to the three-dimensional coordinate determination unit 105.

(ステップS15)
ステップS15では、三次元座標決定部105が、第一類似度取得部103から入力された第一の類似度と第二類似度取得部104から入力された第二の類似度とを用いて三次元座標を決定する。
(Step S15)
In step S <b> 15, the 3D coordinate determination unit 105 uses the first similarity input from the first similarity acquisition unit 103 and the second similarity input from the second similarity acquisition unit 104 to perform tertiary processing. Determine the original coordinates.

まず、第一の画像の各画素において第一の類似度と第二の類似度を次のような式によって統合する。   First, in each pixel of the first image, the first similarity and the second similarity are integrated by the following formula.

Figure 2018063161
Figure 2018063161

ただし、pは第一の画像中のある画素、qは三次元点、C(p,q)は統合後の類似度、A(p,q)は第一の類似度、B(p,q)は第二の類似度を表している。そして、このようにして得られる統合類似度C(p,q)が最大となる位置を正しい三次元点qとして決定する。このような処理を第一の画像の各画素において行うことで、画素数分の三次元座標(X,Y,Z)を算出し、処理を終了する。   Where p is a pixel in the first image, q is a three-dimensional point, C (p, q) is the similarity after integration, A (p, q) is the first similarity, B (p, q ) Represents the second similarity. Then, the position where the integrated similarity C (p, q) obtained in this way is maximized is determined as the correct three-dimensional point q. By performing such processing at each pixel of the first image, three-dimensional coordinates (X, Y, Z) corresponding to the number of pixels are calculated, and the processing is terminated.

上記に述べた構成で、アクティブ方式とパッシブ方式それぞれから求められる類似度を統合した類似度に基づいて、三次元点を決定することで、対象物体のテクスチャによらず三次元座標を安定、高精度に算出することができる。   With the configuration described above, the 3D point is determined based on the similarity obtained by integrating the similarities obtained from the active method and the passive method, so that the 3D coordinates are stable and high regardless of the texture of the target object. It can be calculated with accuracy.

(第2の実施形態)
第2の実施形態において説明する情報処理装置は、第1の実施形態と同様に、アクティブ方式とパッシブ方式の三次元計測手法を併用して対象物体の三次元形状を取得する三次元計測装置である。ただし、第2の実施形態では、各類似度に基づいて類似度の信頼度を算出する信頼度取得部をさらに備える点が異なっている。各類似度のうち対応する信頼度がより高い類似度をより重視して、三次元点を決定することにより、より安定、高精度な三次元座標を算出することができる。
(Second Embodiment)
As in the first embodiment, the information processing apparatus described in the second embodiment is a three-dimensional measurement apparatus that acquires the three-dimensional shape of a target object using a combination of active and passive three-dimensional measurement techniques. is there. However, the second embodiment is different in that the second embodiment further includes a reliability acquisition unit that calculates the reliability of the similarity based on each similarity. By determining the three-dimensional point with a higher priority on the similarity having a higher corresponding reliability among the similarities, it is possible to calculate more stable and highly accurate three-dimensional coordinates.

[装置の構成]
図5のブロック図を参照して、第2の実施形態の情報処理装置2100を備える三次元計測装置2000の装置例を示す。なお、第1の実施形態と略同様である装置については同符号を付して説明を省略する。
[Device configuration]
With reference to the block diagram of FIG. 5, an example of a three-dimensional measurement apparatus 2000 including the information processing apparatus 2100 of the second embodiment is shown. In addition, about the apparatus substantially the same as 1st Embodiment, a same sign is attached | subjected and description is abbreviate | omitted.

情報処理装置2100は、投影パターン情報保持部201、画像取得部202、第一類似度取得部203、第二類似度取得部204、信頼度取得部205、及び三次元座標決定部206を備える。なお、投影パターン情報保持部201、および、画像取得部202は第1の実施形態と略同様であるため、説明を省略する。   The information processing apparatus 2100 includes a projection pattern information holding unit 201, an image acquisition unit 202, a first similarity acquisition unit 203, a second similarity acquisition unit 204, a reliability acquisition unit 205, and a three-dimensional coordinate determination unit 206. Note that the projection pattern information holding unit 201 and the image acquisition unit 202 are substantially the same as those in the first embodiment, and a description thereof will be omitted.

第一類似度取得部203は、第一の画像とランダムドットパターン画像との間の局所領域における輝度分布がどれだけ似ているかを表す第一の類似度を算出する。算出された第一の類似度を信頼度取得部205に出力する。   The first similarity acquisition unit 203 calculates a first similarity indicating how similar the luminance distribution in the local region between the first image and the random dot pattern image is. The calculated first similarity is output to the reliability acquisition unit 205.

第二類似度取得部204は、二枚の第二の画像間の局所領域における輝度分布がどれだけ似ているかを示す第二の類似度を算出する。算出された第二の類似度を信頼度取得部205に出力する。   The second similarity acquisition unit 204 calculates a second similarity indicating how similar the luminance distribution in the local region between the two second images is. The calculated second similarity is output to the reliability acquisition unit 205.

信頼度取得部205は、第一の類似度と第二の類似度からそれぞれの類似度がどれほど信頼できるかを表す第一の信頼度と第二の信頼度を算出する。算出された第一の信頼度と第二の信頼度、および、第一の類似度と第二の類似度を三次元座標決定部206に出力する。   The reliability acquisition unit 205 calculates a first reliability and a second reliability that indicate how reliable each similarity is from the first similarity and the second similarity. The calculated first reliability and second reliability, and the first similarity and second similarity are output to the three-dimensional coordinate determination unit 206.

三次元座標決定部206は、第一の信頼度と第二の信頼度、および、第一の類似度と第二の類似度を統合することで、アクティブ方式とパッシブ方式の両者を考慮した類似度を求め、最終的な三次元座標を決定する。   The three-dimensional coordinate determination unit 206 integrates the first reliability and the second reliability, and the first similarity and the second similarity, so that both the active method and the passive method are considered. Find the degree and determine the final 3D coordinates.

[計測処理]
続いて、図6のフローチャートを参照して、第2の実施形態の情報処理装置2100による計測処理の手順を説明する。なお、ステップS21、ステップS22、ステップS23、および、ステップS24は第1の実施形態の対応する各ステップと略同様であるため、説明を省略する。
[Measurement processing]
Next, with reference to a flowchart of FIG. 6, a measurement process procedure performed by the information processing apparatus 2100 according to the second embodiment will be described. In addition, since step S21, step S22, step S23, and step S24 are substantially the same as each corresponding step of 1st Embodiment, description is abbreviate | omitted.

(ステップS25)
ステップS25では、信頼度取得部205が、第一類似度取得部203、および、第二類似度取得部204から入力された各類似度の信頼度を算出する。信頼度は、類似度がとる最大値のピーク度合い(尖度)として定義する。ピークが急峻な(尖度が高い)ほど、ピーク位置の三次元座標は信頼でき、ピークがなだらかな(尖度が低い)ほどピーク位置の三次元座標は信頼できないと判定する。例えば、図7のような類似度の場合、類似度の最大値をs1、二番目に大きい値をs2とすれば、s1/ s2 - 1を信頼度とすればよい。
(Step S25)
In step S <b> 25, the reliability acquisition unit 205 calculates the reliability of each similarity input from the first similarity acquisition unit 203 and the second similarity acquisition unit 204. The reliability is defined as the maximum peak degree (kurtosis) taken by the similarity. It is determined that the steeper peak (the higher the kurtosis), the more reliable the three-dimensional coordinate of the peak position, and the gentler the peak (the lower the kurtosis), the more unreliable the three-dimensional coordinate of the peak position. For example, in the case of similarity as shown in FIG. 7, if the maximum value of similarity is s1, and the second largest value is s2, s1 / s2−1 may be used as the reliability.

このような処理を第一の類似度、および、第二の類似度に関して行うことで、第一の画像の各画素において第一の信頼度、および、第二の信頼度が求められる。第一の信頼度と第二の信頼度、および、第一の類似度と第二の類似度を三次元座標決定部206に出力する。   By performing such processing with respect to the first similarity and the second similarity, the first reliability and the second reliability are obtained for each pixel of the first image. The first reliability and the second reliability, and the first similarity and the second similarity are output to the three-dimensional coordinate determination unit 206.

(ステップS26)
ステップS26では、三次元座標決定部206が、信頼度取得部205から入力された第一の信頼度と第二の信頼度、および、第一の類似度と第二の類似度を用いて三次元座標を決定する。
(Step S26)
In step S <b> 26, the three-dimensional coordinate determination unit 206 uses the first reliability and the second reliability, and the first similarity and the second similarity input from the reliability acquisition unit 205 to perform tertiary processing. Determine the original coordinates.

まず、第一の画像の各画素において第一の類似度と第二の類似度を次のような式によって統合する。   First, in each pixel of the first image, the first similarity and the second similarity are integrated by the following formula.

Figure 2018063161
Figure 2018063161

ただし、pは第一の画像の任意の画素、qは三次元点、C(p,q)は統合後の類似度、A(p,q)は第一の類似度、B(p,q)は第二の類似度、αは第一の信頼度、βは第二の信頼度を表している。そして、このようにして得られる統合類似度C(p,q)が最大となる位置を正しい三次元点qとして決定する。この処理を第一の画像の各画素において行うことで、画素数分の三次元座標(X,Y,Z)を算出し、処理を終了する。   Where p is an arbitrary pixel of the first image, q is a three-dimensional point, C (p, q) is the similarity after integration, A (p, q) is the first similarity, B (p, q ) Represents the second similarity, α represents the first reliability, and β represents the second reliability. Then, the position where the integrated similarity C (p, q) obtained in this way is maximized is determined as the correct three-dimensional point q. By performing this process on each pixel of the first image, three-dimensional coordinates (X, Y, Z) corresponding to the number of pixels are calculated, and the process ends.

上記に述べた構成で、アクティブ方式とパッシブ方式それぞれから求められる類似度と類似度から求められる信頼度に基づいて、三次元点を決定することで、より安定、高精度に対象物体のテクスチャによらず三次元座標を算出することができる。   With the configuration described above, the three-dimensional point is determined based on the similarity obtained from each of the active method and the passive method, and the reliability obtained from the similarity, so that the texture of the target object can be more stably and accurately obtained. Regardless, the three-dimensional coordinates can be calculated.

[第2の実施形態の変形例]
ステップS25において、信頼度の算出は類似度のピーク度合い(尖度)に限る必要はない。例えば、アクティブ方式とパッシブ方式それぞれ単体で求められる三次元点の距離で設定してもよい。それぞれから求められる類似度のピーク位置の距離が閾値(例えば1)以内であれば、それぞれ同じ信頼度を設定し、閾値(例えば1)より遠い場合は第3の実施形態で示すように画像から求められる信頼度によって、どちらをより信頼するかを決定すればよい。または、距離が近いほどアクティブ方式の信頼度を低く、および、パッシブ方式の信頼度を高くし、距離が遠いほどアクティブ方式の信頼度を高く、および、パッシブ方式の信頼度を低くしてもよい。
[Modification of Second Embodiment]
In step S25, the calculation of the reliability need not be limited to the peak degree (kurtosis) of the similarity. For example, you may set by the distance of the three-dimensional point calculated | required by each of an active system and a passive system independently. If the distance between the peak positions of the similarity obtained from each is within a threshold value (for example, 1), the same reliability is set. If the distance is far from the threshold value (for example, 1), the distance from the image as shown in the third embodiment It is only necessary to determine which one is more reliable depending on the required reliability. Alternatively, the closer the distance, the lower the reliability of the active method and the higher the reliability of the passive method, and the higher the distance, the higher the reliability of the active method and the lower the reliability of the passive method. .

(第3の実施形態)
第3の実施形態において説明する情報処理装置は、第2の実施形態と同様に、アクティブ方式とパッシブ方式の三次元計測手法を併用して対象物体の三次元形状を取得する三次元計測装置である。ただし、第2の実施形態の信頼度取得部では、類似度に基づいて信頼度を算出したが、第3の実施形態の信頼度取得部は、撮像画像に基づいて信頼度を算出する点が異なっている。撮像画像に基づいて信頼度が決められるため、類似度を全探索範囲で算出する必要がなく、対象物体のテクスチャによらず安定、高精度な三次元座標をより高速に算出することができる。
(Third embodiment)
As in the second embodiment, the information processing apparatus described in the third embodiment is a three-dimensional measurement apparatus that acquires a three-dimensional shape of a target object using a combination of active and passive three-dimensional measurement techniques. is there. However, although the reliability acquisition unit of the second embodiment calculates the reliability based on the similarity, the reliability acquisition unit of the third embodiment calculates the reliability based on the captured image. Is different. Since the reliability is determined based on the captured image, it is not necessary to calculate the similarity in the entire search range, and stable and highly accurate three-dimensional coordinates can be calculated at higher speed regardless of the texture of the target object.

[装置の構成]
図8のブロック図を参照して、第3の実施形態の情報処理装置3100を備える三次元計測装置3000の装置例を示す。なお、第2の実施形態と略同様である装置については同符号を付して説明を省略する。
[Device configuration]
With reference to the block diagram of FIG. 8, an example of a three-dimensional measurement apparatus 3000 including the information processing apparatus 3100 of the third embodiment is shown. In addition, about the apparatus substantially the same as 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

情報処理装置3100は、投影パターン情報保持部301、画像取得部302、第一類似度取得部303、第二類似度取得部304、信頼度取得部305、及び三次元座標決定部306を備える。なお、投影パターン情報保持部301は第2の実施形態と略同様であるため、説明を省略する。   The information processing apparatus 3100 includes a projection pattern information holding unit 301, an image acquisition unit 302, a first similarity acquisition unit 303, a second similarity acquisition unit 304, a reliability acquisition unit 305, and a three-dimensional coordinate determination unit 306. Note that the projection pattern information holding unit 301 is substantially the same as in the second embodiment, and a description thereof is omitted.

画像取得部302は、第2の実施形態と同様に、近赤外撮像装置2、可視光撮像装置3、および、可視光撮像装置4を制御して撮像させ、各々の撮像画像を取得する。そして、近赤外撮像装置2によって撮像された画像(第一の画像:アクティブ方式用の画像)を第一類似度取得部303と信頼度取得部305とに出力する。また、可視光撮像装置3、および、可視光撮像装置4によって撮像された画像(第二の画像:パッシブ方式用の画像)を第二類似度取得部304と信頼度取得部305とに出力する。   As in the second embodiment, the image acquisition unit 302 controls the near-infrared imaging device 2, the visible light imaging device 3, and the visible light imaging device 4 to capture images, and acquires each captured image. Then, the image captured by the near-infrared imaging device 2 (first image: image for the active method) is output to the first similarity acquisition unit 303 and the reliability acquisition unit 305. In addition, the image captured by the visible light imaging device 3 and the visible light imaging device 4 (second image: an image for a passive method) is output to the second similarity acquisition unit 304 and the reliability acquisition unit 305. .

第一類似度取得部303は、第一の画像とランダムドットパターン画像との間の局所領域における輝度分布がどれだけ似ているかを表す第一の類似度を算出して取得する。算出された第一の類似度を三次元座標決定部306に出力する。   The first similarity acquisition unit 303 calculates and acquires a first similarity indicating how similar the luminance distribution in the local region between the first image and the random dot pattern image is. The calculated first similarity is output to the three-dimensional coordinate determination unit 306.

第二類似度取得部304は、二枚の第二の画像間の局所領域における輝度分布がどれだけ似ているかを示す第二の類似度を算出して取得する。算出された第二の類似度を三次元座標決定部306に出力する。   The second similarity acquisition unit 304 calculates and acquires a second similarity indicating how similar the luminance distribution in the local region between the two second images is. The calculated second similarity is output to the three-dimensional coordinate determination unit 306.

信頼度取得部305は、第一の画像と第二の画像から算出されるそれぞれの類似度がどれほど信頼できるかを表す第一の信頼度と第二の信頼度を算出すして取得する。算出された第一の信頼度と第二の信頼度を三次元座標決定部306に出力する。   The reliability acquisition unit 305 calculates and acquires the first reliability and the second reliability that indicate how reliable the similarity calculated from the first image and the second image is. The calculated first reliability and second reliability are output to the three-dimensional coordinate determination unit 306.

三次元座標決定部306は、第一の信頼度と第二の信頼度、および、第一の類似度と第二の類似度を統合することで、アクティブ方式とパッシブ方式の両者を考慮した類似度を求め、尤もらしい三次元座標を探索し、決定する。   The three-dimensional coordinate determination unit 306 integrates the first reliability and the second reliability, and the first similarity and the second similarity, so that both the active method and the passive method are considered. Find the degree and search for and determine plausible 3D coordinates.

[計測処理]
続いて、図9のフローチャートを参照して、第3の実施形態の情報処理装置3100による計測処理を説明する。なお、ステップS31、および、ステップS32は第2の実施形態の対応する各ステップと略同様であるため、説明を省略する。
[Measurement processing]
Subsequently, a measurement process performed by the information processing apparatus 3100 according to the third embodiment will be described with reference to a flowchart of FIG. Note that step S31 and step S32 are substantially the same as the corresponding steps of the second embodiment, and a description thereof will be omitted.

(ステップS33)
ステップS33では、信頼度取得部305が、画像取得部302から入力された第一の画像と第二の画像とから取得されるそれぞれの類似度の信頼度を算出する。信頼度は、注目画素とその近傍領域の画素(例えば、注目画素の周囲8画素)における空間周波数の高さによって定義する。注目画素とその近傍領域の画素をフーリエ変換し、ある一定以上の振幅を持つ空間周波数が高いほど信頼度を高く設定する。アクティブ方式では、投影パターンが、ボケやブレが少なく、はっきりと写っていれば正確な三次元座標を算出でき、パッシブ方式では、勾配特徴があれば正確な三次元座標を算出できる。そのため、両者とも高い空間周波数を含むテクスチャの場合は、信頼できる類似度が算出されると判定できる。
(Step S33)
In step S <b> 33, the reliability acquisition unit 305 calculates the reliability of each similarity acquired from the first image and the second image input from the image acquisition unit 302. The reliability is defined by the height of the spatial frequency in the pixel of interest and the pixels in the vicinity region (for example, 8 pixels around the pixel of interest). The pixel of interest and its neighboring region are Fourier transformed, and the higher the spatial frequency having a certain amplitude or higher, the higher the reliability is set. In the active method, accurate three-dimensional coordinates can be calculated if the projected pattern is clearly blurred and blurred, and in the passive method, accurate three-dimensional coordinates can be calculated if there is a gradient feature. Therefore, it can be determined that a reliable similarity is calculated in the case of both textures including a high spatial frequency.

このような処理を第一の画像、および、第二の画像の各画素に関して行うことで、第一の画像の各画素において第一の信頼度、および、第二の画像の各画素において第二の信頼度が求められる。求められた第一の信頼度と第二の信頼度を三次元座標決定部306に出力する。   By performing such processing with respect to each pixel of the first image and the second image, the first reliability in each pixel of the first image and the second in each pixel of the second image. Reliability is required. The obtained first reliability and second reliability are output to the three-dimensional coordinate determination unit 306.

(ステップS34)
ステップS34では、三次元座標決定部306が、第一の画像の各画素において適当な三次元座標を初期値として与える。以下、図3を用いて三次元座標の初期値を与える処理を説明する。各符号の説明は第1の実施形態と同様であるため、説明を省略する。
(Step S34)
In step S34, the three-dimensional coordinate determination unit 306 gives an appropriate three-dimensional coordinate as an initial value for each pixel of the first image. Hereinafter, the process of giving the initial value of the three-dimensional coordinates will be described with reference to FIG. Since the description of each symbol is the same as in the first embodiment, the description is omitted.

具体的には、第一の画像の各画素において、校正データから求められるe1方向に沿ってランダムに三次元点を一つ設定する。設定されたランダムの三次元点を第一類似度取得部303と第二類似度取得部304に出力する。   Specifically, at each pixel of the first image, one three-dimensional point is randomly set along the e1 direction obtained from the calibration data. The set random three-dimensional points are output to the first similarity acquisition unit 303 and the second similarity acquisition unit 304.

(ステップS35)
ステップS35では、第一類似度取得部303が、三次元座標決定部306から入力された三次元座標を、画像取得部302から入力された第一の画像とランダムドットパターン画像とに投影し、投影された画素における局所領域同士の類似度を求める。以下、図3を用いて類似度を求める処理を説明する。各符号の説明は第1の実施形態と同様であるため、説明を省略する。
(Step S35)
In step S35, the first similarity acquisition unit 303 projects the three-dimensional coordinates input from the three-dimensional coordinate determination unit 306 onto the first image and the random dot pattern image input from the image acquisition unit 302, The similarity between local areas in the projected pixel is obtained. Hereinafter, the process for obtaining the similarity will be described with reference to FIG. Since the description of each symbol is the same as in the first embodiment, the description is omitted.

まず、類似度を算出するために必要なランダムドットパターン画像を投影パターン情報保持部301から読み込む。次に、校正データに基づいてランダムに設定された三次元座標を投影し、注目画素p1とp2を算出する。最後に、第1の実施形態と同様に、SADの逆数を求める。   First, a random dot pattern image necessary for calculating the similarity is read from the projection pattern information holding unit 301. Next, three-dimensional coordinates randomly set based on the calibration data are projected, and the target pixels p1 and p2 are calculated. Finally, as in the first embodiment, the reciprocal of SAD is obtained.

このような処理をすべての三次元座標において行うことで、各三次元点に対して第一の類似度と注目画素p1が求められる。求められた第一の類似度と注目画素p1を三次元座標決定部306に出力する。   By performing such processing for all three-dimensional coordinates, the first similarity and the target pixel p1 are obtained for each three-dimensional point. The obtained first similarity and the target pixel p1 are output to the three-dimensional coordinate determination unit 306.

(ステップS36)
ステップS36では、第二類似度取得部304が、三次元座標決定部306から入力された三次元座標を、画像取得部302から入力された二枚の第二の画像に投影し、投影された画素における局所領域同士の類似度を求める。以下、図4を用いて類似度を求める処理を説明する。各符号の説明は第1の実施形態と同様であるため、説明を省略する。
(Step S36)
In step S 36, the second similarity acquisition unit 304 projects the three-dimensional coordinates input from the three-dimensional coordinate determination unit 306 onto the two second images input from the image acquisition unit 302. The similarity between local areas in a pixel is obtained. Hereinafter, the process for obtaining the similarity will be described with reference to FIG. Since the description of each symbol is the same as in the first embodiment, the description is omitted.

まず、校正データに基づいてランダムに設定された三次元座標を投影し、注目画素p3とp4を算出する。そして、第1の実施形態と同様に、SADの逆数を求める。   First, the three-dimensional coordinates set at random based on the calibration data are projected, and the target pixels p3 and p4 are calculated. Then, as in the first embodiment, the reciprocal of SAD is obtained.

このような処理をすべての三次元座標において行うことで、各三次元点に対して第二の類似度と注目画素p3が求められる。求められた第二の類似度と注目画素p3を三次元座標決定部306に出力する。   By performing such processing in all three-dimensional coordinates, the second similarity and the target pixel p3 are obtained for each three-dimensional point. The obtained second similarity and the target pixel p3 are output to the three-dimensional coordinate determination unit 306.

(ステップS37)
ステップS37では、三次元座標決定部306が、第一類似度取得部303から入力された第一の類似度と注目画素p1、第二類似度取得部304から入力された第二の類似度と注目画素p3、および、信頼度取得部305から入力された第一の信頼度と第二の信頼度を用いて三次元座標を評価し、三次元座標を更新、または、決定する。
(Step S37)
In step S <b> 37, the three-dimensional coordinate determination unit 306 includes the first similarity input from the first similarity acquisition unit 303, the target pixel p <b> 1, and the second similarity input from the second similarity acquisition unit 304. The three-dimensional coordinate is evaluated using the target pixel p3 and the first reliability and the second reliability input from the reliability acquisition unit 305, and the three-dimensional coordinate is updated or determined.

まず、各三次元座標において、注目画素p1、および、注目画素p3から、注目画素p1における第一の信頼度、および、注目画素p3における第二の信頼度を求める。次に、各三次元座標における第一の類似度と第二の類似度を、第2の実施形態と同様に、式2に基づいて統合する。そして、統合類似度C(p,q)を評価値とし、山登り法によって三次元座標を更新、または、決定する。現在の統合類似度と現在の三次元座標の近傍における統合類似度を比較評価し、より類似度が高い三次元座標に更新していく。三次元座標の更新と統合類似度の評価を類似度の変化が無くなるまで繰り返すことで、統合類似度が最大(または極大)となる三次元座標を求めることができる。統合類似度の変化が無くなった場合は、探索を終了して三次元座標を決定し、統合類似度の変化がある場合は三次元座標を更新し、更新した三次元座標を第一類似度取得部303、および、第二類似度取得部304に出力する。   First, in each three-dimensional coordinate, the first reliability in the target pixel p1 and the second reliability in the target pixel p3 are obtained from the target pixel p1 and the target pixel p3. Next, the first similarity and the second similarity in each three-dimensional coordinate are integrated based on Expression 2 as in the second embodiment. Then, using the integrated similarity C (p, q) as an evaluation value, the three-dimensional coordinates are updated or determined by the hill-climbing method. The current integrated similarity and the integrated similarity in the vicinity of the current three-dimensional coordinate are compared and evaluated, and updated to a three-dimensional coordinate having a higher similarity. By repeating the update of the three-dimensional coordinates and the evaluation of the integrated similarity until there is no change in the similarity, it is possible to obtain a three-dimensional coordinate with the maximum (or maximum) integrated similarity. When there is no change in the integrated similarity, the search is finished and the three-dimensional coordinates are determined. When there is a change in the integrated similarity, the three-dimensional coordinates are updated, and the updated three-dimensional coordinates are obtained as the first similarity. To the unit 303 and the second similarity acquisition unit 304.

このような処理を各三次元座標において行うことで、第一の画像の各画素に対して、画素数分の三次元座標(X,Y,Z)を算出し、処理を終了する。   By performing such processing for each three-dimensional coordinate, three-dimensional coordinates (X, Y, Z) corresponding to the number of pixels are calculated for each pixel of the first image, and the processing ends.

上記に述べた構成で、アクティブ方式とパッシブ方式それぞれから求められる類似度と各画像から求められる信頼度に基づいて、三次元点を決定することで、より高速に対象物体のテクスチャによらず全周形状を安定、高精度に算出することができる。   With the configuration described above, the three-dimensional points are determined based on the similarity obtained from the active method and the passive method and the reliability obtained from each image, so that all the images can be processed at high speed regardless of the texture of the target object. The peripheral shape can be calculated stably and with high accuracy.

[第3の実施形態の変形例]
ステップS34において、信頼度の算出は空間周波数に限る必要はない。例えば、アクティブ方式では、投影パターンが高輝度に写っていれば正しい三次元座標を求めることができるため、第一の画像において輝度値が高い画素ほど信頼度を高く、低い画素ほど信頼度を低く設定してもよい。一方、パッシブ方式では、勾配特徴があれば正しい三次元座標を求めることができるため、第二の画像において勾配強度が強い画素の信頼度を高く、弱い画素の信頼度を低く設定してもよい。
[Modification of Third Embodiment]
In step S34, the calculation of the reliability need not be limited to the spatial frequency. For example, in the active method, a correct three-dimensional coordinate can be obtained if the projection pattern is captured with high luminance. Therefore, in the first image, the higher the luminance value, the higher the reliability, and the lower the pixel, the lower the reliability. It may be set. On the other hand, in the passive method, since correct three-dimensional coordinates can be obtained if there is a gradient feature, the reliability of pixels with a strong gradient strength in the second image may be set high, and the reliability of weak pixels may be set low. .

(各実施形態共通の変形例)
[変形例1]
第1の実施形態、第2の実施形態、および、第3の実施形態において、アクティブ方式とパッシブ方式で用いる光の波長は、近赤外光と可視光にそれぞれ分けたが、これに限る必要はない。アクティブ方式が可視光を、パッシブ方式が近赤外光を用いてもよいし、近赤外光や可視光以外の波長の光を用いてもよい。さらに、光の波長を分けるのではなく、パターンを投影した状態と投影していない状態とを時間を分けて撮像してもよい。
(Modification common to each embodiment)
[Modification 1]
In the first embodiment, the second embodiment, and the third embodiment, the wavelengths of light used in the active method and the passive method are divided into near-infrared light and visible light, respectively, but this is necessary. There is no. Visible light may be used for the active method, and near infrared light may be used for the passive method, or light having a wavelength other than near infrared light or visible light may be used. Furthermore, instead of dividing the wavelength of the light, it may be possible to take an image of the state in which the pattern is projected and the state in which the pattern is not projected separately.

また、アクティブ方式とパッシブ方式で用いる撮像装置は共有してもよい。つまり、投影装置を1台、撮像装置を2台にしてもよい。この際、パターンを投影した状態と投影していない状態とを時間を分けて撮像してもよいし、パターンを投影した状態のみを撮像してもよい。どちらの場合でも第1の実施形態、第2の実施形態、および、第3の実施形態と同様に類似度を算出すれば、同様の効果が得られる。このようにすることで、必要な機器を減らせるため、機器のコストを抑えることができる。   Further, the imaging devices used in the active method and the passive method may be shared. That is, one projection device and two imaging devices may be used. At this time, the state in which the pattern is projected and the state in which the pattern is not projected may be imaged separately, or only the state in which the pattern is projected may be imaged. In either case, the same effect can be obtained if the similarity is calculated in the same manner as in the first embodiment, the second embodiment, and the third embodiment. By doing in this way, since a required apparatus can be reduced, the cost of an apparatus can be held down.

[変形例2]
ステップS11、ステップS21、および、ステップS31において、投影するパターン、および、投影パターン情報保持部が保持するパターン画像はランダムドットパターンとしたが、これに限る必要はない。パターン画像中のある局所領域と類似するパターンが探索方向(エピポーラ方向)の他領域に見つからないようなパターンであればよい。例えば、エピポーラ線が画像の横方向に合わせてある場合(レクティフィケーションされている場合)は、横方向にのみランダム性があるドットパターンにしてもよいし、ドットではなく、線分や丸などがランダムに並んでいるようなパターンでもよい。さらに、パターン画像は二値に限る必要はなく、階調や色調を持たせたパターンでもよい。
[Modification 2]
In step S11, step S21, and step S31, the pattern image to be projected and the pattern image held by the projection pattern information holding unit are random dot patterns. However, the present invention is not limited to this. Any pattern may be used as long as a pattern similar to a certain local area in the pattern image is not found in another area in the search direction (epipolar direction). For example, when epipolar lines are aligned with the horizontal direction of the image (when rectified), a dot pattern with randomness only in the horizontal direction may be used, or instead of dots, line segments, circles, etc. It is also possible to have a pattern in which are arranged randomly. Further, the pattern image need not be limited to binary, and may be a pattern having gradation and color tone.

また、パターン画像として保持している必要はない。例えば、ランダムドットのドットが存在する画素位置だけを保持してもよいし、ドットをランダムに打つ確率をパラメタとして持っておき、その確率に従ってランダムドットパターン画像を生成してもよい。   Moreover, it is not necessary to hold | maintain as a pattern image. For example, only the pixel position where the dot of the random dot exists may be held, or a random dot pattern image may be generated according to the probability of randomly hitting a dot as a parameter.

[変形例3]
ステップS12、ステップS22、および、ステップS32において、画像は計測処理の途中で対象物体を撮像することで取得したが、これに限る必要はない。事前に撮像した画像をメモリから読み込むようにしてもよいし、ネットワーク上のサーバからダウンロードしてきてもよい。
[Modification 3]
In step S12, step S22, and step S32, the image is acquired by capturing the target object in the middle of the measurement process. However, the present invention is not limited to this. An image captured in advance may be read from the memory, or may be downloaded from a server on the network.

[変形例4]
ステップS13、ステップS14、ステップS23、ステップS24、および、ステップS34において、アクティブ方式の撮像装置を基準視点としたが、これに限る必要はない。他の投影装置や撮像装置を基準視点としてもよいし、仮想的に設定した視点を基準視点としてもよい。また、基準視点を設定せず、ボクセルベースで三次元形状を表現してもよい。
[Modification 4]
In step S13, step S14, step S23, step S24, and step S34, the active imaging device is used as the reference viewpoint. However, the present invention is not limited to this. Another projection device or imaging device may be used as the reference viewpoint, or a virtually set viewpoint may be used as the reference viewpoint. Further, a three-dimensional shape may be expressed on a voxel basis without setting a reference viewpoint.

[変形例5]
ステップS13、ステップS14、ステップS23、ステップS24、および、ステップS34において、類似度を算出する注目画素とその近傍領域の画素(局所領域)を決めるために、三次元点を各画像に投影し注目画素を決定したが、これに限る必要はない。例えば、事前にステレオ画像のレクティフィケーションがしてある場合は、三次元点ではなく視差で注目画素を表してもよいし、三次元点ではなく三次元平面や三次元曲面を各画像に投影することで局所領域を決定してもよい。
[Modification 5]
In step S13, step S14, step S23, step S24, and step S34, a three-dimensional point is projected on each image to determine a target pixel for calculating the similarity and a pixel in the vicinity region (local region). Although the pixel is determined, it is not necessary to be limited to this. For example, if the stereo image has been rectified in advance, the pixel of interest may be represented by a parallax instead of a 3D point, or a 3D plane or a 3D curved surface instead of a 3D point may be projected on each image. By doing so, the local region may be determined.

[変形例6]
ステップS13、ステップS14、ステップS23、ステップS24、ステップS35、および、ステップS36において、SADを類似度としたが、これに限る必要はない。SSD(Sum of Squared Difference)、NCC(Normalizes Cross-Correlation)、ZNCC(Zero-mean Normalized Cross-Correlation)など類似度を表せる指標であればどのようなものを用いてもよい。さらに、これらの指標に対して、指数や対数をとることでスケーリングした値でもよい。
[Modification 6]
In step S13, step S14, step S23, step S24, step S35, and step S36, SAD is set as the similarity, but it is not necessary to be limited to this. Any index can be used as long as it can express the similarity, such as SSD (Sum of Squared Difference), NCC (Normalizes Cross-Correlation), and ZNCC (Zero-mean Normalized Cross-Correlation). Furthermore, a value that is scaled by taking an index or logarithm for these indices may be used.

また、類似度算出の際の近傍領域の画素は、注目画素の周囲8画素に限定する必要はなく、周囲何画素用いてもよい。周囲0画素でもよいし、周囲24画素でもよい。   In addition, the pixels in the vicinity region for calculating the similarity need not be limited to the eight pixels around the target pixel, and any number of the surrounding pixels may be used. There may be 0 surrounding pixels or 24 surrounding pixels.

[変形例7]
ステップS15、ステップS26、および、ステップS37において、統合類似度の算出方法は式1、式2に限る必要はない。
[Modification 7]
In step S15, step S26, and step S37, the calculation method of the integrated similarity need not be limited to Expression 1 and Expression 2.

Figure 2018063161
Figure 2018063161

Figure 2018063161
Figure 2018063161

上記の式(3)のように類似度の乗算で表わしてもよいし、式(4)のように対数和で表わしてもよい。   It may be represented by multiplication of similarity as in the above equation (3), or may be represented by logarithmic sum as in equation (4).

[変形例8]
ステップS15、ステップS26、および、ステップS37において、三次元座標の決定手法は全探索や山登り法に限る必要はない。Graph Cut、Belief Propagation、焼きなまし法、PatchMatchなどのアルゴリズムを用いて決定してもよい。
[Modification 8]
In step S15, step S26, and step S37, the three-dimensional coordinate determination method is not limited to the full search or the hill-climbing method. You may determine using algorithms, such as Graph Cut, Belief Propagation, annealing method, PatchMatch.

<実施形態の効果>
第1の実施形態によれば、アクティブ方式とパッシブ方式それぞれから求められる類似度を統合した類似度に基づいて、三次元点を決定することで、対象物体のテクスチャによらず三次元座標を安定、高精度に算出することができる。
<Effect of embodiment>
According to the first embodiment, the three-dimensional point is determined based on the similarity obtained by integrating the similarities obtained from the active method and the passive method, so that the three-dimensional coordinates can be stabilized regardless of the texture of the target object. Can be calculated with high accuracy.

第2の実施形態によれば、アクティブ方式とパッシブ方式それぞれから求められる類似度と類似度から求められる信頼度に基づいて、三次元点を決定することで、より安定、高精度に対象物体のテクスチャによらず三次元座標を算出することができる。   According to the second embodiment, by determining the three-dimensional point based on the similarity obtained from the active method and the passive method and the reliability obtained from the similarity, the target object can be more stably and accurately obtained. Three-dimensional coordinates can be calculated regardless of the texture.

第3の実施形態によれば、アクティブ方式とパッシブ方式それぞれから求められる類似度と各画像から求められる信頼度に基づいて、三次元点を決定することで、より高速に対象物体のテクスチャによらず全周形状を安定、高精度に算出することができる。   According to the third embodiment, the three-dimensional point is determined based on the similarity obtained from each of the active method and the passive method and the reliability obtained from each image. Therefore, the entire peripheral shape can be calculated stably and with high accuracy.

<定義>
本発明における投影パターン情報保持部が保持するパターン画像は、変形例2で説明したように、パターン画像中のある局所領域と類似するパターンが探索方向の他領域に見つからないようなパターンであれば、どのようなパターンでもよい。例えば、探索方向が画像の横方向であれば、横方向にのみランダムにドットが並んでいるようなパターンでもよいし、ドットではなく線分や丸などの単純な幾何形状が並んでいるパターンでもよい。さらに、パターン画像は二値に限る必要はなく、階調や色調を持たせたパターンでもよい。また、パターン画像として保持している必要はない。例えば、ランダムドットのドットが存在する画素位置だけを保持してもよいし、ドットをランダムに打つ確率をパラメタとして持っておき、その確率に従ってランダムドットパターン画像を生成してもよい。
<Definition>
The pattern image held by the projection pattern information holding unit in the present invention is a pattern in which a pattern similar to a certain local area in the pattern image cannot be found in another area in the search direction, as described in Modification 2. Any pattern is acceptable. For example, if the search direction is the horizontal direction of the image, a pattern in which dots are randomly arranged only in the horizontal direction may be used, or a pattern in which simple geometric shapes such as line segments and circles are arranged instead of dots. Good. Further, the pattern image need not be limited to binary, and may be a pattern having gradation and color tone. Moreover, it is not necessary to hold | maintain as a pattern image. For example, only the pixel position where the dot of the random dot exists may be held, or a random dot pattern image may be generated according to the probability of randomly hitting a dot as a parameter.

また、本発明における画像取得部は、変形例3で説明したように、アクティブ方式用の画像である第一の画像とパッシブ方式用の画像である第二の画像が取得できるのであれば、どのような方法を用いてもよい。例えば、三次元計測をする度に撮像してもよいし、事前に撮像した画像をメモリから読み出してもよい。   In addition, as described in the third modification, the image acquisition unit according to the present invention can acquire the first image that is an image for an active method and the second image that is an image for a passive method. Such a method may be used. For example, an image may be captured every time three-dimensional measurement is performed, or an image captured in advance may be read from the memory.

また、本発明における第一類似度取得部、および、第二類似度取得部は、変形例6で説明したように、画像の局所領域間の類似性を表す指標であれば、どのような指標を用いてもよい。例えば、SADでもよいし、SSD、NCC、ZNCCなどでもよい。   In addition, as described in the sixth modification, the first similarity acquisition unit and the second similarity acquisition unit according to the present invention are any indexes as long as they are indexes representing the similarity between local regions of an image. May be used. For example, it may be SAD, SSD, NCC, ZNCC, or the like.

また、本発明における信頼度取得部は、第2の実施形態、および、第3の実施形態で説明したように、類似度の信頼性を表す値であれば、どのような値を用いてもよい。例えば、各類似度のピーク度合い(尖度)が高いほど高くしてもよいし、各方式それぞれから求められる三次元座標の距離によって決定してもよい。また、各画像の局所領域における空間周波数が高いほど高くしてもよいし、輝度値や勾配強度の高さによって決定してもよい。   In addition, as described in the second embodiment and the third embodiment, the reliability acquisition unit according to the present invention may use any value as long as the value represents the reliability of similarity. Good. For example, the higher the peak degree (kurtosis) of each degree of similarity, the higher it may be, or it may be determined by the distance of three-dimensional coordinates obtained from each method. Also, the higher the spatial frequency in the local region of each image, the higher it may be, or it may be determined by the brightness value or the height of the gradient strength.

また、本発明における三次元座標決定部は、変形例6で説明したように、第一の類似度と第二の類似度の両者を考慮した統合類似度が表せるのであれば、どのような類似度の統合方法をとってもよい。例えば、重み付き線形和でもよいし、乗算、重み付き対数和でもよい。さらに、変形例7で説明したように、類似度が最大(または極大)をとる三次元座標を探索できるアルゴリズムであれば、どのようなアルゴリズムを用いてもよい。例えば、全探索でもよいし、山登り法、Graph Cut、Belief Propagation、焼きなまし法、PatchMatchなどでもよい。   In addition, as described in the sixth modification, the three-dimensional coordinate determination unit according to the present invention can express any similarity as long as the integrated similarity considering both the first similarity and the second similarity can be expressed. You may take the degree integration method. For example, it may be a weighted linear sum, a multiplication, or a weighted logarithmic sum. Furthermore, as described in the modified example 7, any algorithm may be used as long as it can search for a three-dimensional coordinate having the maximum similarity (or maximum). For example, full search may be used, hill climbing method, Graph Cut, Belief Propagation, annealing method, PatchMatch, etc.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1000:三次元計測装置、1:近赤外投影装置、2:近赤外撮像装置、3:可視光撮像装置、4:可視光撮像装置、1100:情報処理装置、101:投影パターン情報保持部、102:画像取得部、103:第一類似度取得部、104:第二類似度取得部、105:三次元座標決定部   1000: three-dimensional measuring device, 1: near infrared projection device, 2: near infrared imaging device, 3: visible light imaging device, 4: visible light imaging device, 1100: information processing device, 101: projection pattern information holding unit , 102: image acquisition unit, 103: first similarity acquisition unit, 104: second similarity acquisition unit, 105: three-dimensional coordinate determination unit

Claims (17)

パターン画像が投影された対象物体を撮像して得られた第一の画像と、複数視点から前記対象物体を撮像して得られた複数の第二の画像とを取得する画像取得手段と、
前記第一の画像の局所領域と前記パターン画像の局所領域との比較に基づいて第一の類似度を取得する第一類似度取得手段と、
前記複数の第二の画像のそれぞれにおける局所領域同士の比較に基づいて第二の類似度を取得する第二類似度取得手段と、
前記第一の類似度と前記第二の類似度とに基づいて前記対象物体の表面の三次元座標を決定する決定手段と、
を備えることを特徴とする情報処理装置。
Image acquisition means for acquiring a first image obtained by imaging a target object on which a pattern image is projected, and a plurality of second images obtained by imaging the target object from a plurality of viewpoints;
First similarity acquisition means for acquiring a first similarity based on a comparison between the local region of the first image and the local region of the pattern image;
Second similarity acquisition means for acquiring a second similarity based on a comparison between local regions in each of the plurality of second images;
Determining means for determining a three-dimensional coordinate of the surface of the target object based on the first similarity and the second similarity;
An information processing apparatus comprising:
前記第一の類似度の信頼度を表す第一の信頼度と、前記第二の類似度の信頼度を表す第二の信頼度とを取得する信頼度取得手段を更に備え、
前記決定手段は、前記第一の類似度と前記第二の類似度とのうち、対応する信頼度がより高い類似度に基づいて前記対象物体の表面の三次元座標を決定することを特徴とする請求項1に記載の情報処理装置。
A reliability obtaining unit for obtaining a first reliability representing the reliability of the first similarity and a second reliability representing the reliability of the second similarity;
The determining means determines a three-dimensional coordinate of the surface of the target object based on a similarity having a higher corresponding degree of reliability among the first similarity and the second similarity. The information processing apparatus according to claim 1.
前記決定手段は、前記第一の信頼度と前記第二の信頼度とのそれぞれに基づいて重み付けした前記第一の類似度と前記第二の類似度との和から得られる類似度が最大となる三次元座標を、前記対象物体の表面の三次元座標として決定することを特徴とする請求項2に記載の情報処理装置。   The determining means has a maximum similarity obtained from a sum of the first similarity and the second similarity weighted based on the first reliability and the second reliability, respectively. The information processing apparatus according to claim 2, wherein the three-dimensional coordinate is determined as a three-dimensional coordinate of the surface of the target object. 前記信頼度取得手段は、前記第一の類似度の最大値の尖度が高いほど前記第一の信頼度を高く算出し、前記第二の類似度の最大値の尖度が高いほど前記第二の信頼度を高く算出することを特徴とする請求項2又は3に記載の情報処理装置。   The reliability acquisition means calculates the first reliability higher as the kurtosis of the maximum value of the first similarity is higher, and increases the kurtosis of the maximum value of the second similarity. The information processing apparatus according to claim 2, wherein the second reliability is calculated to be high. 前記信頼度取得手段は、前記第一の類似度が最大となる三次元座標と前記第二の類似度が最大となる三次元座標との距離が閾値より小さい場合に、前記第一の信頼度及び前記第二の信頼度を同じ値として算出することを特徴とする請求項2乃至4の何れか1項に記載の情報処理装置。   When the distance between the three-dimensional coordinate at which the first similarity is the maximum and the three-dimensional coordinate at which the second similarity is the maximum is smaller than a threshold, The information processing apparatus according to claim 2, wherein the second reliability is calculated as the same value. 前記信頼度取得手段は、前記第一の類似度が最大となる三次元座標と前記第二の類似度が最大となる三次元座標との距離が小さいほど、前記第一の信頼度を低く算出し、前記第二の信頼度を高く算出することを特徴とする請求項2乃至5の何れか1項に記載の情報処理装置。   The reliability acquisition means calculates the first reliability lower as the distance between the three-dimensional coordinate at which the first similarity is maximum and the three-dimensional coordinate at which the second similarity is maximum is smaller. The information processing apparatus according to claim 2, wherein the second reliability is calculated to be high. 前記信頼度取得手段は、前記第一の画像の前記局所領域における空間周波数が高いほど前記第一の信頼度を高く算出し、前記第二の画像の前記局所領域における空間周波数が高いほど前記第二の信頼度を高く算出することを特徴とする請求項2乃至6の何れか1項に記載の情報処理装置。   The reliability acquisition means calculates the first reliability higher as the spatial frequency in the local region of the first image is higher, and increases the spatial frequency in the local region of the second image as the first. The information processing apparatus according to claim 2, wherein the second reliability is calculated to be high. 前記信頼度取得手段は、前記第一の画像の前記局所領域における輝度値が高いほど前記第一の信頼度を高く算出することを特徴とする請求項2乃至7の何れか1項に記載の情報処理装置。   8. The method according to claim 2, wherein the reliability acquisition unit calculates the first reliability higher as a luminance value in the local region of the first image is higher. Information processing device. 前記信頼度取得手段は、前記第二の画像の前記局所領域における勾配強度が強いほど前記第二の信頼度を高く算出することを特徴とする請求項2乃至8の何れか1項に記載の情報処理装置。   The said reliability acquisition means calculates said 2nd reliability so that the gradient intensity | strength in the said local area | region of said 2nd image is strong, The any one of Claim 2 thru | or 8 characterized by the above-mentioned. Information processing device. 前記第二の画像は、前記パターン画像が投影されていない前記対象物体を撮像して得られた画像であることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the second image is an image obtained by capturing the target object on which the pattern image is not projected. 前記局所領域は、前記パターン画像、前記第一の画像、および、前記第二の画像に任意の三次元座標を投影することで求められる各画素の近傍領域であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。   2. The local region is a neighborhood region of each pixel obtained by projecting arbitrary three-dimensional coordinates on the pattern image, the first image, and the second image. The information processing apparatus according to any one of 1 to 10. 前記第一の画像を撮像するために用いられる投影装置及び第一の撮像装置と、
前記複数の第二の画像を撮像するために用いられる複数の第二の撮像装置と、
をさらに備えることを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
A projection device and a first imaging device used to capture the first image;
A plurality of second imaging devices used to capture the plurality of second images;
The information processing apparatus according to claim 1, further comprising:
前記投影装置と前記第一の撮像装置との間の基線長と、前記複数の第二の撮像装置間の基線長とが略一致していることを特徴とする請求項12に記載の情報処理装置。   The information processing according to claim 12, wherein a baseline length between the projection device and the first imaging device and a baseline length between the plurality of second imaging devices are substantially the same. apparatus. 前記第一の撮像装置および前記複数の第二撮像装置の解像度及び焦点距離は略一致していることを特徴とする請求項12又は13に記載の情報処理装置。   The information processing apparatus according to claim 12 or 13, wherein the first imaging apparatus and the plurality of second imaging apparatuses have substantially the same resolution and focal length. 前記パターン画像の情報を保持する投影パターン情報保持手段をさらに備えることを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a projection pattern information holding unit that holds information of the pattern image. 情報処理装置の制御方法であって、
パターン画像が投影された対象物体を撮像して得られた第一の画像と、複数視点から前記対象物体を撮像して得られた複数の第二の画像とを取得する画像取得工程と、
前記第一の画像の局所領域と前記パターン画像の局所領域との比較に基づいて第一の類似度を取得する第一類似度取得工程と、
前記複数の第二の画像のそれぞれにおける局所領域同士の比較に基づいて第二の類似度を取得する第二類似度取得工程と、
前記第一の類似度と前記第二の類似度とに基づいて前記対象物体の表面の三次元座標を決定する決定工程と、
を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus,
An image acquisition step of acquiring a first image obtained by imaging a target object on which a pattern image is projected, and a plurality of second images obtained by imaging the target object from a plurality of viewpoints;
A first similarity acquisition step of acquiring a first similarity based on a comparison between the local region of the first image and the local region of the pattern image;
A second similarity acquisition step of acquiring a second similarity based on a comparison between local regions in each of the plurality of second images;
A determination step of determining a three-dimensional coordinate of the surface of the target object based on the first similarity and the second similarity;
A method for controlling an information processing apparatus, comprising:
コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 15.
JP2016201185A 2016-10-12 2016-10-12 Information processing apparatus, method for controlling information processing apparatus, and program Pending JP2018063161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016201185A JP2018063161A (en) 2016-10-12 2016-10-12 Information processing apparatus, method for controlling information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016201185A JP2018063161A (en) 2016-10-12 2016-10-12 Information processing apparatus, method for controlling information processing apparatus, and program

Publications (1)

Publication Number Publication Date
JP2018063161A true JP2018063161A (en) 2018-04-19

Family

ID=61967747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016201185A Pending JP2018063161A (en) 2016-10-12 2016-10-12 Information processing apparatus, method for controlling information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP2018063161A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101377A (en) * 2018-12-20 2020-07-02 三星電子株式会社Samsung Electronics Co.,Ltd. Three-dimensional information calculation device, three-dimensional measurement device, three-dimensional information calculation method, and three-dimensional information calculation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101377A (en) * 2018-12-20 2020-07-02 三星電子株式会社Samsung Electronics Co.,Ltd. Three-dimensional information calculation device, three-dimensional measurement device, three-dimensional information calculation method, and three-dimensional information calculation program

Similar Documents

Publication Publication Date Title
US11629955B2 (en) Dual-resolution 3D scanner and method of using
JP4986679B2 (en) Non-stationary object three-dimensional image measurement apparatus, three-dimensional image measurement method, and three-dimensional image measurement program
JP4883517B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and three-dimensional measuring program
KR101706093B1 (en) System for extracting 3-dimensional coordinate and method thereof
JP6112769B2 (en) Information processing apparatus and information processing method
KR20130032368A (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
JP5951043B2 (en) Image measuring device
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
JP2017032335A (en) Information processing device, information processing method, and program
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
JPWO2015068470A1 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
US11803982B2 (en) Image processing device and three-dimensional measuring system
JPWO2017199696A1 (en) Image processing apparatus and image processing method
JP6411188B2 (en) Stereo matching device, stereo matching program, and stereo matching method
JP2008275366A (en) Stereoscopic 3-d measurement system
JP2018009927A (en) Image processing device, image processing method and program
JP5656018B2 (en) Sphere detection method
JP6456084B2 (en) Image processing apparatus, image processing method, and program
JP2018063161A (en) Information processing apparatus, method for controlling information processing apparatus, and program
JP2009236696A (en) Three-dimensional image measurement method, measurement system, and measurement program for subject
JP2005084012A (en) Skin shape measuring method and skin shape measuring device
JP2019022147A (en) Light source direction estimation device
JP2014002489A (en) Position estimation device, method, and program
JP2018041169A (en) Information processing device and control method and program thereof
JP6570321B2 (en) Information processing apparatus, information processing method, and program