JP2013181773A - Three-dimensional shape measurement instrument and object identification device - Google Patents

Three-dimensional shape measurement instrument and object identification device Download PDF

Info

Publication number
JP2013181773A
JP2013181773A JP2012044089A JP2012044089A JP2013181773A JP 2013181773 A JP2013181773 A JP 2013181773A JP 2012044089 A JP2012044089 A JP 2012044089A JP 2012044089 A JP2012044089 A JP 2012044089A JP 2013181773 A JP2013181773 A JP 2013181773A
Authority
JP
Japan
Prior art keywords
target object
pattern light
identification
image data
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012044089A
Other languages
Japanese (ja)
Inventor
Masao Yamanaka
正雄 山中
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012044089A priority Critical patent/JP2013181773A/en
Publication of JP2013181773A publication Critical patent/JP2013181773A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy of three-dimensional shape measurement or identification of an object.SOLUTION: A pattern light irradiation part 101 irradiates a measurement target object with predetermined pattern light. An image input part 102 changes a focal distance, and images a plurality of pieces of image data on the measurement target object irradiated with the predetermined pattern light. An association processing part 103 calculates the displacement magnitude of a corresponding local area between the plurality of pieces of image data. A three-dimensional shape measurement instrument 1 measures a three-dimensional shape of the measurement target object on the basis of the displacement magnitude.

Description

本発明は、物体の3次元形状計測又は識別を行う技術に関するものである。   The present invention relates to a technique for measuring or identifying a three-dimensional shape of an object.

従来、単眼カメラから所定の物体の3次元形状計測を行う方法が知られている。例えば、非特許文献1には、単眼カメラの光学素子の焦点距離を変化させてズームイン画像データとズームアウト画像データとを取得し、これらの画像データ中の対応する局所領域の変位量から所定の物体の3次元形状計測を行うアルゴリズムが開示されている。   Conventionally, a method of measuring a three-dimensional shape of a predetermined object from a monocular camera is known. For example, in Non-Patent Document 1, zoom-in image data and zoom-out image data are acquired by changing the focal length of an optical element of a monocular camera, and a predetermined amount is determined from the displacement amount of the corresponding local region in these image data. An algorithm for measuring a three-dimensional shape of an object is disclosed.

Jun Ma and S. I. Olsen, "Depth from zooming," J. Opt. Soc. Am. A 7, 1883-1890 (1990)Jun Ma and S. I. Olsen, "Depth from zooming," J. Opt. Soc. Am. A 7, 1883-1890 (1990)

しかしながら、このような画像データ中の局所領域の変位量を用いた3次元形状計測の場合、複雑な背景下においては、計測対象物体の画像データの局所領域と背景の画像データの局所領域とが類似する場合があり、計測精度が低下するという問題があった。   However, in the case of the three-dimensional shape measurement using the displacement amount of the local region in the image data, the local region of the image data of the measurement target object and the local region of the background image data are under a complicated background. In some cases, the measurement accuracy is lowered.

そこで、本発明の目的は、物体の3次元形状計測又は識別の精度を向上させることにある。   Accordingly, an object of the present invention is to improve the accuracy of measuring or identifying the three-dimensional shape of an object.

本発明の3次元形状計測装置は、計測対象物体に対して所定のパタン光を照射する照射手段と、焦点距離を変化させて、前記所定のパタン光が照射された前記計測対象物体の複数の画像データを撮像する撮像手段と、前記複数の画像データ間で対応する局所領域の変位量を算出する変位量算出手段と、前記変位量算出手段により算出された前記変位量に基づいて、前記計測対象物体の3次元形状を計測する計測手段とを有することを特徴とする。   The three-dimensional shape measurement apparatus according to the present invention includes an irradiation unit that irradiates a measurement target object with predetermined pattern light, and a plurality of the measurement target objects irradiated with the predetermined pattern light by changing a focal length. Based on the displacement amount calculated by the imaging means for capturing image data, the displacement amount calculation means for calculating the displacement amount of the corresponding local region between the plurality of image data, and the displacement amount calculation means, the measurement And measuring means for measuring the three-dimensional shape of the target object.

本発明によれば、物体の3次元形状計測又は識別の精度を向上させることができる。   According to the present invention, the accuracy of measuring or identifying the three-dimensional shape of an object can be improved.

本発明の第1の実施形態に係る3次元形状計測装置のシステム構成を示す図である。It is a figure which shows the system configuration | structure of the three-dimensional shape measuring apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る3次元形状計測装置1の機能構成を示す図である。It is a figure which shows the function structure of the three-dimensional shape measuring apparatus 1 which concerns on the 1st Embodiment of this invention. パタン光のグリッドを示す図である。It is a figure which shows the grid of pattern light. 画像入力部の構成を示す図である。It is a figure which shows the structure of an image input part. 対応付け処理部の構成を示す図である。It is a figure which shows the structure of a matching process part. パタン光が照射されることにより得られる計測対象物体の画像データの復号結果を説明するための図である。It is a figure for demonstrating the decoding result of the image data of the measurement target object obtained by irradiating pattern light. パタン光のグリッドの密度を細かくしていくアプローチを説明するための図である。It is a figure for demonstrating the approach which makes the density of the grid of pattern light fine. パタン光のグリッドの密度を細かくしていくアプローチを説明するための図である。It is a figure for demonstrating the approach which makes the density of the grid of pattern light fine. 本発明の第1の実施形態に係る3次元形状計測装置の処理を示すフローチャートである。It is a flowchart which shows the process of the three-dimensional shape measuring apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る物体識別装置のシステム構成を示す図である。It is a figure which shows the system configuration | structure of the object identification apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る物体識別装置の機能構成を示す図である。It is a figure which shows the function structure of the object identification apparatus which concerns on the 2nd Embodiment of this invention. 変位ベクトル算出部の構成を示す図である。It is a figure which shows the structure of a displacement vector calculation part. 識別対象物体の変位ベクトルを算出する方法を説明するための図である。It is a figure for demonstrating the method to calculate the displacement vector of an identification target object. 本発明の第2の実施形態に係る物体識別装置の処理を示すフローチャートである。It is a flowchart which shows the process of the object identification device which concerns on the 2nd Embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る3次元形状計測装置のシステム構成を示す図である。第1の実施形態に係る3次元形状計測装置1は、計測対象物体の3次元形状を計測するものであり、図1に示すように、プロジェクタ11、単眼カメラ12及び汎用コンピュータ13がLANケーブル等で接続されることによって構成される。   First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a system configuration of a three-dimensional shape measuring apparatus according to the first embodiment of the present invention. A three-dimensional shape measurement apparatus 1 according to the first embodiment measures a three-dimensional shape of a measurement target object. As shown in FIG. 1, a projector 11, a monocular camera 12, and a general-purpose computer 13 are connected to a LAN cable or the like. It is configured by connecting with.

図2は、本実施形態に係る3次元形状計測装置1の機能構成を示す図である。図2に示すように、本実施形態に係る3次元形状計測装置1は、パタン光照射部101、画像入力部102、対応付け処理部103及び距離算出部104を備える。なお、パタン光照射部101は、プロジェクタ11によって実現される機能構成である。画像入力部102は、単眼カメラ12によって実現される機能構成である。対応付け処理部103及び距離算出部104は、汎用コンピュータ13によって実現される機能構成である。   FIG. 2 is a diagram illustrating a functional configuration of the three-dimensional shape measuring apparatus 1 according to the present embodiment. As illustrated in FIG. 2, the three-dimensional shape measurement apparatus 1 according to the present embodiment includes a pattern light irradiation unit 101, an image input unit 102, an association processing unit 103, and a distance calculation unit 104. The pattern light irradiation unit 101 has a functional configuration realized by the projector 11. The image input unit 102 is a functional configuration realized by the monocular camera 12. The association processing unit 103 and the distance calculation unit 104 are functional configurations realized by the general-purpose computer 13.

次に、図2に示す各機能構成について詳細に説明する。パタン光照射部101は、図3に示すようなグリッドのパタン光、即ち、各縦線の横線で区切られた領域毎に太い線断片又は細い線断片が埋め込まれたパタン光であって、各領域(局所領域)におけるグリッドのパタンが全体としてユニークであるパタン光を照射する。ここで、太い線断片を2、細い線断片を1とした場合、図3に示す左端の縦線を横線で区切られた領域毎に復号すると、(21221112222・・・)のように値が与えられる。これらの復号された値は縦線毎にユニークに与えられ、他の縦線について復号された値とは区別することができる。   Next, each functional configuration shown in FIG. 2 will be described in detail. The pattern light irradiation unit 101 is a pattern light of a grid as shown in FIG. 3, that is, pattern light in which a thick line segment or a thin line segment is embedded in each area divided by horizontal lines of each vertical line, The pattern light whose grid pattern in the region (local region) is unique as a whole is irradiated. Here, assuming that the thick line segment is 2 and the thin line segment is 1, if the leftmost vertical line shown in FIG. 3 is decoded for each area divided by the horizontal line, a value is given as (21221112222...) It is done. These decoded values are uniquely given for each vertical line, and can be distinguished from values decoded for other vertical lines.

図4は、画像入力部102の構成を示す図である。図4に示すように、画像入力部102は、撮像制御部1021及び画像格納部1022を備える。パタン光照射部101により計測対象物体に対してパタン光が照射された状態において、撮像制御部1021は、単眼カメラ12内の光学素子の焦点距離をf1及びf2(f1≠f2)に変化させてズームイン画像データ及びズームアウト画像データを撮像する。そして撮像制御部1021は、撮像された複数の画像データ(ズームイン画像データ及びズームアウト画像データ)を画像格納部1022に格納する。ここで焦点距離f1及びf2は、f1≠f2の条件を満たす任意の値で与えられる。 FIG. 4 is a diagram illustrating a configuration of the image input unit 102. As illustrated in FIG. 4, the image input unit 102 includes an imaging control unit 1021 and an image storage unit 1022. In a state in which the pattern light irradiation unit 101 irradiates the measurement target object with pattern light, the imaging control unit 1021 sets the focal lengths of the optical elements in the monocular camera 12 to f 1 and f 2 (f 1 ≠ f 2 ). The zoom-in image data and the zoom-out image data are picked up. Then, the imaging control unit 1021 stores a plurality of captured image data (zoomed-in image data and zoomed-out image data) in the image storage unit 1022. Here, the focal lengths f 1 and f 2 are given as arbitrary values that satisfy the condition of f 1 ≠ f 2 .

図5は、対応付け処理部103の構成を示す図である。図5に示すように、対応付け処理部103は、復号部1031及び変位量算出部1032を備える。復号部1031は、画像入力部102の画像格納部1022に格納されたズームイン画像データのパタンとズームアウト画像データのパタンとを復号する。具体的には、図6(a)に示すような画像データについては、計測対象物体に照射されたパタン光の各縦線の横線で区切られた領域毎に、太い線断片が検出された領域を2とし、細い線断片が検出された領域を1とし、さらに照射面までの距離が遠く太い線断片も細い線断片も検出されなかった領域を0として、図6(b)に示すような2次元状の復号結果が出力される。なお、図6(b)に示すような復号結果は夫々の値がユニークであれば、2、1、0以外の任意の値を用いてもよい。   FIG. 5 is a diagram illustrating a configuration of the association processing unit 103. As illustrated in FIG. 5, the association processing unit 103 includes a decryption unit 1031 and a displacement amount calculation unit 1032. The decoding unit 1031 decodes the zoom-in image data pattern and the zoom-out image data pattern stored in the image storage unit 1022 of the image input unit 102. Specifically, for the image data as shown in FIG. 6A, an area in which a thick line segment is detected for each area separated by horizontal lines of each vertical line of pattern light irradiated on the measurement target object. 6, where 1 is a region where a thin line segment is detected, and 0 is a region where the distance to the irradiation surface is far and where neither a thick line segment nor a thin line segment is detected, as shown in FIG. A two-dimensional decoding result is output. Note that the decoding result as shown in FIG. 6B may use any value other than 2, 1, and 0 as long as each value is unique.

変位量算出部1032は、復号部1031で得られた復号結果に基づいて、ズームイン画像データとズームアウト画像データとの間で対応する線断片の変位量Dを算出する。具体的には、次の式1に示すように、ズームイン画像データによる図3に対応するM行N列の各線断片(1≦m≦M,1≦n≦N)の復号結果が得られた線断片の座標(xi,yi)と、ズームアウト画像データによる対応するm行n列目の復号結果が得られた線断片の座標(x0,y0)とを用いて与えられる。即ち、変位量算出部1032は、ズームイン画像データにおける線断片の座標と、ズームアウト画像データにおける線断片の座標とを1対1に対応付け、各座標間の距離を求めることにより、線断片の変位量Dを算出する。ここで変位量Dは、復号部1031で得られた0以外の全ての復号結果に対して算出される。また変位量Dは、図1に示す単眼カメラ12と計測対象物体との距離が近いほど大きく、単眼カメラ12と計測対象物体との距離が遠いほど小さく与えられるため、単眼カメラ12と計測対象物体との相対距離を表している。 Based on the decoding result obtained by the decoding unit 1031, the displacement amount calculation unit 1032 calculates the displacement amount D of the corresponding line segment between the zoom-in image data and the zoom-out image data. Specifically, as shown in the following Expression 1, the decoding result of each line segment (1 ≦ m ≦ M, 1 ≦ n ≦ N) of M rows and N columns corresponding to FIG. 3 by the zoomed-in image data was obtained. This is given using the coordinates (x i , y i ) of the line segment and the coordinates (x 0 , y 0 ) of the line segment from which the decoding result of the corresponding m-th row and n-th column based on the zoomed-out image data is obtained. That is, the displacement amount calculation unit 1032 has a one-to-one correspondence between the coordinates of the line fragments in the zoom-in image data and the coordinates of the line fragments in the zoom-out image data, and obtains the distance between the coordinates, thereby obtaining the line segment coordinates. A displacement amount D is calculated. Here, the displacement amount D is calculated for all decoding results other than 0 obtained by the decoding unit 1031. Further, the displacement amount D is larger as the distance between the monocular camera 12 and the measurement target object shown in FIG. 1 is closer, and is smaller as the distance between the monocular camera 12 and the measurement target object is longer. Represents the relative distance between

Figure 2013181773
Figure 2013181773

距離算出部104は、変位量算出部1032において算出された変位量Dに基づいて、3次元形状計測装置1から計測対象物体までの絶対距離Lを算出する。具体的には、距離算出部104は、予め絶対距離L´が既知の状況下において変位量Dが上述した手法により算出された場合、パラメータkを次の式2により算出する。すると、絶対距離Lは、パラメータkを用いて次の式3に示すように算出される。   The distance calculation unit 104 calculates an absolute distance L from the three-dimensional shape measurement apparatus 1 to the measurement target object based on the displacement amount D calculated by the displacement amount calculation unit 1032. Specifically, the distance calculation unit 104 calculates the parameter k by the following equation 2 when the displacement amount D is calculated by the above-described method under a situation where the absolute distance L ′ is known in advance. Then, the absolute distance L is calculated as shown in the following Expression 3 using the parameter k.

Figure 2013181773
Figure 2013181773

ここで、絶対距離Lの空間的な算出頻度は、パタン光照射部101におけるパタン光のグリッドの密度に比例する。即ち、パタン光のグリッドの密度が高いほど絶対距離Lの空間的な算出頻度は高く、パタン光のグリッドの密度が低いほど絶対距離Lの空間的な算出頻度は低くなる。一方、絶対距離Lの空間的な算出頻度が高いほど計算時間は長くなり、絶対距離Lの空間的な算出頻度が低いほど計算時間は短くなる。従って、パタン光照射部101によって照射されるパタン光のグリッドの密度は、想定されるアプリケーションの要求仕様(精度、処理時間等)を鑑みて適切に設定される。なお、パタン光のグリッドは、図3とは異なる態様であってもよく、例えば、グリッド上の交差点が大小2種の円であってもよい。   Here, the spatial calculation frequency of the absolute distance L is proportional to the density of the pattern light grid in the pattern light irradiation unit 101. That is, the higher the density of the pattern light grid, the higher the spatial calculation frequency of the absolute distance L, and the lower the pattern light grid density, the lower the spatial calculation frequency of the absolute distance L. On the other hand, the higher the spatial calculation frequency of the absolute distance L, the longer the calculation time, and the lower the spatial calculation frequency of the absolute distance L, the shorter the calculation time. Therefore, the density of the grid of pattern light irradiated by the pattern light irradiation unit 101 is appropriately set in view of the required specifications (accuracy, processing time, etc.) of the assumed application. The pattern light grid may be different from that shown in FIG. 3. For example, the intersection on the grid may be two kinds of circles, large and small.

また、パタン光照射部101におけるパタン光のグリッドの密度は一定ではなく、最初はパタン光のグリッドの密度を粗く、徐々に部分的に細かくしていくアプローチ(Coase To Fine)を適用してもよい。具体的には、図7(a)に示すような計測対象物体に対して、先ずパタン光照射部101は、パタン光のグリッドの密度を粗くする(図7(b)のS1)。そして距離算出部104は、計測対象物体までの大まかな絶対距離L0,m,n(1≦m≦M,1≦n≦N)を上述した手法を用いて算出する。 In addition, the density of the pattern light grid in the pattern light irradiation unit 101 is not constant, and an approach (Coase To Fine) in which the density of the grid of the pattern light is initially coarse and gradually finer may be applied. Good. Specifically, for the measurement target object as shown in FIG. 7A, the pattern light irradiation unit 101 first increases the density of the grid of pattern light (S 1 in FIG. 7B). The distance calculation unit 104 calculates a rough absolute distance L 0, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) to the measurement target object using the above-described method.

次にパタン光照射部101は、グリッド(m,n)で得られた絶対距離L0,m,n(1≦m≦M,1≦n≦N)のうち、下記のように定義される最大有効距離Lmaxより短い絶対距離を有するグリッド群を包含する矩形領域(図7(c)のS2,S3)に対してのみ、今度はパタン光のグリッドの密度を細かくする。そして距離算出部104は、計測対象物体までのより高精度な絶対距離L1,m,n(1≦m≦M,1≦n≦N)を上述した手法を用いて算出する。 Next, the pattern light irradiation unit 101 is defined as follows among the absolute distances L 0, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) obtained by the grid (m, n). Only for the rectangular area including the grid group having an absolute distance shorter than the maximum effective distance L max (S 2 , S 3 in FIG. 7C), the density of the pattern light grid is reduced. The distance calculation unit 104 calculates a more accurate absolute distance L 1, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) to the measurement target object using the above-described method.

次にパタン光照射部101は、グリッド(m,n)上で得られた絶対距離L1,m,n(1≦m≦M,1≦n≦N)のうち、下記のように定義される最大有効距離Lmaxより短い絶対距離を有するグリッド群を包含する矩形領域(図7(d)のS4,S5,S6)に対してのみ、今度はよりパタン光のグリッドの密度を細かくする。そして距離算出部104は、計測対象物体までのさらに高精度な絶対距離L2,m,n(1≦m≦M,1≦n≦N)を上述した手法を用いて算出する。 Next, the pattern light irradiation unit 101 is defined as follows among the absolute distances L 1, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) obtained on the grid (m, n). Only for a rectangular region (S 4 , S 5 , S 6 in FIG. 7D) that includes a grid group having an absolute distance shorter than the maximum effective distance L max , the pattern light grid density is now increased. Make it fine. The distance calculation unit 104 calculates a more accurate absolute distance L 2, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) to the measurement target object by using the above-described method.

ここで最大有効距離Lmaxは、想定されるアプリケーションによって決定される。例えば、3次元形状計測後にロボットアームにより計測対象物体をピックアップするような想定下においては、ロボットアームの最大稼働範囲が最大有効距離Lmaxとして与えられる。また、最大有効距離Lmaxは、絶対距離Lm,n(1≦m≦M,1≦n≦N)の統計的分布によって決定してもよい。例えば、絶対距離Lm,n(1≦m≦M,1≦n≦N)の平均をAvg、標準偏差をσとして、次の式4のように最大有効距離Lmaxを与えてもよい。 Here, the maximum effective distance L max is determined by an assumed application. For example, under the assumption that the measurement target object is picked up by the robot arm after the three-dimensional shape measurement, the maximum operating range of the robot arm is given as the maximum effective distance L max . The maximum effective distance L max may be determined by a statistical distribution of the absolute distance L m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N). For example, the maximum effective distance L max may be given as in the following Expression 4, where the average of the absolute distances L m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) is Avg and the standard deviation is σ.

Figure 2013181773
Figure 2013181773

また、標準偏差σをk倍して式5のように最大有効距離Lmaxを与えてもよい。ここで、kは小さな非負の整数で与えられる。 Alternatively, the standard deviation σ may be multiplied by k to give the maximum effective distance L max as shown in Equation 5. Here, k is given as a small non-negative integer.

Figure 2013181773
Figure 2013181773

また、パタン光照射部101におけるパタン光のグリッドの密度を予め一意に決定するのではなく、計測対象物体の中心領域や曲率の小さい部分領域に対してはパタン光のグリッドの密度を粗く、計測対象物体の側面領域や曲率の大きい部分領域に対してはパタン光のグリッドの密度を細かくするアプローチを適用してもよい。   In addition, the density of the pattern light grid in the pattern light irradiation unit 101 is not uniquely determined in advance, but the density of the pattern light grid is coarsely measured for the central region of the measurement target object or a partial region with a small curvature. An approach for reducing the density of the pattern light grid may be applied to the side region of the target object and the partial region having a large curvature.

具体的には、先ずパタン光照射部101は、例えば図8(a)に示すような計測対象物体に対して、パタン光のグリッドの密度を粗くする(図8(b)のS1)。そして距離算出部104は、計測対象物体までの大まかな絶対距離L0,m,n(1≦m≦M,1≦n≦N)を上述した手法を用いて算出する。 Specifically, the pattern light irradiation unit 101 first increases the density of the pattern light grid for a measurement target object as shown in FIG. 8A, for example (S 1 in FIG. 8B). The distance calculation unit 104 calculates a rough absolute distance L 0, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) to the measurement target object using the above-described method.

次にパタン光照射部101は、グリッド(m,n)で得られた絶対距離L0,m,n(1≦m≦M,1≦n≦N)のうち、計測対象物体の側面領域(図8(c)のS2,S3)に対してのみ、パタン光のグリッドの密度を細かくする。そして距離算出部104は、計測対象物体までのより高精度な絶対距離L1,m,n(1≦m≦M,1≦n≦N)を上述した手法を用いて算出する。 Next, the pattern light irradiator 101 has a side surface region (of the measurement target object) out of the absolute distances L 0, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) obtained by the grid (m, n). Only for S 2 and S 3 ) in FIG. 8C, the density of the pattern light grid is made fine. The distance calculation unit 104 calculates a more accurate absolute distance L 1, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) to the measurement target object by using the above-described method.

次にパタン光照射部101は、グリッド(m,n)上で得られた絶対距離L1,m,n(1≦m≦M,1≦n≦N)のうち、計測対象物体の曲率の大きい部分領域(図8(c)のS4、S5、S6、S7)に対してのみ、よりパタン光のグリッドの密度を細かくする。そして距離算出部104は、計測対象物体までのさらに高精度な絶対距離L2,m,n(1≦m≦M,1≦n≦N)を上述した手法を用いて算出する。 Next, the pattern light irradiation unit 101 calculates the curvature of the object to be measured among the absolute distances L 1, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) obtained on the grid (m, n). Only for a large partial region (S 4 , S 5 , S 6 , S 7 in FIG. 8C), the density of the pattern light grid is made finer. Then, the distance calculation unit 104 calculates a more accurate absolute distance L 2, m, n (1 ≦ m ≦ M, 1 ≦ n ≦ N) to the measurement target object using the method described above.

このようにして得られた3次元形状計測結果は、3次元形状計測装置1のさらに上位階層、例えば、3次元形状計測後にロボットアームにより計測対象物体をピックアップするような想定下において、ロボットアームと3次元形状計測装置1とを制御するための装置又はプログラム等に伝達され、様々なアプリケーションに適用される。   The three-dimensional shape measurement result obtained in this way is the upper layer of the three-dimensional shape measurement apparatus 1, for example, under the assumption that the measurement target object is picked up by the robot arm after the three-dimensional shape measurement, The information is transmitted to a device or a program for controlling the three-dimensional shape measuring apparatus 1 and applied to various applications.

図9は、本実施形態に係る3次元形状計測装置1の処理を示すフローチャートである。以下、図9を参照しながら、本実施形態に係る3次元形状計測装置1の処理について説明する。   FIG. 9 is a flowchart showing processing of the three-dimensional shape measuring apparatus 1 according to the present embodiment. Hereinafter, the processing of the three-dimensional shape measurement apparatus 1 according to the present embodiment will be described with reference to FIG.

ステップS901において、パタン光照射部101は、計測対象物体に対して図3に示すようなグリッドのパタン光を照射する。ステップS902において、画像入力部102は、パタン光照射部101によりパタン光が照射されることで撮像された計測対象物体のズームイン画像データを取得する。ステップS903において、画像入力部102は、パタン光照射部101によりパタン光が照射されることで撮像された計測対象物体のズームアウト画像データを取得する。ステップS904において、対応位置算出部103は、ズームイン画像データとズームアウト画像データとの間で対応する線断片の変位量Dを算出する。ステップS905において、距離算出部104は、変位量Dに基づいて絶対距離Lを算出する。   In step S901, the pattern light irradiation unit 101 irradiates the measurement target object with pattern light of a grid as shown in FIG. In step S <b> 902, the image input unit 102 acquires zoom-in image data of a measurement target object imaged by pattern light irradiation by the pattern light irradiation unit 101. In step S <b> 903, the image input unit 102 acquires zoom-out image data of the measurement target object imaged by pattern light irradiation by the pattern light irradiation unit 101. In step S904, the corresponding position calculation unit 103 calculates the displacement amount D of the corresponding line segment between the zoom-in image data and the zoom-out image data. In step S905, the distance calculation unit 104 calculates the absolute distance L based on the displacement amount D.

ステップS906において、距離算出部104は、最大有効距離Lmaxと絶対距離Lとを比較し、最大有効距離Lmaxより短い絶対距離Lを有するグリッド群を包含する矩形領域が存在するか否かを判定する。最大有効距離Lmaxより短い絶対距離Lを有するグリッド群を包含する矩形領域が存在する場合、処理はステップS901に戻る。一方、最大有効距離Lmaxより短い絶対距離Lを有するグリッド群を包含する矩形領域が存在しない場合、処理は終了する。ステップS901では、パタン光照射部101は、上記矩形領域に対してグリッドの密度を細かくしてパタン光を照射する。ここでは、最大有効距離Lmaxより短い絶対距離Lを有するグリッド群を包含する矩形領域について、パタン光のグリッドの密度を細かくした。これに対し、計測対象物体の所定の領域(例えば、側面領域、曲率の大きい部分領域)について、パタン光のグリッドの密度を細かくしてもよい。 In step S906, the distance calculation unit 104 compares the maximum effective distance Lmax and the absolute distance L, and determines whether or not there is a rectangular region including a grid group having an absolute distance L shorter than the maximum effective distance Lmax. judge. If there is a rectangular region including a grid group having an absolute distance L shorter than the maximum effective distance L max , the process returns to step S901. On the other hand, when there is no rectangular area including the grid group having the absolute distance L shorter than the maximum effective distance L max , the process ends. In step S901, the pattern light irradiation unit 101 irradiates the rectangular area with pattern light with a finer grid density. Here, the density of the pattern light grid is made fine for a rectangular region including a grid group having an absolute distance L shorter than the maximum effective distance Lmax . On the other hand, the density of the grid of pattern light may be made fine for a predetermined region (for example, a side region, a partial region having a large curvature) of the measurement target object.

3次元形状計測装置1は、上記のようにしてグリッドの密度が制御されたパタン光で撮像されたズームイン画像データとズームアウト画像データとの間で対応する線断片の変位量Dに基づいて、計測対象物体の3次元形状計測を行う。   The three-dimensional shape measuring apparatus 1 is based on the displacement amount D of the corresponding line segment between the zoom-in image data and the zoom-out image data captured with the pattern light whose grid density is controlled as described above. 3D shape measurement of the measurement object is performed.

なお、上述した実施形態では、絶対距離Lに基づいてパタン光のグリッドの密度を制御しているが、絶対距離Lに基づいてパタン光の照射範囲を制御するようにしてもよい。例えば、上述した実施形態では、絶対距離Lに基づいて或る矩形領域に対するパタン光のグリッドの密度を細かくしたが、当該矩形領域に対してのみパタン光が照射されるように照射範囲を制御するようにしてもよい。また、絶対距離Lの値を基準にするのではなく、絶対距離Lの分布を基準にして、パタン光のグリッドの密度等を制御するようにしてもよい。   In the above-described embodiment, the density of the pattern light grid is controlled based on the absolute distance L. However, the pattern light irradiation range may be controlled based on the absolute distance L. For example, in the above-described embodiment, the density of the pattern light grid for a certain rectangular area is made fine based on the absolute distance L, but the irradiation range is controlled so that the pattern light is irradiated only to the rectangular area. You may do it. Further, the density of the pattern light grid and the like may be controlled based on the distribution of the absolute distance L instead of using the value of the absolute distance L as a reference.

第1の実施形態においては、グリッドのパタンが全体としてユニークであるパタン光を計測対象物体に照射し、その3次元形状を計測するようにしたので、計測対象物体の3次元形状の計測精度を向上させることができる。   In the first embodiment, the measurement target object is irradiated with the pattern light whose grid pattern is unique as a whole and the three-dimensional shape thereof is measured. Therefore, the measurement accuracy of the three-dimensional shape of the measurement target object is improved. Can be improved.

次に、本発明の第2の実施形態について説明する。図10は、本発明の第2の実施形態に係る物体識別装置のシステム構成を示す図である。図10に示すように、第2の実施形態に係る物体識別装置2は、識別対象物体を識別するものであり、プロジェクタ21、単眼カメラ22及び汎用コンピュータ23がLANケーブル等で接続されることによって構成される。   Next, a second embodiment of the present invention will be described. FIG. 10 is a diagram showing a system configuration of the object identification device according to the second exemplary embodiment of the present invention. As shown in FIG. 10, the object identification device 2 according to the second embodiment is for identifying an object to be identified, and by connecting a projector 21, a monocular camera 22, and a general-purpose computer 23 with a LAN cable or the like. Composed.

図11は、本実施形態に係る物体識別装置2の機能構成を示す図である。図11に示すように、本実施形態に係る物体識別装置2は、パタン光照射部201、画像入力部202、変位ベクトル算出部203及び識別部204を備える。なお、パタン光照射部201は、プロジェクタ21によって実現される機能構成である。画像入力部202は、単眼カメラ22によって実現される機能構成である。変位ベクトル算出部203及び識別部204は、汎用コンピュータ23によって実現される機能構成である。   FIG. 11 is a diagram illustrating a functional configuration of the object identification device 2 according to the present embodiment. As shown in FIG. 11, the object identification device 2 according to the present embodiment includes a pattern light irradiation unit 201, an image input unit 202, a displacement vector calculation unit 203, and an identification unit 204. Note that the pattern light irradiation unit 201 has a functional configuration realized by the projector 21. The image input unit 202 is a functional configuration realized by the monocular camera 22. The displacement vector calculation unit 203 and the identification unit 204 are functional configurations realized by the general-purpose computer 23.

次に、図11に示す各構成について詳細に説明する。パタン光照射部201及び画像入力部202は、図2に示すパタン光照射部101及び画像入力部102と同等の機能を有するものであるため、ここでの説明は割愛する。   Next, each configuration shown in FIG. 11 will be described in detail. The pattern light irradiation unit 201 and the image input unit 202 have functions equivalent to those of the pattern light irradiation unit 101 and the image input unit 102 shown in FIG.

図12は、変位ベクトル算出部203の構成を示す図である。図12に示すように、変位ベクトル算出部203は、復号部2031、変位量算出部2032、変位ベクトル算出部2033及び変位ベクトル格納部2034を備える。図12に示す復号部2031及び変位量算出部2032は、図5に示した復号部1031及び変位量算出部1032と同等の機能であるため、ここでの説明は割愛する。変位ベクトル算出部2033は、ズームイン画像データとズームアウト画像データとの間で対応する線断片の変位ベクトルrを算出する。具体的には、次の式6に示すように、ズームイン画像データによる図3に対応するM行N列の各線断片(1≦m≦M,1≦n≦N)の復号結果が得られた線断片の座標ri(xi,yi)と、ズームアウト画像データによる対応するm行n列目の復号結果が得られた線断片の座標r0(x0,y0)とを用いて与えられる。即ち、変位ベクトル算出部2033は、ズームイン画像データにおける線断片の座標と、ズームアウト画像データにおける線断片の座標とを1対1で対応付け、各座標間のベクトルを線断片の変位ベクトルrとして算出する。例えば、図13(a)に示すような識別対象物体に対して変位ベクトルrを算出すると、図13(c)に示すような識別対象物体固有の変位ベクトルrが得られる。なお、図13(b)は、図13(a)に示す識別対象物体を真上から見た状態を示している。ここで、変位ベクトルrは復号部2031で得られた0以外の全ての復号結果に対して算出され、変位ベクトル格納部2034に格納される。 FIG. 12 is a diagram illustrating a configuration of the displacement vector calculation unit 203. As shown in FIG. 12, the displacement vector calculation unit 203 includes a decoding unit 2031, a displacement amount calculation unit 2032, a displacement vector calculation unit 2033, and a displacement vector storage unit 2034. The decoding unit 2031 and the displacement amount calculation unit 2032 illustrated in FIG. 12 have the same functions as the decoding unit 1031 and the displacement amount calculation unit 1032 illustrated in FIG. 5, and thus description thereof is omitted here. The displacement vector calculation unit 2033 calculates the displacement vector r of the corresponding line segment between the zoom-in image data and the zoom-out image data. Specifically, as shown in the following Expression 6, a decoding result of each line segment (1 ≦ m ≦ M, 1 ≦ n ≦ N) of M rows and N columns corresponding to FIG. Using the coordinates r i (x i , y i ) of the line segment and the coordinates r 0 (x 0 , y 0 ) of the line segment from which the decoding result of the corresponding m-th row and n-th column based on the zoomed-out image data is obtained. Given. That is, the displacement vector calculation unit 2033 associates the coordinates of the line fragments in the zoom-in image data with the coordinates of the line fragments in the zoom-out image data on a one-to-one basis, and sets the vector between the coordinates as the displacement vector r of the line fragments. calculate. For example, when the displacement vector r is calculated for the identification target object as shown in FIG. 13A, a displacement vector r unique to the identification target object as shown in FIG. 13C is obtained. FIG. 13B shows a state in which the identification target object shown in FIG. 13A is viewed from directly above. Here, the displacement vector r is calculated for all decoding results other than 0 obtained by the decoding unit 2031 and stored in the displacement vector storage unit 2034.

Figure 2013181773
Figure 2013181773

識別部204は、パタン光照射部201、画像入力部202及び変位ベクトル算出部203を用いて、種類が既知の物体の全ての変位ベクトルrk(k=0,1,2,・・・,M・N)を算出し、変位ベクトル格納部2034に格納する。同様に、識別部204は、パタン光照射部201、画像入力部202及び変位ベクトル算出部203を用いて、種類が未知の識別対象物体の全ての変位ベクトルr´k(k=0,1,2,・・・M・N)を算出し、変位ベクトル格納部2034に格納する。 The identification unit 204 uses the pattern light irradiation unit 201, the image input unit 202, and the displacement vector calculation unit 203 to detect all the displacement vectors r k (k = 0, 1, 2,... M · N) is calculated and stored in the displacement vector storage unit 2034. Similarly, the identification unit 204 uses the pattern light irradiation unit 201, the image input unit 202, and the displacement vector calculation unit 203 to detect all the displacement vectors r ′ k (k = 0, 1, 2,... M · N) is calculated and stored in the displacement vector storage unit 2034.

さらに識別部204は、次の式7に示す正規化相関を用いて、種類が既知の物体の全ての変位ベクトルrk(k=0,1,2,・・・M・N)と、種類が未知の識別対象物体の全ての変位ベクトルr´k(k=0,1,2,・・・M・N)との相関値S(rk,r´k)を算出する。ここで、相関値S(rk,r´k)が所定の閾値T以上であった場合、これらの2つの物体は同一種類と判定される。一方、相関値S(rk,r´k)が所定の閾値T以下であった場合、これらの2つの物体は別の種類と判定される。なお、所定の閾値Tは、物体識別装置2が実環境で稼働する前に実験的に決定された値である。また、種類が既知の物体の変位ベクトルrkと種類が未知の識別対象物体の変位ベクトルr´kとのユークリッド距離により相関値Sを与えるようにしてもよい。 Further, the discriminating unit 204 uses the normalized correlation shown in the following Expression 7 to calculate all the displacement vectors r k (k = 0, 1, 2,... M · N) and the types of objects of known types. There calculates all unknown identification object of the displacement vector r'k (k = 0,1,2, ··· M · N) correlation value S (r k, r'k) with the. Here, when the correlation value S (r k , r ′ k ) is equal to or greater than a predetermined threshold T, these two objects are determined to be of the same type. On the other hand, when the correlation value S (r k , r ′ k ) is equal to or less than the predetermined threshold T, these two objects are determined as different types. The predetermined threshold T is a value determined experimentally before the object identification device 2 operates in the real environment. The type may be given a correlation value S displacement vector r k and the type of the known object is the Euclidean distance between the displacement vector r'k unknown identification object.

Figure 2013181773
Figure 2013181773

このようにして得られた物体識別結果は、物体識別装置2のさらに上位階層、例えば、物体識別後にロボットアームにより識別対象物体をピックアップするような想定下においては、ロボットアームと物体識別装置2とを制御するための装置、プログラム等に伝達され、様々なアプリケーションに適用される。   The object identification result obtained in this way is obtained by assuming that the robot arm, the object identification device 2, and the upper layer of the object identification device 2, for example, under the assumption that the object to be identified is picked up by the robot arm after object identification, It is transmitted to a device, a program, etc. for controlling and is applied to various applications.

図14は、本実施形態に係る物体識別装置2の処理を示すフローチャートである。以下、図14を参照しながら、本実施形態に係る物体識別装置2の処理について説明する。なお、図14におけるステップS1401〜S1404は、図9におけるステップS901〜S904と同様の処理であるため、これらの説明は割愛する。   FIG. 14 is a flowchart showing processing of the object identification device 2 according to the present embodiment. Hereinafter, the processing of the object identification device 2 according to the present embodiment will be described with reference to FIG. Note that steps S1401 to S1404 in FIG. 14 are the same processes as steps S901 to S904 in FIG.

ステップS1405において、変位ベクトル算出部203は、ズームイン画像データとズームアウト画像データとの間で対応する線断片の変位ベクトルrを算出する。ステップS1406において、識別部204は、種類が既知の物体の全ての変位ベクトルrkと、種類が未知の識別対象物体の全ての変位ベクトルr´kとの相関値Sを算出する。 In step S1405, the displacement vector calculation unit 203 calculates the displacement vector r of the corresponding line segment between the zoom-in image data and the zoom-out image data. In step S1406, the identification unit 204, types and all the displacement vectors r k of known objects, types calculates the correlation value S of all the displacement vectors r'k unknown identification object.

ステップS1407において、識別部204は、相関値Sが所定の閾値T以上であるか否かを判定する。相関値Sが所定の閾値T以上である場合、処理はステップS1408に移行する。一方、相関値Sが所定の閾値T未満である場合、処理はステップS1409に移行する。ステップS1408において、識別部204は、上記種類が既知の物体と上記種類が未知の識別対象物体とが同一種類の物体であると判定する。ステップS1409において、識別部204は、上記種類の既知の物体と上記種類が未知の識別対象物体とが別の種類の物体であると判定する。   In step S1407, the identification unit 204 determines whether or not the correlation value S is greater than or equal to a predetermined threshold T. If the correlation value S is greater than or equal to the predetermined threshold T, the process proceeds to step S1408. On the other hand, if the correlation value S is less than the predetermined threshold T, the process proceeds to step S1409. In step S1408, the identification unit 204 determines that the object with the known type and the identification target object with the unknown type are the same type of object. In step S1409, the identification unit 204 determines that the known object of the type and the identification target object of the unknown type are different types of objects.

第2の実施形態においては、グリッドのパタンが全体としてユニークであるパタン光を識別対象物体に照射し、当該識別対象物体を識別するようにしたので、物体の識別精度を向上させることができる。   In the second embodiment, the identification target object is irradiated with the pattern light whose grid pattern is unique as a whole to identify the identification target object, so that the identification accuracy of the object can be improved.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

1:3次元形状計測装置、2:物体識別装置、11、21:プロジェクタ、12、22:単眼カメラ、13、23:汎用コンピュータ、101、201:パタン光照射部、102、202:画像入力部、103:対応付け処理部、104:距離算出部、203:変位ベクトル算出部、204:識別部、1021:撮像制御部、1022:画像格納部、1031:復号部、1032:変位量算出部、2031:復号部、2032:変位量算出部、2033:変位ベクトル算出部、2034:変位ベクトル格納部   1: three-dimensional shape measurement device, 2: object identification device, 11, 21: projector, 12, 22: monocular camera, 13, 23: general-purpose computer, 101, 201: pattern light irradiation unit, 102, 202: image input unit , 103: association processing unit, 104: distance calculation unit, 203: displacement vector calculation unit, 204: identification unit, 1021: imaging control unit, 1022: image storage unit, 1031: decoding unit, 1032: displacement amount calculation unit, 2031: Decoding unit, 2032: Displacement amount calculation unit, 2033: Displacement vector calculation unit, 2034: Displacement vector storage unit

Claims (16)

計測対象物体に対して所定のパタン光を照射する照射手段と、
焦点距離を変化させて、前記所定のパタン光が照射された前記計測対象物体の複数の画像データを撮像する撮像手段と、
前記複数の画像データ間で対応する局所領域の変位量を算出する変位量算出手段と、
前記変位量算出手段により算出された前記変位量に基づいて、前記計測対象物体の3次元形状を計測する計測手段とを有することを特徴とする3次元形状計測装置。
Irradiating means for irradiating the measurement target object with a predetermined pattern light;
An imaging means for imaging a plurality of image data of the measurement target object irradiated with the predetermined pattern light by changing a focal length;
A displacement amount calculating means for calculating a displacement amount of a corresponding local region between the plurality of image data;
A three-dimensional shape measurement apparatus comprising: a measurement unit that measures a three-dimensional shape of the measurement target object based on the displacement amount calculated by the displacement amount calculation unit.
前記照射手段は、局所領域におけるパタンが全体としてユニークである前記所定のパタン光を照射することを特徴とする請求項1に記載の3次元形状計測装置。   The three-dimensional shape measuring apparatus according to claim 1, wherein the irradiation unit irradiates the predetermined pattern light whose pattern in the local region is unique as a whole. 前記変位量算出手段は、前記複数の画像データ間における局所領域を1対1で対応付け、対応付けた局所領域間の距離を前記変位量として算出することを特徴とする請求項1又は2に記載の3次元形状計測装置。   The displacement amount calculation means associates local regions between the plurality of image data on a one-to-one basis, and calculates a distance between the associated local regions as the displacement amount. The three-dimensional shape measuring apparatus described. 前記変位量算出手段により算出された前記変位量に基づいて、当該3次元形状計測装置から前記計測対象物体までの絶対距離を算出する絶対距離算出手段を更に有し、
前記照射手段は、前記絶対距離算出手段により算出された前記絶対距離に基づいて、前記所定のパタン光のグリッドの密度を制御することを特徴とすることを特徴とする請求項1乃至3の何れか1項に記載の3次元形状計測装置。
Based on the displacement amount calculated by the displacement amount calculating means, further comprising an absolute distance calculating means for calculating an absolute distance from the three-dimensional shape measuring apparatus to the measurement target object;
The said irradiation means controls the density of the grid of the said predetermined pattern light based on the said absolute distance calculated by the said absolute distance calculation means, The any one of Claim 1 thru | or 3 characterized by the above-mentioned. The three-dimensional shape measuring apparatus according to claim 1.
前記変位量算出手段により算出された前記変位量に基づいて、当該3次元形状計測装置から前記計測対象物体までの絶対距離を算出する絶対距離算出手段を更に有し、
前記照射手段は、前記絶対距離算出手段により算出された前記絶対距離に基づいて、前記所定のパタン光の照射範囲を制御することを特徴とする請求項1乃至3の何れか1項に記載の3次元形状計測装置。
Based on the displacement amount calculated by the displacement amount calculating means, further comprising an absolute distance calculating means for calculating an absolute distance from the three-dimensional shape measuring apparatus to the measurement target object;
4. The irradiation unit according to claim 1, wherein the irradiation unit controls an irradiation range of the predetermined pattern light based on the absolute distance calculated by the absolute distance calculation unit. 3D shape measuring device.
前記照射手段、前記撮像手段及び前記変位量算出手段は、前記絶対距離算出手段により算出される前記絶対距離に基づいて、処理を繰り返し実行することを特徴とする請求項5に記載の3次元形状計測装置。   6. The three-dimensional shape according to claim 5, wherein the irradiation unit, the imaging unit, and the displacement amount calculation unit repeatedly perform processing based on the absolute distance calculated by the absolute distance calculation unit. Measuring device. 識別対象物体に対して所定のパタン光を照射する照射手段と、
焦点距離を変化させて、前記所定のパタン光が照射された前記識別対象物体の複数の画像データを撮像する撮像手段と、
前記複数の画像データ間で対応する局所領域の変位ベクトルを算出する変位ベクトル算出手段と、
前記変位ベクトル算出手段により算出された前記変位ベクトルに基づいて、前記識別対象物体を識別する識別手段とを有することを特徴とする物体識別装置。
Irradiating means for irradiating the identification target object with a predetermined pattern light;
Imaging means for imaging a plurality of image data of the identification target object irradiated with the predetermined pattern light by changing a focal length;
Displacement vector calculating means for calculating a displacement vector of a corresponding local region between the plurality of image data;
An object identification apparatus comprising: an identification unit that identifies the identification target object based on the displacement vector calculated by the displacement vector calculation unit.
前記照射手段は、局所領域におけるパタンが全体としてユニークである前記所定のパタン光を照射することを特徴とする請求項7に記載の物体識別装置。   The object identifying apparatus according to claim 7, wherein the irradiation unit irradiates the predetermined pattern light whose pattern in the local region is unique as a whole. 前記識別手段は、前記識別対象物体について算出された前記変位ベクトルと、種類が既知の物体について算出された変位ベクトルとの相関値を算出し、前記相関値に基づいて前記識別対象物体を識別することを特徴とする請求項7又は8に記載の物体識別装置。   The identification means calculates a correlation value between the displacement vector calculated for the identification target object and a displacement vector calculated for an object of a known type, and identifies the identification target object based on the correlation value The object identification device according to claim 7 or 8, characterized in that 前記相関値は、前記識別対象物体について算出された前記変位ベクトルと、前記種類が既知の物体について算出された変位ベクトルとの正規化相関で与えられることを特徴とする請求項9に記載の物体識別装置。   10. The object according to claim 9, wherein the correlation value is given by a normalized correlation between the displacement vector calculated for the identification target object and a displacement vector calculated for the object of the known type. Identification device. 前記相関値は、前記識別対象物体について算出された前記変位ベクトルと、前記種類が既知の物体について算出された変位ベクトルとのユークリッド距離で与えられることを特徴とする請求項9に記載の物体識別装置。   10. The object identification according to claim 9, wherein the correlation value is given as a Euclidean distance between the displacement vector calculated for the identification target object and a displacement vector calculated for the object of the known type. apparatus. 前記変位ベクトル算出手段は、前記複数の画像データ間における局所領域を1対1で対応付け、対応付けた局所領域間のベクトルを前記変位ベクトルとして算出することを特徴とする請求項7乃至11の何れか1項に記載の物体識別装置。   12. The displacement vector calculating unit according to claim 7, further comprising: associating local regions between the plurality of image data on a one-to-one basis, and calculating a vector between the associated local regions as the displacement vector. The object identification device according to any one of the above. 3次元形状計測装置によって実行される3次元形状計測方法であって、
計測対象物体に対して所定のパタン光を照射する照射ステップと、
焦点距離を変化させて、前記所定のパタン光が照射された前記計測対象物体の複数の画像データを撮像する撮像ステップと、
前記複数の画像データ間で対応する局所領域の変位量を算出する変位量算出ステップと、
前記変位量算出ステップにより算出された前記変位量に基づいて、前記計測対象物体の3次元形状を計測する計測ステップとを有することを特徴とする3次元形状計測方法。
A three-dimensional shape measurement method executed by a three-dimensional shape measurement apparatus,
An irradiation step of irradiating a measurement target object with a predetermined pattern light; and
An imaging step of imaging a plurality of image data of the measurement target object irradiated with the predetermined pattern light by changing a focal length;
A displacement amount calculating step for calculating a displacement amount of a corresponding local region between the plurality of image data;
A three-dimensional shape measuring method comprising: a measuring step of measuring a three-dimensional shape of the measurement target object based on the displacement amount calculated in the displacement amount calculating step.
物体識別装置によって実行される物体識別方法であって、
識別対象物体に対して所定のパタン光を照射する照射ステップと、
焦点距離を変化させて、前記所定のパタン光が照射された前記識別対象物体の複数の画像データを撮像する撮像ステップと、
前記複数の画像データ間で対応する局所領域の変位ベクトルを算出する変位ベクトル算出ステップと、
前記変位ベクトル算出ステップにより算出された前記変位ベクトルに基づいて、前記識別対象物体を識別する識別ステップとを有することを特徴とする物体識別方法。
An object identification method executed by an object identification device, comprising:
An irradiation step of irradiating the identification target object with a predetermined pattern light; and
An imaging step of capturing a plurality of image data of the identification target object irradiated with the predetermined pattern light by changing a focal length;
A displacement vector calculating step of calculating a displacement vector of a corresponding local region between the plurality of image data;
And an identification step of identifying the identification target object based on the displacement vector calculated by the displacement vector calculation step.
計測対象物体に対して所定のパタン光を照射する照射手段と、焦点距離を変化させて、前記所定のパタン光が照射された前記計測対象物体の複数の画像データを撮像する撮像手段とを有する3次元形状計測装置によって実行される3次元形状計測方法をコンピュータに実行させるためのプログラムであって、
前記複数の画像データ間で対応する局所領域の変位量を算出する変位量算出ステップと、
前記変位量算出ステップにより算出された前記変位量に基づいて、前記計測対象物体の3次元形状を計測する計測ステップとをコンピュータに実行させるためのプログラム。
Irradiation means for irradiating the measurement target object with predetermined pattern light, and imaging means for imaging a plurality of image data of the measurement target object irradiated with the predetermined pattern light by changing a focal length A program for causing a computer to execute a 3D shape measurement method executed by a 3D shape measurement apparatus,
A displacement amount calculating step for calculating a displacement amount of a corresponding local region between the plurality of image data;
A program for causing a computer to execute a measurement step of measuring a three-dimensional shape of the measurement target object based on the displacement amount calculated in the displacement amount calculation step.
識別対象物体に対して所定のパタン光を照射する照射手段と、焦点距離を変化させて、前記所定のパタン光が照射された前記識別対象物体の複数の画像データを撮像する撮像手段とを有する物体識別装置によって実行される物体識別方法であって、
前記複数の画像データ間で対応する局所領域の変位ベクトルを算出する変位ベクトル算出ステップと、
前記変位ベクトル算出ステップにより算出された前記変位ベクトルに基づいて、前記識別対象物体を識別する識別ステップとをコンピュータに実行させるためのプログラム。
Irradiation means for irradiating the identification target object with a predetermined pattern light; and an imaging means for imaging a plurality of image data of the identification target object irradiated with the predetermined pattern light by changing a focal length. An object identification method executed by an object identification device, comprising:
A displacement vector calculating step of calculating a displacement vector of a corresponding local region between the plurality of image data;
A program for causing a computer to execute an identification step for identifying the identification target object based on the displacement vector calculated by the displacement vector calculation step.
JP2012044089A 2012-02-29 2012-02-29 Three-dimensional shape measurement instrument and object identification device Pending JP2013181773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044089A JP2013181773A (en) 2012-02-29 2012-02-29 Three-dimensional shape measurement instrument and object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044089A JP2013181773A (en) 2012-02-29 2012-02-29 Three-dimensional shape measurement instrument and object identification device

Publications (1)

Publication Number Publication Date
JP2013181773A true JP2013181773A (en) 2013-09-12

Family

ID=49272541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044089A Pending JP2013181773A (en) 2012-02-29 2012-02-29 Three-dimensional shape measurement instrument and object identification device

Country Status (1)

Country Link
JP (1) JP2013181773A (en)

Similar Documents

Publication Publication Date Title
US8897539B2 (en) Using images to create measurements of structures through the videogrammetric process
JP2011185872A (en) Information processor, and processing method and program of the same
JP2014096152A (en) Backfilling points in point cloud
JP2006145405A (en) Three-dimensional measuring instrument, method, and program
JP6566768B2 (en) Information processing apparatus, information processing method, and program
JP6937642B2 (en) Surface evaluation method and surface evaluation device
US10181202B2 (en) Control apparatus, robot, and control method
KR20150136225A (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JP2015049776A (en) Image processor, image processing method and image processing program
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
JP2019040229A5 (en)
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
JP2018022247A5 (en)
Sun et al. High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm
JP6452361B2 (en) Information processing apparatus, information processing method, and program
JP2015206654A (en) Information processing apparatus, information processing method, and program
JP5748355B2 (en) Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
US20200167952A1 (en) Objective identification method and device thereof
JP2016206909A (en) Information processor, and information processing method
JP2013181773A (en) Three-dimensional shape measurement instrument and object identification device
JP7188798B2 (en) Coordinate calculation device, coordinate calculation method, and program
JP2014178967A (en) Three-dimensional object recognition device and three-dimensional object recognition method
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP6431495B2 (en) Teacher data generation method