JP2015137897A - Distance measuring device and distance measuring method - Google Patents

Distance measuring device and distance measuring method Download PDF

Info

Publication number
JP2015137897A
JP2015137897A JP2014008858A JP2014008858A JP2015137897A JP 2015137897 A JP2015137897 A JP 2015137897A JP 2014008858 A JP2014008858 A JP 2014008858A JP 2014008858 A JP2014008858 A JP 2014008858A JP 2015137897 A JP2015137897 A JP 2015137897A
Authority
JP
Japan
Prior art keywords
pattern
unit
projection
orientation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014008858A
Other languages
Japanese (ja)
Inventor
達矢 鈴木
Tatsuya Suzuki
達矢 鈴木
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小竹 大輔
Daisuke Kotake
大輔 小竹
圭祐 立野
Keisuke Tateno
圭祐 立野
祐介 中里
Yusuke Nakazato
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014008858A priority Critical patent/JP2015137897A/en
Publication of JP2015137897A publication Critical patent/JP2015137897A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for accurately measuring a three-dimensional distance to an object even in the place where the surface shape of the object is largely changed.SOLUTION: A distance measuring device estimates a projection position of a pattern on a model representing the three-dimensional shape of a target object when the model is arranged in an approximate position attitude, determines a coordinate position on an image corresponding to the projection position and searches for a pattern from the vicinity of the determined coordinate position, and performs calculation processing based on triangulation by using the correspondence between the pattern searched from the image and a pattern projected by a projection unit so as to calculate the distance from an imaging unit to the surface of the target object.

Description

本発明は、距離計測技術に関するものである。   The present invention relates to a distance measurement technique.

三次元形状計測法としては種々の手法が提案されているが、ロバスト性が高く、高精度な計測には、投影装置と撮影装置とを組み合わせて用いるアクティブ型が広く用いられている。アクティブ型の特徴として、計測対象の表面テクスチャ情報が少ない場合でも、投影されたパターンを手がかりにして形状計測を行うことができる。アクティブ型の代表例として、投影パターンの位置に基づく手法、位相情報変化に基づく手法、投影パターンのデフォーカス情報に基づく手法などがある。   Various methods have been proposed as a three-dimensional shape measurement method, but an active type using a combination of a projection device and a photographing device is widely used for high-precision measurement with high robustness. As an active feature, even when there is little surface texture information to be measured, shape measurement can be performed using the projected pattern as a clue. Representative examples of the active type include a method based on the position of the projection pattern, a method based on phase information change, and a method based on the defocus information of the projection pattern.

このうち、動的シーンに対応した計測において、複数スリットパターンを投影した光切断法が知られている。複数スリットパターンを投影した光切断法は一般的に全て同一形状のスリットパターンを投影する。そのため、測定距離範囲に限定を加えるなどしない限り、撮像されたスリットと投影されたスリットを一意に対応付ける事は困難である。そこで、特許文献1に記載の手法では、被計測対象に対して、スリットの幅の周期的な変化によって符号化された複数のスリットを投影する。そして、撮像されたスリットから符号を抽出し、投影されたスリットの符号と比較し、その比較結果に基づいて、撮像されたスリットと投影されたスリットを対応付け、対応付けられた結果に基づいて、三角測量の原理で三次元計測を行う。   Among these, a light cutting method in which a plurality of slit patterns is projected in measurement corresponding to a dynamic scene is known. In general, the light cutting method that projects a plurality of slit patterns projects a slit pattern having the same shape. For this reason, unless the measurement distance range is limited, it is difficult to uniquely associate the imaged slit with the projected slit. Therefore, in the method described in Patent Document 1, a plurality of slits encoded by periodic changes in the width of the slits are projected onto the measurement target. Then, a code is extracted from the imaged slit, compared with the code of the projected slit, and based on the comparison result, the imaged slit and the projected slit are associated, and based on the associated result 3D measurement is performed by the principle of triangulation.

以上のようにして求めた距離計測点群と、既知の形状モデルと、を用いて計測対象物体の位置姿勢を推定を行う手法が提案されている。計測対象物体表面の形状モデルが既知で、撮像装置から計測対象物体表面への複数の距離が点群として求められた場合に、点群から最近傍の点との距離の差を小さくするように位置姿勢を推定する方法が非特許文献1に開示されている。この方法は、ICP(Iterative Closest Point)法として、距離計測と形状モデルの位置合わせの手法として広く利用されている。同様に、非特許文献2に記載の手法は、計測点群と形状モデルの面との距離を計算するもので、計測対象物体の形状モデルと計測点群の誤差を最小にするように計測対象物体の位置姿勢を推定することができる。   There has been proposed a method for estimating the position and orientation of a measurement target object using the distance measurement point group obtained as described above and a known shape model. When the shape model of the measurement target object surface is known and multiple distances from the imaging device to the measurement target object surface are obtained as point clouds, the difference in distance from the point group to the nearest point is reduced. A method for estimating the position and orientation is disclosed in Non-Patent Document 1. This method is widely used as an ICP (Iterative Closest Point) method as a method for distance measurement and shape model alignment. Similarly, the method described in Non-Patent Document 2 calculates the distance between the measurement point group and the surface of the shape model, and the measurement target is set to minimize the error between the shape model of the measurement target object and the measurement point group. The position and orientation of the object can be estimated.

特表2009−517634Special table 2009-517634

P.J. Besl and N. D. Mckay. “A method forregistration of 3-D shapes, ”IEEE Trans. Pattern Analysis and Machine Intelligence, 14(2),pp.239-256, 1992.P.J.Besl and N.D. Mckay. “A method forregistration of 3-D shapes,” IEEE Trans. Pattern Analysis and Machine Intelligence, 14 (2), pp.239-256, 1992. Y. Chen and G. Medioni, “Object modeling byregistration of multiple range images,” Robotics and Automation, 1991. Proceedings., 1991 IEEE InternationalConference on (1991),vol.3, pp. 2724-2729, 1991.Y. Chen and G. Medioni, “Object modeling byregistration of multiple range images,” Robotics and Automation, 1991. Proceedings., 1991 IEEE International Conference on (1991), vol.3, pp. 2724-2729, 1991.

以上の三次元形状計測方法において、計測対象物体の表面形状が大きく変化している場合、スリットパターンの対応が取れず、三次元形状計測が失敗する可能性がある。   In the above three-dimensional shape measurement method, when the surface shape of the measurement target object has changed greatly, there is a possibility that the slit pattern cannot be dealt with and the three-dimensional shape measurement may fail.

本発明はこのような問題に鑑みてなされたものであり、物体の表面形状が大きく変化している箇所においても、精度良く該物体までの三次元距離を計測するための技術を提供する。   The present invention has been made in view of such problems, and provides a technique for accurately measuring a three-dimensional distance to an object even at a location where the surface shape of the object has changed greatly.

本発明の一様態によれば、複数のスリットをもつ単一のパターンを投影する投影部と、該パターンが投影された対象物体の画像を撮影する撮影部と、に接続されている距離計測装置であって、前記対象物体の概略の位置姿勢を取得する手段と、前記対象物体の三次元形状を表すモデルを前記概略の位置姿勢で配置した場合の、該モデル上におけるパターンの投影位置を推定する推定手段と、前記投影位置に対応する前記画像上の座標位置を求め、該求めた座標位置の近傍から前記パターンを探索する探索手段と、前記画像から探索されたパターンと、前記投影部が投影するパターンと、の対応関係を用いて三角測量に基づく計算処理を行うことにより、前記撮影部から前記対象物体の表面までの距離を計算する計算手段と、を備えることを特徴とする。   According to one aspect of the present invention, a distance measuring device connected to a projection unit that projects a single pattern having a plurality of slits, and an imaging unit that captures an image of a target object on which the pattern is projected. The projection position of the pattern on the model is estimated when the approximate position and orientation of the target object and the model representing the three-dimensional shape of the target object are arranged in the approximate position and orientation. An estimation means for obtaining a coordinate position on the image corresponding to the projection position, a search means for searching for the pattern from the vicinity of the obtained coordinate position, a pattern searched for from the image, and the projection unit And a calculation means for calculating a distance from the imaging unit to the surface of the target object by performing a calculation process based on triangulation using a correspondence relationship with the pattern to be projected. To.

本発明の構成により、物体の表面形状が大きく変化している箇所においても、精度良く該物体までの三次元距離を計測することができる。   With the configuration of the present invention, it is possible to accurately measure the three-dimensional distance to an object even at a location where the surface shape of the object has changed greatly.

システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of a system. パターン画像の一例を示す図。The figure which shows an example of a pattern image. 対象物体4の位置姿勢を推定するために行われる処理のフローチャート。10 is a flowchart of processing performed to estimate the position and orientation of the target object 4. 投影位置演算部35が行う処理を説明する図。The figure explaining the process which the projection position calculating part 35 performs. 対象物体4の形状情報の算出原理について説明する図。The figure explaining the calculation principle of the shape information of the target object 4. FIG. 位置姿勢演算部37が行う処理の一例を示すフローチャート。The flowchart which shows an example of the process which the position and orientation calculating part 37 performs. パターン画像の一例を示す図。The figure which shows an example of a pattern image. システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of a system. 対象物体4の位置姿勢を推定するために行われる処理のフローチャート。10 is a flowchart of processing performed to estimate the position and orientation of the target object 4. 符号列の一例を示す図。The figure which shows an example of a code sequence. 符号列について説明する図。The figure explaining a code string. 対象物体4の位置姿勢を推定するために行われる処理のフローチャート。10 is a flowchart of processing performed to estimate the position and orientation of the target object 4.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
第1の実施形態に係る三次元計測装置(距離計測装置)は、三次元形状モデルとその概略位置姿勢から該モデル上におけるパターン(複数のスリットをもつ単一のパターン)の投影位置を推定し、その投影位置に対応する撮影画像上の座標位置を求め、スリットパターンの対応付けを行い、三角測量の原理に基づき距離計算を行うものである。これにより、パターンの対応付けができない計測物体に関し、三次元モデルとその概略位置姿勢の情報を用いることで対応付けを行うことが可能となり、三次元計測を行うことができる。
[First Embodiment]
The three-dimensional measurement apparatus (distance measurement apparatus) according to the first embodiment estimates the projection position of a pattern (single pattern having a plurality of slits) on the model from the three-dimensional shape model and its approximate position and orientation. The coordinate position on the captured image corresponding to the projection position is obtained, the slit pattern is associated, and the distance is calculated based on the principle of triangulation. As a result, the measurement object that cannot be associated with the pattern can be associated with each other by using the information about the three-dimensional model and the approximate position and orientation, and three-dimensional measurement can be performed.

先ず、本実施形態に係るシステムの構成について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、パターン画像に基づくパターン(光)を対象物体(計測対象物)4に投影する投影部1、該パターンが投影された対象物体4を撮影する撮影部2、対象物体4の位置姿勢を計算する三次元計測装置3、を有する。   First, the configuration of the system according to the present embodiment will be described with reference to the block diagram of FIG. As shown in FIG. 1, the system according to the present embodiment shoots a projection unit 1 that projects a pattern (light) based on a pattern image onto a target object (measurement target) 4 and the target object 4 on which the pattern is projected. The imaging unit 2 and the three-dimensional measuring device 3 that calculates the position and orientation of the target object 4 are provided.

先ず、投影部1について説明する。投影部1は、光源11と、照明光学系12と、表示素子13と、投影光学系14と、を備える。光源11は、ハロゲンランプ、LEDなど各種の発光素子である。照明光学系12は、光源11から照射された光を表示素子13へと導く機能を持つ光学系である。表示素子13は、照明光学系12から導かれた光をさらに投影光学系14に導く際に、透過率、または、反射率を空間的に制御する機能を持つ。投影光学系14は、表示素子13から導かれた光を対象物体4の特定位置に結像させるように構成された光学系である。   First, the projection unit 1 will be described. The projection unit 1 includes a light source 11, an illumination optical system 12, a display element 13, and a projection optical system 14. The light source 11 is various light emitting elements such as a halogen lamp and an LED. The illumination optical system 12 is an optical system having a function of guiding light emitted from the light source 11 to the display element 13. The display element 13 has a function of spatially controlling the transmittance or the reflectance when the light guided from the illumination optical system 12 is further guided to the projection optical system 14. The projection optical system 14 is an optical system configured to form an image of light guided from the display element 13 at a specific position of the target object 4.

次に、撮影部2について説明する。撮影部2は、撮影レンズ21と、撮影素子22と、を備える。撮影レンズ21は、対象物体4の特定位置を撮影素子22上に結像させるよう構成された光学系である。撮影素子22は、CMOSセンサ、CCDセンサなどの各種の光電変換素子である。また、撮影部2の位置・姿勢は、撮影素子22上の画像座標系における垂直方向と、投影部1及び撮影部2の2つの光軸中心位置がなす直線とが平行になるように調整されている。   Next, the photographing unit 2 will be described. The photographing unit 2 includes a photographing lens 21 and a photographing element 22. The photographing lens 21 is an optical system configured to form an image of a specific position of the target object 4 on the photographing element 22. The imaging element 22 is various photoelectric conversion elements such as a CMOS sensor and a CCD sensor. Further, the position and orientation of the photographing unit 2 are adjusted so that the vertical direction in the image coordinate system on the photographing element 22 and the straight line formed by the two optical axis center positions of the projecting unit 1 and the photographing unit 2 are parallel. ing.

次に、三次元計測装置3について説明する。   Next, the three-dimensional measuring device 3 will be described.

形状モデル保持部31は、対象物体4の三次元形状を表すモデル(三次元形状モデル)を取得して保持する。例えば、形状モデル保持部31は、外部のサーバ装置に格納されている三次元形状モデルを、該サーバ装置からダウンロードして保持する。また、形状モデル保持部31は、ユーザがキーボードやマウス等の不図示のインタフェースを操作することで入力した三次元形状モデルを取得して保持するようにしても構わない。また、形状モデル保持部31は、三次元形状モデルの候補を不図示の表示画面に表示し、表示された候補のうちユーザが選択した候補を本装置内のメモリ若しくは外部装置から取得して保持するようにしても構わない。また、三次元形状モデル選択用の部品認識を利用しても構わない。   The shape model holding unit 31 acquires and holds a model (three-dimensional shape model) representing the three-dimensional shape of the target object 4. For example, the shape model holding unit 31 downloads and holds a three-dimensional shape model stored in an external server device from the server device. Further, the shape model holding unit 31 may acquire and hold a three-dimensional shape model input by a user operating an interface (not shown) such as a keyboard or a mouse. In addition, the shape model holding unit 31 displays a 3D shape model candidate on a display screen (not shown), and acquires a candidate selected by the user from the displayed candidates from a memory in the apparatus or an external apparatus and holds the candidate. You may make it. Further, component recognition for selecting a three-dimensional shape model may be used.

このように、形状モデル保持部31による三次元形状モデルの取得方法については特定の取得方法に限るものではなく、必要時に本装置が三次元形状モデルを取得できていれば如何なる取得方法を採用しても構わない。   As described above, the acquisition method of the 3D shape model by the shape model holding unit 31 is not limited to a specific acquisition method, and any acquisition method can be adopted as long as the apparatus can acquire the 3D shape model when necessary. It doesn't matter.

また三次元形状モデルの表現手法としては、任意の三次元座標位置を有する視点からの対象物体4の表面の三次元座標位置が計算できるモデルであれば良く、モデルの表現フォーマットは特定の表現フォーマットに限るものではない。   The 3D shape model can be represented by any model that can calculate the 3D coordinate position of the surface of the target object 4 from a viewpoint having an arbitrary 3D coordinate position. It is not limited to.

任意の三次元座標位置を有する視点からの三次元形状モデルの表面の三次元座標位置を計算することができるモデルには、例えば、以下のようなモデルを用いることができる。もちろん、本実施形態に適用可能な三次元形状モデルは以下のモデルに限るものではない。   For example, the following model can be used as a model that can calculate the three-dimensional coordinate position of the surface of the three-dimensional shape model from a viewpoint having an arbitrary three-dimensional coordinate position. Of course, the three-dimensional shape model applicable to the present embodiment is not limited to the following model.

・ 三次元座標位置を有する頂点群と、頂点間を結ぶ線分で構成される平面と、で構成されたパッチモデル
・ 物体の表面形状を記述する関数表現や、その係数を組み合わせた曲面関数の集合
・ 空間上のボクセルのうち物体が占める領域の値を保持するモデル
概略位置姿勢保持部32は、対象物体4が存在する空間(計測空間)の基準座標系(計測空間中における規定の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における対象物体4の概略の位置姿勢を保持する。計測空間における対象物体4の存在する範囲は、パーツフィーダーによる物理的な接触を保持して供給されるような部品などは位置姿勢を範囲として既定することができる。また、別の部品認識装置により事前に登録された画像との照合結果の範囲で、位置姿勢を推定することも可能である。ここでは、「概略の位置姿勢」(概略位置姿勢)は、三次元空間(計測空間)での位置姿勢を定める6自由度による表現であることが望ましい。
・ Patch model composed of vertices with 3D coordinate positions and planes composed of line segments connecting vertices ・ Function expressions describing the surface shape of objects and curved surface functions combining the coefficients A model that holds the value of the area occupied by the object among the voxels in the space. The approximate position and orientation holding unit 32 is a reference coordinate system (one specified point in the measurement space) in the space (measurement space) in which the target object 4 exists. Is the origin, and the approximate position and orientation of the target object 4 in the coordinate system in which the three axes orthogonal to each other at the origin are the x-axis, y-axis, and z-axis are held. The range in which the target object 4 exists in the measurement space can be determined by setting the position and orientation as a range for parts and the like that are supplied while maintaining physical contact by the parts feeder. It is also possible to estimate the position and orientation within the range of the result of collation with an image registered in advance by another component recognition device. Here, it is desirable that the “approximate position and orientation” (approximate position and orientation) is an expression with six degrees of freedom that determines the position and orientation in a three-dimensional space (measurement space).

この概略位置姿勢を本装置に入力する方法には様々な方法が考えられ、特定の方法に限るものではない。例えば、位置姿勢のパラメータを数値入力できれば良く、他のセンサと接続して信号入力しても良い。また、投影部1および撮影部2がロボットアームの先端に装着されている場合は、ロボットアームが保持する各関節のエンコーダの値を用いて順運動学による手先の位置姿勢と装着位置とのオフセットを乗じて得られる位置姿勢を利用することも可能である。ここでは、現状の三次元空間における対象物体4の概略位置姿勢を取得できるようになっていれば構わない。既に対象物体4と計測空間との拘束が既定されているならば、それを利用して基準座標系における位置と姿勢の表現に変換すれば良い。   Various methods are conceivable as a method of inputting the approximate position and orientation to the apparatus, and the method is not limited to a specific method. For example, it is only necessary to input numerical values for the position and orientation parameters, and signals may be input by connecting to other sensors. Further, when the projection unit 1 and the imaging unit 2 are mounted on the tip of the robot arm, an offset between the position and orientation of the hand and the mounting position by forward kinematics using the encoder values of each joint held by the robot arm. It is also possible to use the position and orientation obtained by multiplying. Here, the approximate position and orientation of the target object 4 in the current three-dimensional space may be acquired. If the constraint between the target object 4 and the measurement space has already been defined, it can be converted into a representation of the position and orientation in the reference coordinate system using this.

投影パターン画像生成部33は、対象物体4に投影するパターン(パターン画像)を生成する。本実施形態では、動的シーンでの三次元計測を目的としているため、図2のような複数スリットパターンの画像を生成する。そして投影パターン画像生成部33は、生成したパターン画像を、DVIのような汎用的なディスプレイ用インタフェースを介して投影部1に出力する。投影部1は、投影パターン画像生成部33から出力されたパターン画像に基づくパターンを、対象物体4に対して投影する。   The projection pattern image generation unit 33 generates a pattern (pattern image) to be projected onto the target object 4. Since the present embodiment is intended for three-dimensional measurement in a dynamic scene, an image having a plurality of slit patterns as shown in FIG. 2 is generated. Then, the projection pattern image generation unit 33 outputs the generated pattern image to the projection unit 1 via a general display interface such as DVI. The projection unit 1 projects a pattern based on the pattern image output from the projection pattern image generation unit 33 onto the target object 4.

撮影画像取得部34は、撮影部2で標本化ならびに量子化されたデジタル画像信号を取り込み、該取り込んだデジタル画像信号から、各画素が輝度値(濃度値)で表される画像を、撮影画像として取得する。また、撮影画像取得部34は、RS232CやIEEE488などの汎用の通信インタフェースを介して、撮影部2の動作(撮影のタイミングなど)を制御する。   The captured image acquisition unit 34 captures the digital image signal sampled and quantized by the capturing unit 2, and captures an image in which each pixel is represented by a luminance value (density value) from the captured digital image signal. Get as. The captured image acquisition unit 34 controls the operation of the imaging unit 2 (imaging timing, etc.) via a general-purpose communication interface such as RS232C or IEEE488.

投影位置演算部35は、形状モデル保持部31に保持されている三次元形状モデルを、概略位置姿勢保持部32が保持する概略位置姿勢で配置した場合に、該三次元形状モデル上におけるパターンの投影位置を推定する。そして投影位置演算部35は、該推定位置に対応する撮影部2の撮影面上の位置(撮影部2の撮影面に射影される位置)を、射影画像座標位置として求める。より具体的には、投影位置演算部35は、投影パターン画像生成部33が生成したパターン画像上の座標位置と、撮影部2による撮影画像上に投影される位置(射影画像座標位置)との関係を、三次元形状モデル及び概略位置姿勢を用いて算出する。投影位置演算部35の動作については以下で詳しく説明する。   When the three-dimensional shape model held in the shape model holding unit 31 is arranged in the approximate position and orientation held by the approximate position and orientation holding unit 32, the projection position calculation unit 35 generates a pattern on the three-dimensional shape model. Estimate the projection position. Then, the projection position calculation unit 35 obtains a position on the photographing surface of the photographing unit 2 corresponding to the estimated position (a position projected on the photographing surface of the photographing unit 2) as a projected image coordinate position. More specifically, the projection position calculation unit 35 calculates a coordinate position on the pattern image generated by the projection pattern image generation unit 33 and a position (projected image coordinate position) projected on the captured image by the imaging unit 2. The relationship is calculated using the three-dimensional shape model and the approximate position and orientation. The operation of the projection position calculator 35 will be described in detail below.

距離演算部36は、撮影部2による対象物体4の撮影画像中の「投影位置演算部35で推定された射影画像座標位置」の周辺(近傍)からパターンを探索し、該探索されたパターンと、パターン画像上のパターンと、の対応付けを行う。そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出する。   The distance calculation unit 36 searches for a pattern from the vicinity (neighborhood) of the “projection image coordinate position estimated by the projection position calculation unit 35” in the captured image of the target object 4 by the imaging unit 2, and the searched pattern and The pattern image is associated with the pattern on the pattern image. Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape information of is calculated.

なお、投影位置演算部35では、三次元形状モデルの投影と射影の関係があるパターンのみを使うことができるため、他の物体や背景の領域に対する距離計測の結果を含めないようにすることができる。   Note that the projection position calculation unit 35 can use only a pattern having a projection-projection relationship with the projection of the three-dimensional shape model, so that it does not include the result of distance measurement for other objects and background regions. it can.

次に、対象物体4の位置姿勢を推定するために行われる処理について、同処理のフローチャートを示す図3を用いて説明する。   Next, processing performed to estimate the position and orientation of the target object 4 will be described with reference to FIG. 3 showing a flowchart of the processing.

ステップS301では、形状モデル保持部31は、対象物体4の三次元形状を表すモデルである三次元形状モデルを取得して保持する。ステップS302では、概略位置姿勢保持部32は、対象物体4の基準座標系における概略位置姿勢を取得して保持する。   In step S <b> 301, the shape model holding unit 31 acquires and holds a three-dimensional shape model that is a model representing the three-dimensional shape of the target object 4. In step S302, the approximate position and orientation holding unit 32 acquires and holds the approximate position and orientation of the target object 4 in the reference coordinate system.

ステップS303では、投影パターン画像生成部33は、対象物体4に投影するパターン(パターン画像)を生成して投影部1に出力する。ステップS304では、投影部1は、投影パターン画像生成部33から出力されたパターン画像に基づくパターンを、対象物体4に対して投影する。   In step S <b> 303, the projection pattern image generation unit 33 generates a pattern (pattern image) to be projected onto the target object 4 and outputs it to the projection unit 1. In step S <b> 304, the projection unit 1 projects a pattern based on the pattern image output from the projection pattern image generation unit 33 onto the target object 4.

ステップS305では撮影画像取得部34は、撮影部2を制御して、パターンが投影された対象物体4を撮影させる。そして撮影画像取得部34は、撮影部2からのデジタル画像信号を取り込み、該取り込んだデジタル画像信号から撮影画像を生成する。当然ながら、この撮影画像には、パターンが投影された対象物体4が写っている。   In step S305, the photographed image acquisition unit 34 controls the photographing unit 2 to photograph the target object 4 on which the pattern is projected. Then, the captured image acquisition unit 34 captures the digital image signal from the capturing unit 2 and generates a captured image from the captured digital image signal. Of course, the captured object includes the target object 4 on which the pattern is projected.

ステップS306では、投影位置演算部35は、形状モデル保持部31に保持されている三次元形状モデルを、概略位置姿勢保持部32が保持する概略位置姿勢で配置した場合に、該三次元形状モデル上におけるパターンの投影位置を推定する。そして投影位置演算部35は、該推定した投影位置に対応する撮影部2の撮影面上の位置を射影画像座標位置として求める。   In step S <b> 306, when the three-dimensional shape model held by the shape model holding unit 31 is arranged in the approximate position and orientation held by the approximate position and orientation holding unit 32, the projection position calculation unit 35 performs the three-dimensional shape model. Estimate the projected position of the pattern above. Then, the projection position calculation unit 35 obtains a position on the photographing surface of the photographing unit 2 corresponding to the estimated projection position as a projected image coordinate position.

ステップS307では、距離演算部36は、撮影画像中の射影画像座標位置の周辺(近傍)から対応するパターンを探索し、該探索されたパターンと、パターン画像上のパターンと、の対応付けを行う。そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出する。   In step S307, the distance calculation unit 36 searches for a corresponding pattern from the vicinity (near) of the projected image coordinate position in the captured image, and associates the searched pattern with the pattern on the pattern image. . Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape information of is calculated.

次に、投影位置演算部35が行う処理について、図4を用いて説明する。まず、投影部1の投影照明系が理想的な点光源からパターンを投影するものとして、焦点距離f=1とした仮想的な正規化投影画像面を設定し、これをパターン投影画像面と呼ぶ。投影パターン画像生成部33は、模式的には、パターン投影画像面にパターンを書き込むと、投影部1が実際の照明、レンズなどのデバイスにより該パターンを対象物体4に対して投影する。実際には、投影のレンズ歪みや理想的な点光源を用いられないことによる影響で、投影される像に歪みが生じる場合があるが、事前に光学補正するか、パターン画像を補正することで影響を低減することができる。   Next, processing performed by the projection position calculation unit 35 will be described with reference to FIG. First, assuming that the projection illumination system of the projection unit 1 projects a pattern from an ideal point light source, a virtual normalized projection image plane with a focal length f = 1 is set, and this is called a pattern projection image plane. . Typically, when the projection pattern image generation unit 33 writes a pattern on the pattern projection image plane, the projection unit 1 projects the pattern onto the target object 4 by a device such as actual illumination or a lens. In reality, the projected image may be distorted due to the effects of projection lens distortion and the inability to use an ideal point light source. However, optical correction or pattern image correction can be performed in advance. The influence can be reduced.

パターン投影画像面上におけるパターンの座標位置mをm=[u,v,1]とする。計測空間の基準座標系に対する投影中心の座標系を投影座標系と定義し、その座標系について、回転成分を3自由度、並進成分を3自由度の6自由度を用いて表現する。すなわち、計測空間の基準座標系に対する投影座標系の位置成分のオフセット及び姿勢成分のオフセットをそれぞれ3自由度で表し、合計6自由度を用いて表現する。 The coordinate position m of the pattern on the pattern projection image plane is assumed to be m = [u, v, 1] T. The coordinate system of the projection center with respect to the reference coordinate system of the measurement space is defined as a projected coordinate system, and the coordinate system is expressed using six degrees of freedom, ie, a rotation component and three translational degrees. In other words, the offset of the position component and the offset of the posture component of the projection coordinate system with respect to the reference coordinate system of the measurement space are each expressed by 3 degrees of freedom, and expressed using a total of 6 degrees of freedom.

回転成分Rの表現としては、オイラー角、ロール・ピッチ・ヨー、回転軸回転角、4次元数などのいずれの表現手法を用いても構わない。ここでは、回転表現から得られる3×3の回転行列Rを用いる。並進成分はt、t、tの3成分である3×1の行列t=[t,t,tを用いる。 As the expression of the rotation component R, any expression method such as Euler angle, roll / pitch / yaw, rotation axis rotation angle, and four-dimensional number may be used. Here, a 3 × 3 rotation matrix R obtained from the rotation representation is used. Translation component t x, t y, 3 is the component 3 × 1 matrix t = [t x, t y , t z] of t z using T.

投影部1から投影されたパターンは、基準座標系でのパターン投影位置M=[X,Y,Z]に投影されるものとする。光源からパターン投影画像面上のパターン座標位置mを通過する直線上にパターン投影位置Mが存在するものとすると、光線(直線)上の位置(パターン投影位置Mとなりうる位置)は下記の式で表現できる。 The pattern projected from the projection unit 1 is projected onto a pattern projection position M = [X, Y, Z] T in the reference coordinate system. Assuming that the pattern projection position M exists on a straight line passing through the pattern coordinate position m on the pattern projection image plane from the light source, the position on the light beam (straight line) (position that can be the pattern projection position M) is expressed by the following equation. Can express.

Figure 2015137897
Figure 2015137897

ここで、λは直線の方向ベクトルのスケールとなる正の値である。L=[L,L,Lは、直線の方向ベクトルの成分を簡単のためにまとめたものである。 Here, λ is a positive value serving as a scale of the linear direction vector. L = [L x , L y , L z ] T is a summary of the components of a straight direction vector for simplicity.

次に、式(1)の直線と三次元形状モデル表面との交点位置を求め、これを三次元形状モデル表面上の投影位置Mとする。ここでは、形状モデル保持部31に保持されている三次元形状モデルを構成するN個の三角形パッチのそれぞれについて、式(1)の直線と交差するかどうかが判定される。三次元形状モデルのi番目の三角形パッチのj番目の頂点の座標をPij=[pxij、pyij、pzijとする。そして以下の式(2)により、この座標Pijを、概略位置姿勢保持部32が保持する概略位置姿勢の回転成分(回転)Rm、並進成分(並進)tmを使って、計測空間の基準座標系の座標P’ijに変換する。 Next, the position of the intersection between the straight line of formula (1) and the 3D shape model surface is obtained, and this is set as the projection position M on the 3D shape model surface. Here, it is determined whether or not each of the N triangular patches constituting the three-dimensional shape model held in the shape model holding unit 31 intersects with the straight line of Expression (1). Let the coordinates of the j-th vertex of the i-th triangular patch of the three-dimensional shape model be P ij = [px ij , py ij , pz ij ] T. Then, using the following equation (2), the coordinates P ij are converted into reference coordinates in the measurement space using the rotation component (rotation) Rm and the translation component (translation) tm of the approximate position and orientation held by the approximate position and orientation holding unit 32. Convert to system coordinates P′ij.

Figure 2015137897
Figure 2015137897

三角形パッチの平面の向き(法線ベクトル)は、三次元形状モデルのデータとして形状モデル保持部31に保持されているものとする。計測空間でのi番目の三角形パッチの法線ベクトルn’は、形状モデル保持部31に保持されている三角形パッチの法線ベクトルnに回転Rmを掛けたものとなる。 The plane direction (normal vector) of the triangular patch is assumed to be held in the shape model holding unit 31 as data of a three-dimensional shape model. The normal vector n ′ i of the i-th triangular patch in the measurement space is obtained by multiplying the normal vector n i of the triangular patch held in the shape model holding unit 31 by the rotation Rm.

頂点P’ijと、直線との交点Pcと、を結ぶ線分と、該頂点P’ijを含む三角形パッチの法線ベクトルn’と、は直交するので、内積の関係から、以下の式(3)が成り立つ。 Since the line segment connecting the vertex P ′ ij and the intersection point Pc i of the straight line and the normal vector n ′ i of the triangle patch including the vertex P ′ ij are orthogonal to each other, Equation (3) holds.

Figure 2015137897
Figure 2015137897

この式3では、頂点P’i0についての式である。この式(3)に式(1)を代入すると、次式(4)のようになる。 In this formula 3, it is a formula about vertex P ' i0 . Substituting equation (1) into equation (3) gives the following equation (4).

Figure 2015137897
Figure 2015137897

さらに、式(4)をλについてまとめると式(5)となる。   Further, formula (4) can be summarized with respect to λ to formula (5).

Figure 2015137897
Figure 2015137897

これを、式(1)に代入して交点Pcの座標として求めると、次式(6)のようになる。 When this is determined as the coordinates of the intersection Pc i into Equation (1), the following equation (6).

Figure 2015137897
Figure 2015137897

三角形パッチの内部に交点Pcが存在するかどうかのチェックとして、三角形パッチの各頂点と交点Pcとの外積を計算し、それぞれが法線ベクトルn’と同じ向きの場合に、三角形パッチの内部に交点があることになる。具体的には、次の3つの式が全て正の場合に、交点が三角形パッチの内部に存在する。 As a check of whether or not the intersection point Pc i exists inside the triangle patch, the outer product of each vertex of the triangle patch and the intersection point Pc i is calculated, and when each of the triangle patches has the same direction as the normal vector n ′ i , the triangle patch There will be a crossing point inside. Specifically, when all of the following three expressions are positive, the intersection exists inside the triangular patch.

Figure 2015137897
Figure 2015137897

なお、投影座標系原点により近い三角形パッチとの交点を求める必要がある。すなわち、交点を有する三角形パッチのうち、λ>0の条件で投影座標系原点との距離が最も近い交点を有する三角形パッチを特定し、該特定した三角形パッチが有する交点を、三次元形状モデル表面上におけるパターンの推定位置(投影位置M)とすればよい。具体的には、以下の式(8)に従った計算処理を行えばよい。   Note that it is necessary to obtain an intersection with a triangular patch closer to the projection coordinate system origin. That is, among the triangular patches having intersection points, a triangular patch having an intersection point closest to the projected coordinate system origin under the condition of λ> 0 is specified, and the intersection point of the specified triangular patch is determined as the surface of the three-dimensional shape model. The estimated position (projection position M) of the pattern above may be used. Specifically, a calculation process according to the following equation (8) may be performed.

Figure 2015137897
Figure 2015137897

式(8)により得られた、三角形パッチとの交点が、最終的な、三次元形状モデル表面上におけるパターンの推定位置(投影位置M)となる。換言すれば、パターン画像上のある位置のパターンが、概略位置姿勢で配置された三次元形状モデルに投影されたと仮定した場合に、その投影位置を、推定位置Mとして推定する。   The intersection point with the triangular patch obtained by Expression (8) becomes the final estimated position (projection position M) of the pattern on the surface of the three-dimensional shape model. In other words, when it is assumed that a pattern at a certain position on the pattern image has been projected onto the three-dimensional shape model arranged in the approximate position and orientation, the projection position is estimated as the estimated position M.

一方、撮影部2は上記の通り、投影部1によりパターンが投影されている対象物体4を撮影している。撮影部2の撮像系をカメラとして中心射影のモデルとして考える。撮影画像面(射影画像面)までの焦点距離をf’とする。さらに、基準座標系におけるパターンの投影位置Mが撮影画像上に射影(撮影)されているとする。ここで、基準座標系におけるパターンの投影位置Mが写っている撮影画像中の位置(撮影画像上の射影画像座標位置)m’を、m’=[uc’,vc’,1]とする。撮影部2が有する撮影レンズ21の中心を基準座標系における回転と並進の6自由度で表現し、それぞれR’とt’の行列として表現すると中心射影の関係から次式(9)のようになる。 On the other hand, the photographing unit 2 photographs the target object 4 on which the pattern is projected by the projection unit 1 as described above. The imaging system of the imaging unit 2 is considered as a camera and a model of central projection. Let f ′ be the focal length to the captured image plane (projected image plane). Furthermore, it is assumed that the projection position M of the pattern in the reference coordinate system is projected (captured) on the captured image. Here, m ′ = [uc ′, vc ′, 1] T is a position (projected image coordinate position on the photographed image) m ′ in the photographed image where the projection position M of the pattern in the reference coordinate system is shown. . If the center of the photographing lens 21 of the photographing unit 2 is expressed by six degrees of freedom of rotation and translation in the reference coordinate system, and expressed as a matrix of R ′ and t ′, respectively, from the relationship of central projection, the following equation (9) is obtained. Become.

Figure 2015137897
Figure 2015137897

なお、sはスケール要素のスカラー値である。ここでは、投影部1のレンズの座標系と撮影部2の座標系が固定されているとし、事前にそのローカル座標変換(位置姿勢関係)は校正手続きにより求まっているとする。具体的な校正手続きは、校正指標を複数撮影して複数の校正指標座標値を用いて最小自乗法により求めることができるし、他の方法で校正しても構わない。ローカル座標変換行列をR(回転行列)及びt(並進行列)で表すと、以下の式(10)が成り立つ。 Here, s is a scalar value of the scale element. Here, it is assumed that the coordinate system of the lens of the projection unit 1 and the coordinate system of the photographing unit 2 are fixed, and the local coordinate conversion (position and orientation relationship) is obtained in advance by a calibration procedure. A specific calibration procedure can be obtained by taking a plurality of calibration indices and using a plurality of calibration index coordinate values by the least square method, or by another method. When the local coordinate transformation matrix is represented by R L (rotation matrix) and t L (parallel progression), the following equation (10) is established.

Figure 2015137897
Figure 2015137897

式(8)により得られた「三次元形状モデルの表面上におけるパターン投影位置M」と、式(10)と、を式(9)に代入して式(11)を得る。そして、この式(11)により、基準座標系におけるパターンの投影位置Mが写っている撮影画像中の位置(撮影画像上の射影画像座標位置)m’を得る。   By substituting “pattern projection position M on the surface of the three-dimensional shape model” obtained by Expression (8) and Expression (10) into Expression (9), Expression (11) is obtained. Then, from this equation (11), a position (projected image coordinate position on the photographed image) m ′ in the photographed image where the projection position M of the pattern in the reference coordinate system is captured is obtained.

Figure 2015137897
Figure 2015137897

撮影画像上の射影画像座標位置m’は、対象物体4の位置姿勢と概略位置姿勢保持部32が保持している概略位置姿勢とが一致しているときには、該撮影画像中のパターンの位置と一致する。しかし、対象物体4の位置姿勢と概略位置姿勢保持部32が保持している概略位置姿勢とがわずかに異なっている場合には、投影位置演算部35が算出した射影画像座標位置m’の近傍(撮影画像上)に、投影パターンの像が写っている。そこで、投影位置演算部35は、距離演算部36に対して照合領域の範囲を指示する。距離演算部36は、指示された照合領域の範囲(すなわち算出した射影画像座標位置m’の近傍領域)内で対応するパターンを探索し、該探索されたパターンと、パターン画像上のパターンと、の対応付けを行う。   When the projected image coordinate position m ′ on the captured image matches the position and orientation of the target object 4 with the approximate position and orientation held by the approximate position and orientation holding unit 32, the projected image coordinate position m ′ is the position of the pattern in the captured image. Match. However, if the position and orientation of the target object 4 and the approximate position and orientation held by the approximate position and orientation holding unit 32 are slightly different, the vicinity of the projected image coordinate position m ′ calculated by the projection position calculation unit 35 An image of the projection pattern is shown on the photographed image. Therefore, the projection position calculation unit 35 instructs the distance calculation unit 36 on the range of the collation area. The distance calculation unit 36 searches for a corresponding pattern within the range of the designated collation region (that is, a region near the calculated projected image coordinate position m ′), the searched pattern, the pattern on the pattern image, Is associated.

そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出するのであるが、この算出の原理について、図5を用いて説明する。   Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape principle of this calculation is described with reference to FIG.

撮影部2の光学中心をC、撮影画像面をI、焦点距離をfc、画像中心ccの座標を(uco、vco)、とする。このとき、撮影部2の内部行列Aは以下の式(12)のように記述される。 The optical center of the imaging unit 2 is C c , the captured image plane is I c , the focal length is fc, and the coordinates of the image center cc are (u co , v co ). At this time, the internal matrix A c of the imaging section 2 may be described as the following equation (12).

Figure 2015137897
Figure 2015137897

また、投影部1の光学中心をC、投影画像面をI、焦点距離をfp、画像中心cpの座標を(upo、vpo)、とする。このとき、投影部1の内部行列Aは以下の式(13)のように記述される。 Further, it is assumed that the optical center of the projection unit 1 is C p , the projected image plane is I p , the focal length is fp, and the coordinates of the image center cp are (u po , v po ). At this time, the internal matrix A p of projection unit 1 is described by the following equation (13).

Figure 2015137897
Figure 2015137897

撮影部2の内部行列Aと投影部1の内部行列Aは公知の技術である内部パラメータのキャリブレーション方法を用いることで算出することが可能である。 Internal matrix A p of projection unit 1 and the internal matrix A c of the imaging section 2 can be calculated by using the calibration method of the internal parameter is a known technique.

撮影部2の座標系(X、Y、Z)と投影部1の座標系(X、Y、Z)との間の相対位置関係を表す外部パラメータは、回転行列Rと並進行列Tである(それぞれ図4のR,tに対応)。回転行列Rは3×3の行列であり、並進行列Tは3×1の行列である。RとTは公知の技術である外部パラメータのキャリブレーション方法を用いることで算出することが可能である。 External parameters representing the relative positional relationship between the coordinate system (X, Y, Z) of the imaging unit 2 and the coordinate system (X p , Y p , Z p ) of the projection unit 1 are a rotation matrix R and a parallel progression T (Corresponding to R L and t L in FIG. 4 respectively). The rotation matrix R is a 3 × 3 matrix, and the parallel progression T is a 3 × 1 matrix. R and T can be calculated by using a known external parameter calibration method.

撮影部2のカメラ座標系を原点とする空間中の点Mの座標を(X、Y、Z)とする。点Mを撮影部2の撮影画像面Iに射影した点mの座標を(u、v)とする。その対応関係は以下の式(14)で記述される。 The coordinates of the point M in the space with the camera coordinate system of the photographing unit 2 as the origin are defined as (X, Y, Z). The coordinates of the projection the point m c a point M on the photographic image plane I c of the imaging section 2 and (u c, v c). The corresponding relationship is described by the following formula (14).

Figure 2015137897
Figure 2015137897

sはスカラーである。また、この点Mを投影部1の投影画像面Iに射影した点mの座標を(u、v)とする。その対応関係は以下の式(15)で記述される。 s is a scalar. Further, the coordinates of the m p points projected on the point M the projection image plane I p of the projection unit 1 (u p, v p). The corresponding relationship is described by the following equation (15).

Figure 2015137897
Figure 2015137897

s’はスカラーである。上記の式(14)及び式(15)を展開すると、以下の式(16)で示す4つの連立方程式ができる。   s' is a scalar. When the above formulas (14) and (15) are expanded, the following four simultaneous equations represented by the following formula (16) can be obtained.

Figure 2015137897
Figure 2015137897

点mのピクセル座標(u、v)と点mのピクセル座標(u、v)は空間符号化法などのパターン投影法を用いることで求められる。また、Cij(i=1〜3、j=1〜3)、Pij(i=1〜3、j=1〜3)は内部行列と外部パラメータから算出されるため、予めキャリブレーションにより求められている。式(14)において点Mの座標値(X、Y、Z)のみが未知数であり、連立方程式を解くことでこれを求めることができる。なお、求める未知数である点Mの座標値は(X、Y、Z)の3つであるため、投影部1の座標値(u、v)のいずれか一方を求めれば、点Mの座標値を算出することができる。以上が三角測量法に基づく距離計測の原理である。 Point m c of the pixel coordinates (u c, v c) a point m p pixel coordinates (u p, v p) is obtained by using a pattern projection method such as spatial encoding method. Since C ij (i = 1 to 3, j = 1 to 3) and P ij (i = 1 to 3, j = 1 to 3) are calculated from the internal matrix and the external parameters, they are obtained in advance by calibration. It has been. In the equation (14), only the coordinate value (X, Y, Z) of the point M is an unknown, and can be obtained by solving simultaneous equations. Incidentally, it determined for the coordinate value of a point is unknown M is three (X, Y, Z), coordinate values of the projection unit 1 (u p, v p) by obtaining one of, the point M Coordinate values can be calculated. The above is the principle of distance measurement based on the triangulation method.

このように、撮影画像上におけるスリットパターンの位置を三次元形状モデルとその概略位置姿勢から推定し、投影されるスリットパターンの撮影部2−投影部1間の対応付けを行うことで三次元計測点の取得が可能となる。   As described above, the position of the slit pattern on the photographed image is estimated from the three-dimensional shape model and its approximate position and orientation, and the projected slit pattern is associated between the photographing unit 2 and the projection unit 1 to perform three-dimensional measurement. Points can be acquired.

なお、三次元計測装置3、撮影部2、投影部1のそれぞれは別個の装置としても良いし、一体化させても良い。別個の装置とする場合には、例えば、投影部1には、市販の液晶プロジェクタを利用することができ、撮影部2には、市販のカメラとレンズを利用することが可能である。三次元計測装置とは、それぞれの装置で利用可能な信号を出力するための機構と、信号を受け取るための入出力部分があれば良い。そのようにすれば、利用者の用途や計測範囲に応じて装置を拡張して利用することができる。   Each of the three-dimensional measuring device 3, the photographing unit 2, and the projecting unit 1 may be a separate device or may be integrated. In the case of a separate device, for example, a commercially available liquid crystal projector can be used for the projection unit 1, and a commercially available camera and lens can be used for the photographing unit 2. The three-dimensional measuring device only needs to have a mechanism for outputting a signal usable by each device and an input / output portion for receiving the signal. By doing so, the device can be expanded and used in accordance with the user's application and measurement range.

[第2の実施形態]
第1の実施形態で説明した三次元計測装置では、距離計算をするために、複数スリットパターンを用いた。そのため、スリットパターンの対応付けに概略位置姿勢の初期値を必要とした。
[Second Embodiment]
In the three-dimensional measuring apparatus described in the first embodiment, a plurality of slit patterns are used for distance calculation. Therefore, the initial value of the approximate position and orientation is required for associating the slit pattern.

本実施形態では、対象物体に対して、スリットの幅の周期的な変化によって複数のスリットパターンとそれを一意に対応付ける符号パターンを作成して投影する。例えば、図7のような符号パターンを投影することで粗く概略位置姿勢を求める。そして、対応付けできなかったスリットパターンに関しては、撮影画像上におけるスリットパターンの位置を三次元形状モデルと粗く推定した概略位置姿勢から求め、投影されるスリットパターンの撮影部−投影部間の対応付けを行う。以上の繰り返し処理により三次元計測点数を増やすことが目的である。   In the present embodiment, a plurality of slit patterns and a code pattern that uniquely associates them are created and projected on the target object by periodically changing the width of the slit. For example, the approximate position and orientation are roughly obtained by projecting a code pattern as shown in FIG. For the slit pattern that could not be associated, the position of the slit pattern on the captured image is obtained from the three-dimensional shape model and the roughly estimated position and orientation, and the projected slit pattern is associated between the imaging unit and the projection unit. I do. The purpose is to increase the number of three-dimensional measurement points by the above repeated processing.

本実施形態に係るシステムの構成例について、図8のブロック図を用いて説明する。図8において、図1に示した機能部と同じ機能部については同じ参照番号を付しており、該機能部に係る説明は省略する。   A configuration example of the system according to the present embodiment will be described with reference to the block diagram of FIG. In FIG. 8, the same functional units as those shown in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.

図8に示した構成は、図1に示した構成に、位置姿勢演算部37と、投影符号列生成部81と、撮影符号列識別部82と、を加えた構成を有している。   The configuration shown in FIG. 8 has a configuration obtained by adding a position and orientation calculation unit 37, a projection code sequence generation unit 81, and an imaging code sequence identification unit 82 to the configuration shown in FIG.

投影符号列生成部81が符号列を生成する方法について説明する。符号列は、図10に示す如く、u、v各方向に符号が並んでいる2次元配列であり、以下に述べる規則を用いて符号化されている。本実施形態では、u方向、v方向で1つずつ、計縦横2方向で2つのde Bruijn系列を選択する。   A method by which the projection code string generation unit 81 generates a code string will be described. As shown in FIG. 10, the code string is a two-dimensional array in which codes are arranged in the u and v directions, and is encoded using the rules described below. In the present embodiment, two de Bruijn sequences are selected one by one in the u direction and one in the v direction, and in two vertical and horizontal directions.

de Bruijn系列とは、周期lの数列であって、連続するm個を見ると周期の中でどのパターンも一つのみ表れるものである。de Bruijn系列の選択は、パターン画像として使用できるシンボルの数をkとし、サンプリング形状を囲む矩形の大きさをm×(n+1)とすると、u方向のde Bruijn系列はl=kのものを、v方向はl=kのものをそれぞれ選択する。本実施形態では、シンボル数=3であるため、k=3である。また、部分符号列の形状は、全て大きさ3×3の矩形で囲まれるため、m=3、n=2となる。本実施形態のu方向で用いるk=3、m=3(系列長3=27)のde Bruijn系列は、以下に示す数列となる。 The de Bruijn sequence is a numerical sequence with a period l, and only one pattern appears in the period when m consecutive elements are viewed. The selection of the de Bruijn sequence is such that the number of symbols that can be used as a pattern image is k, and the size of the rectangle surrounding the sampling shape is m × (n + 1), and the de Bruijn sequence in the u direction has l u = k m the, v directions respectively chosen for an l v = k n. In the present embodiment, since the number of symbols = 3, k = 3. Also, since the partial code string is all surrounded by a 3 × 3 rectangle, m = 3 and n = 2. The de Bruijn sequence of k = 3 and m = 3 (sequence length 3 3 = 27) used in the u direction of the present embodiment is a sequence shown below.

Figure 2015137897
Figure 2015137897

同様に、本実施形態のv方向で用いるk=3、n=2(系列長3=9)のde Bruijn系列を以下に示す。 Similarly, a de Bruijn sequence of k = 3 and n = 2 (sequence length 3 2 = 9) used in the v direction of the present embodiment is shown below.

Figure 2015137897
Figure 2015137897

次に、上記2つのde Bruijn系列を用いた符号列の生成方法について説明する。生成される符号列fijは、式(19)のように最初にu方向i=1行目として、u方向のde Bruijn系列をそのまま符号列として使用する。 Next, a method for generating a code string using the above two de Bruijn sequences will be described. The generated code string f ij uses the u-direction de Bruijn sequence as it is as the code string as it is in the u-direction i = 1st row as in the equation (19).

Figure 2015137897
Figure 2015137897

u方向2行目以降は、以下に示すような式(20)で表わされる。   The second and subsequent lines in the u direction are expressed by the following equation (20).

Figure 2015137897
Figure 2015137897

1つ前の行に対して、u方向のde Bruijn系列を加算した結果を符号列とする。ここで、加算結果は1〜kで表されるk進数で表し、繰り上がりは無視する。以上のように、全てのu方向のde Bruijn系列を1列ずつ加算して符号列を求めていくことにより、図10に示すようなu、v各方向2次元の符号列を生成することが出来る。   A code string is a result of adding the de Bruijn sequence in the u direction to the previous row. Here, the addition result is represented by a k-ary number represented by 1 to k, and the carry is ignored. As described above, a code string is obtained by adding all the de Bruijn sequences in the u direction one by one, thereby generating a two-dimensional code string in each of the u and v directions as shown in FIG. I can do it.

以上の方法で生成した符号列は図11に示す如く、符号列内のm×nの大きさの任意の位置の矩形で囲まれる領域内で、ある行とある列とを固定した式(21)のような順序でサンプリングしたm、nの長さの部分符号列は符号列中で一つしか存在しない。iおよびjは、符号サンプリングの座標を示す。   As shown in FIG. 11, the code string generated by the above method is a formula (21) in which a certain row and a certain column are fixed in an area surrounded by a rectangle at an arbitrary size of m × n in the code string. ), There is only one partial code sequence of m and n lengths sampled in the order as shown in FIG. i and j indicate the coordinates of the code sampling.

Figure 2015137897
Figure 2015137897

ただし、式(21)は、図11に示すようなサンプリング形状が十字状であるときの順序であることを前提とする。サンプリングする長さに応じ、サンプリング形状を変更し、任意の順序でサンプリングしても良い。また、本実施形態ではDe Bruijn系列を用いたが、符号列は、M系列など、任意で選択した部分符号列がほかの部分符号列に対して一意に決まる疑似ランダム系列を用いてもよい。   However, Expression (21) is premised on the order when the sampling shape as shown in FIG. 11 is a cross shape. Depending on the length to be sampled, the sampling shape may be changed and sampling may be performed in an arbitrary order. In the present embodiment, the De Bruijn sequence is used, but the code sequence may be a pseudo-random sequence in which an arbitrarily selected partial code sequence is uniquely determined with respect to other partial code sequences, such as an M sequence.

投影パターン画像生成部33は、投影符号列生成部81から受けた符号列の各符号を、該符号に対応するパターンに置き換えたものを、パターン画像として生成する。例えば、図7(a)のようなエピポーラ線と計測パターンで区切られた領域を3つの領域に分け、それぞれの領域を3値の符号に割り当てる。たとえば、左にあれば符号「1」、中央にあれば符号「2」、右にあれば符号「3」と対応づける。   The projection pattern image generation unit 33 generates a pattern image obtained by replacing each code of the code sequence received from the projection code sequence generation unit 81 with a pattern corresponding to the code. For example, the region divided by the epipolar line and the measurement pattern as shown in FIG. 7A is divided into three regions, and each region is assigned to a ternary code. For example, the symbol “1” is associated with the left, the symbol “2” is associated with the center, and the symbol “3” is associated with the right.

そして図7(b)に示す如く、符号列が示す最上ラインの符号が左端から順に「2」、「1」となっている場合、図7(b)の右側に示す如く、最上ラインの左端から順に、符号「2」、符号「1」に対応するように符号パターンを割りあてる。このように、2ライン目以降の各ラインについても同様にして各符号に対応する符号パターンを割り当てることで、符号列に応じて画像を生成することができる。   When the code of the uppermost line indicated by the code string is “2” and “1” in order from the left end as shown in FIG. 7B, the left end of the uppermost line is shown as shown on the right side of FIG. The code patterns are assigned so as to correspond to the code “2” and the code “1” in order. In this manner, by assigning code patterns corresponding to the respective codes in the same manner for the second and subsequent lines, an image can be generated according to the code string.

なお、本実施形態では、投影パターン画像は、図7に示すように計測パターンと符号パターンの二種類の方向性を持つ線パターンで構成されているが、二種類以上の方向性を持つ線パターンから構成してもよい。この場合は、それぞれの方向性に応じたSobelフィルタを使用してフィルタ処理を行い、同一の方向性をもつ線パターンのみを抽出すればよい。これにより、被写体の歪みをより詳細に計測することができる。   In this embodiment, as shown in FIG. 7, the projection pattern image is composed of line patterns having two types of directions, that is, a measurement pattern and a code pattern, but a line pattern having two or more types of directions. You may comprise. In this case, it is only necessary to perform a filter process using a Sobel filter corresponding to each directionality and extract only line patterns having the same directionality. Thereby, the distortion of the subject can be measured in more detail.

また、符号パターンの形状は四角に限るものではなく、円形や三角などでもよい。また、領域の割り当てによって符号と対応付けるのではなく、パターンの形状や方向性そのものを対応付けてもよい。   The shape of the code pattern is not limited to a square, and may be a circle or a triangle. Further, instead of associating with a code by assigning a region, a pattern shape or direction itself may be associated.

撮影符号列識別部82は、撮影画像取得部34が取り込んだ撮影画像から、対象物体4上に投影されている符号パターンを抽出し、エピポーラ線と計測パターンとで区切られた領域の配置関係から、対応した符号パターンの符号を撮影符号列として取得する。   The photographic code string identification unit 82 extracts a code pattern projected on the target object 4 from the photographic image captured by the photographic image acquisition unit 34, and based on the arrangement relationship of the regions divided by the epipolar line and the measurement pattern. The code of the corresponding code pattern is acquired as a photographing code string.

本実施形態に係る距離演算部36は、符号列の中で唯一決定づける特徴を示す部分符号列から、パターン画像と撮影画像の計測パターン同士の対応付けを行う。さらに、この対応付け結果を用いて、三角測量の原理で撮影部2とパターン画像が投影された対象物体4との間の距離を示す距離情報、すなわち対象物体4の形状を計算する。   The distance calculation unit 36 according to the present embodiment associates the measurement patterns of the pattern image and the captured image with each other from the partial code sequence indicating the characteristic that is uniquely determined in the code sequence. Further, using this association result, distance information indicating the distance between the imaging unit 2 and the target object 4 on which the pattern image is projected, that is, the shape of the target object 4 is calculated by the principle of triangulation.

位置姿勢演算部37は、距離演算部36が求めた距離と、概略位置姿勢で配置された三次元形状モデルの表面から撮影部2までの距離と、の差を極小化するように該概略位置姿勢を繰り返し更新する(最適化計算)。そして位置姿勢演算部37は、該繰り返し更新後の位置姿勢を対象物体4の位置姿勢とする。   The position and orientation calculation unit 37 minimizes the difference between the distance obtained by the distance calculation unit 36 and the distance from the surface of the three-dimensional shape model arranged in the approximate position and orientation to the photographing unit 2. Update posture repeatedly (optimization calculation). The position / orientation calculation unit 37 sets the position / orientation after the repeated update as the position / orientation of the target object 4.

この位置姿勢の推定処理(最適化計算)では、姿勢に対して非線形な計算を伴うため、基本的には繰り返し誤差最小化を適用する。具体的には、非特許文献1に開示されるICP法や、非特許文献2に開示される方法を利用して、三次元形状モデルと計測距離から該三次元形状モデルの位置姿勢を求めることができる。その際に、初期値としては概略位置姿勢保持部32が保持している概略位置姿勢を使うことができる。   This position / orientation estimation process (optimization calculation) involves non-linear calculation with respect to the attitude, so basically, iterative error minimization is applied. Specifically, using the ICP method disclosed in Non-Patent Document 1 or the method disclosed in Non-Patent Document 2, the position and orientation of the 3D shape model is obtained from the 3D shape model and the measurement distance. Can do. At that time, as the initial value, the approximate position and orientation held by the approximate position and orientation holding unit 32 can be used.

また、位置姿勢演算部37では、繰り返し演算の結果で生じる残差から最適化計算の繰り返しを継続するか否かを判定する。この判定のための閾値としては、ユーザが設定した閾値でもよいし、作業空間における観測面積と撮影装置との距離との関係を用いて設定された閾値でもよい。さらに、三次元計測装置既定値を保持していて、それを読み出して閾値としても構わない。   Further, the position / orientation calculation unit 37 determines whether or not to continue the optimization calculation from the residual generated as a result of the repetition calculation. The threshold value for this determination may be a threshold value set by the user or a threshold value set using the relationship between the observation area in the work space and the distance from the imaging device. Furthermore, the predetermined value of the three-dimensional measuring device is held, and it may be read out as a threshold value.

いずれかの方法により設定された閾値と残差の値とを比較するが、実際には演算後の残差が小さくならない場合もある。そのため、本実施形態では、繰り返し回数を保持しておき、残差の繰り返しごとのトレンドを計算し、繰り返し回数が既定回数を越えた場合もしくはトレンドが増加する傾向にある場合には、位置姿勢演算部37による最適化演算の繰り返しを停止するようにする。これにより、位置姿勢の最適化演算が成功したか否かを判定することができる。   The threshold value set by any method is compared with the value of the residual, but the residual after the calculation may not actually become small. Therefore, in the present embodiment, the number of repetitions is held, the trend for each residual repetition is calculated, and the position / orientation calculation is performed when the number of repetitions exceeds the predetermined number or when the trend tends to increase. The repetition of the optimization calculation by the unit 37 is stopped. This makes it possible to determine whether or not the position / orientation optimization calculation has succeeded.

次に、対象物体4の位置姿勢を推定するために行われる処理について、同処理のフローチャートを示す図9を用いて説明する。   Next, processing performed for estimating the position and orientation of the target object 4 will be described with reference to FIG. 9 showing a flowchart of the processing.

ステップS901及びステップS902のそれぞれにおける処理は、ステップS301及びステップS302のそれぞれにおける処理と同様であるので、これらのステップに係る説明は省略する。なお、ステップS901及びステップS902における事前の準備が整った状態で、例えば位置姿勢演算部37が位置姿勢計測処理で用いる変数kを0に初期化するなどの様々な初期化処理が行われ、以降の処理が開始される。   Since the processing in each of step S901 and step S902 is the same as the processing in each of step S301 and step S302, description relating to these steps will be omitted. It should be noted that various initialization processes such as initializing the variable k used by the position / orientation calculation unit 37 to 0, for example, are performed in a state in which preparations in advance in steps S901 and S902 are completed. The process is started.

ステップS903では、投影符号列生成部81は、パターン画像と撮影画像とのそれぞれにおける計測パターンの対応付けを行うために符号列を生成する。   In step S903, the projection code string generation unit 81 generates a code string for associating the measurement pattern in each of the pattern image and the captured image.

ステップS904では、投影パターン画像生成部33は、ステップS903で生成した符号列に従い、複数スリットパターンと、それぞれのスリットを一意に対応付ける符号パターンと、から成るパターン画像を生成する。そして投影パターン画像生成部33は、生成したパターン画像を、投影部1に対して出力する。ステップS905では、投影部1は、投影パターン画像生成部33から出力されたパターン画像に基づくパターンを、対象物体4に対して投影する。   In step S904, the projection pattern image generation unit 33 generates a pattern image including a plurality of slit patterns and a code pattern that uniquely associates each slit according to the code string generated in step S903. Then, the projection pattern image generation unit 33 outputs the generated pattern image to the projection unit 1. In step S905, the projection unit 1 projects a pattern based on the pattern image output from the projection pattern image generation unit 33 onto the target object 4.

ステップS906では、撮影画像取得部34は、撮影部2を制御して、パターンが投影された対象物体4を撮影させる。そして撮影画像取得部34は、撮影部2からのデジタル画像信号を取り込み、該取り込んだデジタル画像信号から撮影画像を生成する。当然ながら、この撮影画像には、パターンが投影された対象物体4が写っている。   In step S906, the photographed image acquisition unit 34 controls the photographing unit 2 to photograph the target object 4 on which the pattern is projected. Then, the captured image acquisition unit 34 captures the digital image signal from the capturing unit 2 and generates a captured image from the captured digital image signal. Of course, the captured object includes the target object 4 on which the pattern is projected.

ステップS907では、撮影符号列識別部82は、ステップS906で取得した撮影画像から符号パターンを抽出し、該抽出した符号パターンから符号列を撮像符号列として検出する。   In step S907, the imaging code string identification unit 82 extracts a code pattern from the captured image acquired in step S906, and detects the code string as an imaging code string from the extracted code pattern.

ステップS908では、投影位置演算部35は、形状モデル保持部31に保持されている三次元形状モデルを、概略位置姿勢保持部32が保持する概略位置姿勢で配置した場合に、該三次元形状モデル上におけるパターンの投影位置を推定する。そして投影位置演算部35は、該推定した投影位置に対応する撮影部2の撮影面上の位置を射影画像座標位置として求める。   In step S908, the projection position calculation unit 35 arranges the three-dimensional shape model held in the shape model holding unit 31 in the approximate position and orientation held by the approximate position and orientation holding unit 32. Estimate the projected position of the pattern above. Then, the projection position calculation unit 35 obtains a position on the photographing surface of the photographing unit 2 corresponding to the estimated projection position as a projected image coordinate position.

ステップS909における計算処理では、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を計算する計算処理を行うのであるが、第1回目の計算処理と第2回目以降の計算処理とで計算方法が異なる。   In the calculation processing in step S909, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, calculation processing for calculating the shape information of the target object 4 is performed. The calculation method is different between the first calculation process and the second and subsequent calculation processes.

第1回目のステップS909では、距離演算部36は、ステップS907で検出した撮影符号列と、パターン画像中に記されている符号パターンが表す符号列と、の対応付けを行う。そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出する。   In the first step S909, the distance calculation unit 36 associates the imaging code sequence detected in step S907 with the code sequence represented by the code pattern written in the pattern image. Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape information of is calculated.

第2回目以降のステップS909では、距離演算部36は、ステップS908で求めた射影画像座標位置の周辺(近傍)から対応する計測パターンを探索し、該探索された計測パターンと、パターン画像上の計測パターンと、の対応付けを行う。すなわち、前回の概略の位置姿勢に基づいて求めた射影画像座標位置の周辺(近傍)から対応する計測パターンを探索し、該探索された計測パターンと、パターン画像上の計測パターンと、の対応付けを行う。そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出する。   In the second and subsequent steps S909, the distance calculation unit 36 searches for the corresponding measurement pattern from the vicinity (neighboring) of the projected image coordinate position obtained in step S908, and the searched measurement pattern and the pattern image on the pattern image. The measurement pattern is associated. That is, a corresponding measurement pattern is searched from the vicinity (near) of the projected image coordinate position obtained based on the previous approximate position and orientation, and the searched measurement pattern is associated with the measurement pattern on the pattern image. I do. Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape information of is calculated.

ステップS910では、位置姿勢演算部37は、距離演算部36が求めた距離と、概略位置姿勢で配置された三次元形状モデルの表面から撮影部2までの距離と、の差を極小化するような対象物体4の位置姿勢を推定(導出)する。   In step S910, the position / orientation calculation unit 37 minimizes the difference between the distance obtained by the distance calculation unit 36 and the distance from the surface of the three-dimensional shape model arranged in the approximate position / orientation to the photographing unit 2. The position and orientation of the target object 4 is estimated (derived).

ステップS911では、位置姿勢演算部37は、概略位置姿勢保持部32が保持する概略位置姿勢を、ステップS910で推定した位置姿勢で更新する。ステップS912では、位置姿勢演算部37は、変数kの値を1つインクリメントすることで、ステップS910の位置姿勢推定処理の繰り返し回数を1つカウントする。   In step S911, the position / orientation calculation unit 37 updates the approximate position and orientation held by the approximate position and orientation holding unit 32 with the position and orientation estimated in step S910. In step S912, the position / orientation calculation unit 37 increments the value of the variable k by 1, thereby counting one repetition of the position / orientation estimation process in step S910.

ステップS913では、位置姿勢演算部37は、変数kの値が閾値以上(繰り返し回数が規定回数以上)であるか否かを判断する。この判断の結果、変数kの値が閾値以上であれば、図9のフローチャートに従った処理は終了する。一方、変数kの値が閾値未満である場合には、処理はステップS908に進む。   In step S913, the position / orientation calculation unit 37 determines whether the value of the variable k is equal to or greater than a threshold value (the number of repetitions is equal to or greater than the specified number). As a result of the determination, if the value of the variable k is equal to or greater than the threshold value, the processing according to the flowchart of FIG. 9 ends. On the other hand, if the value of the variable k is less than the threshold, the process proceeds to step S908.

次に、位置姿勢演算部37が行う処理の一例について、図6のフローチャートを用いて説明する。   Next, an example of processing performed by the position / orientation calculation unit 37 will be described with reference to the flowchart of FIG.

ステップS601では、位置姿勢演算部37は、位置姿勢計測処理で用いる変数kを0に初期化すると共に、移動平均値の値を0に初期化する。ステップS602では、位置姿勢演算部37は、距離演算部36が求めた距離を取得する。   In step S601, the position / orientation calculation unit 37 initializes a variable k used in the position / orientation measurement process to 0, and initializes the value of the moving average value to 0. In step S <b> 602, the position / orientation calculation unit 37 acquires the distance obtained by the distance calculation unit 36.

ステップS603では、位置姿勢演算部37は、距離演算部36が求めた距離と、概略位置姿勢で配置された三次元形状モデルの表面から撮影部2までの距離と、の差を極小化するような対象物体4の位置姿勢を推定する。そして位置姿勢演算部37は、概略位置姿勢保持部32が保持する概略位置姿勢を、この推定した位置姿勢で更新する。   In step S603, the position / orientation calculation unit 37 minimizes the difference between the distance obtained by the distance calculation unit 36 and the distance from the surface of the three-dimensional shape model arranged in the approximate position / orientation to the photographing unit 2. The position and orientation of the target object 4 is estimated. Then, the position / orientation calculation unit 37 updates the approximate position and orientation held by the approximate position and orientation holding unit 32 with the estimated position and orientation.

ステップS604では、位置姿勢演算部37は、更新した位置姿勢と、ステップS603における計算処理で求めた残差と、を取得する。ステップS605では、位置姿勢演算部37は、この残差が規定値以下であるか否かを判断する。この判断の結果、残差が規定値以下であれば、処理はステップS606に進む。ステップS606では、位置姿勢演算部37は、対象物体4の位置姿勢の推定が成功(最適化成功)した旨を示す値をフラグに設定して本処理を終了する。   In step S604, the position / orientation calculation unit 37 acquires the updated position / orientation and the residual obtained by the calculation process in step S603. In step S605, the position / orientation calculation unit 37 determines whether the residual is equal to or less than a specified value. As a result of the determination, if the residual is equal to or less than the specified value, the process proceeds to step S606. In step S606, the position / orientation calculation unit 37 sets a value indicating that the estimation of the position / orientation of the target object 4 has succeeded (successful optimization) to the flag, and ends the present process.

一方、残差が閾値よりも大きい場合には、処理はステップS607に進む。ステップS607では、位置姿勢演算部37は、残差が減少しているか増加しているかのトレンドを計算するため、残差の移動平均値を計算する。移動平均のフレーム数nはユーザが指定してもよいし、実験的に求めた値を設定しておいても良い。   On the other hand, if the residual is greater than the threshold, the process proceeds to step S607. In step S607, the position / orientation calculation unit 37 calculates a moving average value of the residual in order to calculate a trend of whether the residual is decreasing or increasing. The number of moving average frames n may be specified by the user, or an experimentally obtained value may be set.

ステップS608では、位置姿勢演算部37は、計算した移動平均値が前回計算した移動平均値よりも大きくなる傾向を示す場合には、最適化演算の誤差最小化計算が発散していると判断し、処理はステップS609に進む。ステップS609では、位置姿勢演算部37は、対象物体4の位置姿勢の推定が失敗(最適化失敗)した旨を示す値をフラグに設定して本処理を終了する。   In step S608, if the calculated moving average value tends to be larger than the previously calculated moving average value, the position / orientation calculating unit 37 determines that the error minimization calculation of the optimization calculation is divergent. The process proceeds to step S609. In step S609, the position / orientation calculation unit 37 sets a value indicating that the estimation of the position / orientation of the target object 4 has failed (optimization failure) as a flag, and ends the present process.

一方、計算した移動平均値が前回計算した移動平均値よりも小さくなる傾向を示す場合には、処理はステップS610に進む。ステップS610では、位置姿勢演算部37は、変数kの値を1つインクリメントする。   On the other hand, if the calculated moving average value tends to be smaller than the previously calculated moving average value, the process proceeds to step S610. In step S610, the position / orientation calculation unit 37 increments the value of the variable k by one.

ステップS611では、位置姿勢演算部37は、変数kの値が閾値以上(繰り返し回数が規定回数以上)であるか否かを判断する。この判断の結果、変数kの値が閾値以上であれば、処理はステップS612に進む。ステップS612では、位置姿勢演算部37は、繰り返し回数が規定回数以上となった旨を示す値をフラグに設定して本処理を終了する。一方、変数kの値が閾値未満である場合には、処理はステップS603に戻り、以降の処理を繰り返す。   In step S611, the position / orientation calculation unit 37 determines whether or not the value of the variable k is equal to or greater than a threshold value (the number of repetitions is equal to or greater than a specified number). As a result of the determination, if the value of the variable k is greater than or equal to the threshold value, the process proceeds to step S612. In step S612, the position / orientation calculation unit 37 sets a value indicating that the number of repetitions is equal to or greater than the specified number as a flag, and ends the present process. On the other hand, when the value of the variable k is less than the threshold, the process returns to step S603 and the subsequent processes are repeated.

このように、本実施形態によれば、1回目の処理で撮影部2−投影部1間の対応付けができなかった箇所において、撮影画像上における計測パターンの位置を三次元形状モデルと1回目で推定した概略位置姿勢から求めることができる。そして、投影されるスリットパターンの撮影部2−投影部1間の対応付けを行うことで、三次元計測点の取得が可能となる。   As described above, according to the present embodiment, the position of the measurement pattern on the photographed image is compared with the three-dimensional shape model and the first time at the location where the association between the photographing unit 2 and the projection unit 1 cannot be performed in the first process. Can be obtained from the approximate position and orientation estimated in step (1). Then, it is possible to acquire a three-dimensional measurement point by associating the projected slit pattern between the imaging unit 2 and the projection unit 1.

[第3の実施形態]
第2の実施形態では、パターンを変更せずに計測処理を行うことで三次元計測の精度向上を実現した。しかし、ボケ等の光学系によって符号パターンがスリットパターンに干渉し、精度が低下することがある。そこで本実施形態では、1回目の撮影では図7のような符号パターンを含むパターンを投影して、スリットパターンの対応付けを行う。2回目以降の撮影においては、例えば図2のような符号パターンがスリットパターンに干渉しないパターンに変更・投影し、概略位置姿勢と撮影画像をもとに、スリットパターンの対応付けを行う。
[Third Embodiment]
In the second embodiment, the accuracy of three-dimensional measurement is improved by performing measurement processing without changing the pattern. However, the code pattern may interfere with the slit pattern by an optical system such as blur, and the accuracy may decrease. Therefore, in this embodiment, in the first shooting, a pattern including a code pattern as shown in FIG. 7 is projected to associate the slit pattern. In the second and subsequent photographing, for example, the code pattern as shown in FIG. 2 is changed and projected into a pattern that does not interfere with the slit pattern, and the slit pattern is associated with the approximate position and orientation based on the photographed image.

本実施形態に係るシステムの構成は、第2の実施形態と同様(図8)である。次に、対象物体4の位置姿勢を推定するために行われる処理について、同処理のフローチャートを示す図12を用いて説明する。   The configuration of the system according to this embodiment is the same as that of the second embodiment (FIG. 8). Next, processing performed for estimating the position and orientation of the target object 4 will be described with reference to FIG. 12 showing a flowchart of the processing.

ステップS1201〜ステップS1207のそれぞれにおける処理は、ステップS901〜ステップS907のそれぞれにおける処理と同様であるので、これらのステップに係る説明は省略する。   Since the processing in each of steps S1201 to S1207 is the same as the processing in each of steps S901 to S907, description of these steps is omitted.

ステップS1208における計算処理では、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を計算する計算処理を行うのであるが、第1回目の計算処理と第2回目以降の計算処理とで計算方法が異なる。   In the calculation processing in step S1208, distance information indicating the distance between the imaging unit 2 and each point on the surface of the target object 4, that is, calculation processing for calculating the shape information of the target object 4 is performed. The calculation method is different between the first calculation process and the second and subsequent calculation processes.

ここで、投影パターン画像生成部33は、使用するパターン画像の初期値として、図7のような符号パターンを含むパターン画像を設定している。然るに、第1回目のステップS1208では、距離演算部36は、ステップS1207でこのパターン画像から検出した撮影符号列と、このパターン画像中に記されている符号パターンが表す符号列と、の対応付けを行う。そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出する。   Here, the projection pattern image generation unit 33 sets a pattern image including a code pattern as shown in FIG. 7 as an initial value of the pattern image to be used. However, in the first step S1208, the distance calculation unit 36 associates the captured code string detected from the pattern image in step S1207 with the code string represented by the code pattern described in the pattern image. I do. Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape information of is calculated.

また、投影パターン画像生成部33は、ステップS1204〜ステップS1212の処理を1回終えると、第2回目以降用に、図2に示したような、符号パターンがスリットパターンに干渉しないパターン画像を、ステップS1214で設定する。然るに、第2回目以降のステップS1208では、距離演算部36は、ステップS1213で求めた射影画像座標位置の周辺(近傍)から対応するパターンを探索し、該探索されたパターンと、パターン画像上のパターンと、の対応付けを行う。すなわち、前回の概略の位置姿勢に基づいて求めた射影画像座標位置の周辺(近傍)から対応する計測パターンを探索し、該探索された計測パターンと、パターン画像上の計測パターンと、の対応付けを行う。そして距離演算部36は、この対応付けの結果を用いて、三角測量の原理で、撮影部2と対象物体4の表面上の各点との間の距離を示す距離情報、即ち、対象物体4の形状情報を算出する。   In addition, when the projection pattern image generation unit 33 finishes the processing of step S1204 to step S1212 once, a pattern image in which the code pattern does not interfere with the slit pattern as shown in FIG. It sets in step S1214. However, in the second and subsequent steps S1208, the distance calculation unit 36 searches for the corresponding pattern from the vicinity (neighborhood) of the projected image coordinate position obtained in step S1213, and the searched pattern and the pattern image Correspondence with the pattern is performed. That is, a corresponding measurement pattern is searched from the vicinity (near) of the projected image coordinate position obtained based on the previous approximate position and orientation, and the searched measurement pattern is associated with the measurement pattern on the pattern image. I do. Then, the distance calculation unit 36 uses the result of this association, and based on the principle of triangulation, distance information indicating the distance between the photographing unit 2 and each point on the surface of the target object 4, that is, the target object 4 The shape information of is calculated.

ステップS1209では、位置姿勢演算部37は、距離演算部36が求めた距離と、概略位置姿勢で配置された三次元形状モデルの表面から撮影部2までの距離と、の差を極小化するような対象物体4の位置姿勢を推定する。   In step S1209, the position / orientation calculation unit 37 minimizes the difference between the distance obtained by the distance calculation unit 36 and the distance from the surface of the three-dimensional shape model arranged in the approximate position / orientation to the photographing unit 2. The position and orientation of the target object 4 is estimated.

ステップS1210では、位置姿勢演算部37は、概略位置姿勢保持部32が保持する概略位置姿勢を、ステップS1209で推定した位置姿勢で更新する。ステップS1211では、位置姿勢演算部37は、変数kの値を1つインクリメントすることで、ステップS1209の位置姿勢推定処理の繰り返し回数を1つカウントする。   In step S1210, the position / orientation calculation unit 37 updates the approximate position and orientation held by the approximate position and orientation holding unit 32 with the position and orientation estimated in step S1209. In step S1211, the position / orientation calculation unit 37 increments the value of the variable k by 1, thereby counting one repetition of the position / orientation estimation process in step S1209.

ステップS1212では、位置姿勢演算部37は、変数kの値が閾値以上(繰り返し回数が規定回数以上)であるか否かを判断する。この判断の結果、変数kの値が閾値以上であれば、図12のフローチャートに従った処理は終了する。一方、変数kの値が閾値未満である場合には、処理はステップS1213に進む。   In step S <b> 1212, the position / orientation calculation unit 37 determines whether or not the value of the variable k is equal to or greater than a threshold value (the number of repetitions is equal to or greater than a specified number). If the value of the variable k is equal to or greater than the threshold value as a result of this determination, the processing according to the flowchart of FIG. 12 ends. On the other hand, if the value of the variable k is less than the threshold, the process proceeds to step S1213.

ステップS1213では、投影位置演算部35は、形状モデル保持部31に保持されている三次元形状モデルを、概略位置姿勢保持部32が保持する概略位置姿勢で配置した場合に、該三次元形状モデル上におけるパターンの投影位置を推定する。そして投影位置演算部35は、該推定した投影位置に対応する撮影部2の撮影面上の位置を射影画像座標位置として求める。   In step S <b> 1213, the projection position calculation unit 35 arranges the three-dimensional shape model held in the shape model holding unit 31 in the approximate position and orientation held by the approximate position and orientation holding unit 32. Estimate the projected position of the pattern above. Then, the projection position calculation unit 35 obtains a position on the photographing surface of the photographing unit 2 corresponding to the estimated projection position as a projected image coordinate position.

ステップS1214では、投影パターン画像生成部33は、上記の通り、投影部1に出力するパターン画像を切り替える。すなわち、投影パターン画像生成部33は、使用するパターン画像の初期値として、図7のような符号パターンを含むパターン画像を設定している。そして、ステップS1214では、投影パターン画像生成部33は、使用するパターンとして、図2に示したような、符号パターンがスリットパターンに干渉しないパターン画像を設定する。   In step S1214, the projection pattern image generation unit 33 switches the pattern image output to the projection unit 1 as described above. That is, the projection pattern image generation unit 33 sets a pattern image including a code pattern as shown in FIG. 7 as an initial value of the pattern image to be used. In step S1214, the projection pattern image generation unit 33 sets a pattern image in which the code pattern does not interfere with the slit pattern as shown in FIG. 2 as a pattern to be used.

このようにすることで、2回目以降の処理では、符号パターンの影響を受けない、精度のよい三次元計測点を取得することができる。本実施形態では第2回目以降は複数スリットパターンのみに変更していたが、複数スリットパターンに干渉しないように符号パターンの形状・大きさを変更、またはスリットパターンの間隔を変更するようにしても構わない。また、2回目における複数スリットパターンは、符号を配置しないため、1回目の計測パターンに比べ、計測線の幅を大きくしても、計測線間隔を狭くし、計測線本数を増やしても構わない。   By doing in this way, in the process after the 2nd time, the accurate three-dimensional measurement point which is not influenced by a code pattern can be acquired. In the present embodiment, only the plurality of slit patterns are changed from the second time onward, but the shape / size of the code pattern is changed or the interval between the slit patterns is changed so as not to interfere with the plurality of slit patterns. I do not care. In addition, since the second slit pattern does not include a code, the measurement line width may be increased, the measurement line interval may be narrowed, and the number of measurement lines may be increased as compared to the first measurement pattern. .

[第4の実施形態]
図1,8に示した三次元計測装置3を構成する各機能部はハードウェアで構成してもよいが、形状モデル保持部31及び概略位置姿勢保持部32を除く各機能部をソフトウェア(コンピュータプログラム)で構成しても良い。
[Fourth Embodiment]
1 and 8 may be configured by hardware, but each function unit excluding the shape model holding unit 31 and the approximate position / posture holding unit 32 may be software (computer). Program).

例えば、形状モデル保持部31及び概略位置姿勢保持部32として機能するメモリと、このソフトウェアを格納するためのメモリと、このソフトウェアを実行する制御部と、を有する装置は、三次元計測装置3に適用することができる。この場合、この制御部(例えばCPU)がこのソフトウェアを実行することで、この制御部は、上記の実施形態で説明した三次元計測装置3の動作を実現することになる。   For example, an apparatus having a memory functioning as the shape model holding unit 31 and the approximate position and orientation holding unit 32, a memory for storing the software, and a control unit for executing the software is included in the three-dimensional measurement device 3. Can be applied. In this case, when the control unit (for example, CPU) executes the software, the control unit realizes the operation of the three-dimensional measurement apparatus 3 described in the above embodiment.

(その他の実施例)
本発明は、三次元形状モデルとその概略位置姿勢から該モデル上におけるパターンの投影位置を推定し、その投影位置に対応する撮影画像上の座標位置を求め、スリットパターンの対応付けを行い、三角測量の原理に基づき距離計算を行うものであるが、三次元形状モデルがなくてもよい。1回目の処理として符号パターンを計測物体に投影することで三次元計測を行い、その三次元計測点から粗く三次元モデルを生成する。そして、2回目の処理として、対応付けできなかったスリットパターンに関しては、撮影画像上におけるスリットパターンの位置を生成した三次元形状モデルとその位置姿勢から求め、投影されるスリットパターンの撮影部−投影部間の対応付けを行ってもよい。この2回目において投影するスリットパターンは、符号を配置しないため、1回目の計測パターンに比べ、計測線の幅を大きくしても、計測線間隔を狭くし、計測線本数を増やしても構わない。
(Other examples)
The present invention estimates a projection position of a pattern on the model from a three-dimensional shape model and its approximate position and orientation, obtains a coordinate position on a captured image corresponding to the projection position, associates a slit pattern, and Although distance calculation is performed based on the principle of surveying, there is no need for a three-dimensional shape model. As a first process, a code pattern is projected onto a measurement object to perform three-dimensional measurement, and a rough three-dimensional model is generated from the three-dimensional measurement points. As a second process, regarding the slit pattern that could not be matched, the slit pattern position on the captured image is obtained from the three-dimensional shape model that generated the position and orientation, and the projected slit pattern is captured-projected. Correlation between parts may be performed. Since the slit pattern projected in the second time does not arrange a code, the width of the measurement lines may be increased, the distance between the measurement lines may be reduced, and the number of measurement lines may be increased as compared with the first measurement pattern. .

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

<実施例の効果>
第1の実施形態により、撮影画像上におけるスリットパターンの位置を三次元形状モデルとその概略位置姿勢から推定し、投影されるスリットパターンの撮影部2−投影部1間の対応付けを行うことで三次元計測点の取得が可能となる。
<Effect of Example>
According to the first embodiment, the position of the slit pattern on the photographed image is estimated from the three-dimensional shape model and its approximate position and orientation, and the projected slit pattern is associated between the photographing unit 2 and the projecting unit 1. 3D measurement points can be acquired.

第2の実施形態により、1回目の処理で撮影部2−投影部1間の対応付けができなかった箇所において、撮影画像上における計測パターンの位置を三次元形状モデルと1回目で推定した概略位置姿勢から求めることができる。そして、投影されるスリットパターンの撮影部2−投影部1間の対応付けを行うことで、三次元計測点の取得が可能となる。   According to the second embodiment, the position of the measurement pattern on the photographed image is estimated with the three-dimensional shape model and the first time at the location where the association between the photographing unit 2 and the projection unit 1 cannot be performed in the first process. It can be obtained from the position and orientation. Then, it is possible to acquire a three-dimensional measurement point by associating the projected slit pattern between the imaging unit 2 and the projection unit 1.

第3の実施形態により、2回目以降の処理では、投影するパターンを切り替えることにより、符号パターンの影響を受けない、精度のよい三次元計測点を取得することができる。   According to the third embodiment, in the second and subsequent processes, it is possible to acquire an accurate three-dimensional measurement point that is not affected by the code pattern by switching the pattern to be projected.

Claims (8)

複数のスリットをもつ単一のパターンを投影する投影部と、該パターンが投影された対象物体の画像を撮影する撮影部と、に接続されている距離計測装置であって、
前記対象物体の概略の位置姿勢を取得する手段と、
前記対象物体の三次元形状を表すモデルを前記概略の位置姿勢で配置した場合の、該モデル上におけるパターンの投影位置を推定する推定手段と、
前記投影位置に対応する前記画像上の座標位置を求め、該求めた座標位置の近傍から前記パターンを探索する探索手段と、
前記画像から探索されたパターンと、前記投影部が投影するパターンと、の対応関係を用いて三角測量に基づく計算処理を行うことにより、前記撮影部から前記対象物体の表面までの距離を計算する計算手段と、
を備えることを特徴とする距離計測装置。
A distance measuring device connected to a projection unit that projects a single pattern having a plurality of slits, and an imaging unit that captures an image of a target object on which the pattern is projected,
Means for acquiring a rough position and orientation of the target object;
Estimation means for estimating a projection position of a pattern on the model when the model representing the three-dimensional shape of the target object is arranged in the approximate position and orientation;
Search means for finding a coordinate position on the image corresponding to the projection position, and searching for the pattern from the vicinity of the obtained coordinate position;
The distance from the imaging unit to the surface of the target object is calculated by performing a calculation process based on triangulation using the correspondence between the pattern searched from the image and the pattern projected by the projection unit. Calculation means;
A distance measuring device comprising:
前記推定手段は、前記投影部の光源から前記投影部が投影するパターンを通る直線と、前記モデルと、の交点位置を前記投影位置として求めることを特徴とする請求項1に記載の距離計測装置。   The distance measuring apparatus according to claim 1, wherein the estimation unit obtains, as the projection position, an intersection position between a straight line passing through a pattern projected by the projection unit from a light source of the projection unit and the model. . 前記探索手段は、前記撮影部と前記投影部との位置姿勢関係を表す情報を用いて前記投影位置を前記画像上に投影した位置を前記座標位置として求めることを特徴とする請求項1又は2に記載の距離計測装置。   The search unit obtains, as the coordinate position, a position obtained by projecting the projection position on the image using information representing a position and orientation relationship between the photographing unit and the projection unit. The distance measuring device described in 1. 前記計算手段は、第1回目の計算処理では、前記画像中におけるパターンが表す符号列と、前記投影部が投影するパターンが表す符号列と、の対応関係を用いて、前記撮影部から前記対象物体の表面までの距離を計算し、
前記計算手段は、第2回目以降の計算処理では、前回に更新した概略の位置姿勢を用いて前記推定手段及び前記探索手段により前記画像から探索されたパターンと、前記投影部が投影するパターンと、の対応関係を用いて三角測量に基づく計算処理を行うことにより、前記撮影部から前記対象物体の表面までの距離を計算する
ことを特徴とする請求項1乃至3のいずれか1項に記載の距離計測装置。
In the first calculation process, the calculation means uses the correspondence relationship between the code string represented by the pattern in the image and the code string represented by the pattern projected by the projection unit, from the photographing unit to the target. Calculate the distance to the surface of the object,
In the second and subsequent calculation processes, the calculation means uses the approximate position and orientation updated last time, the pattern searched from the image by the estimation means and the search means, and the pattern projected by the projection unit. The distance from the said imaging | photography part to the surface of the said target object is calculated by performing the calculation process based on triangulation using the correspondence of these, The Claim 1 thru | or 3 characterized by the above-mentioned. Distance measuring device.
前記計算手段は、
前記第1回目の計算処理では、符号列を表すパターンを含むパターンを使用し、
前記第2回目以降の計算処理では、符号列を表すパターンを含まないパターンを使用する
ことを特徴とする請求項4に記載の距離計測装置。
The calculating means includes
In the first calculation process, a pattern including a pattern representing a code string is used,
The distance measurement apparatus according to claim 4, wherein a pattern that does not include a pattern representing a code string is used in the second and subsequent calculation processes.
更に、
前記距離と、前記概略の位置姿勢で配置された前記モデルの表面から前記撮影部までの距離と、に基づいて、前記概略の位置姿勢を更新することで、前記対象物体の位置姿勢を導出する導出手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の距離計測装置。
Furthermore,
The position and orientation of the target object are derived by updating the approximate position and orientation based on the distance and the distance from the surface of the model arranged in the approximate position and orientation to the imaging unit. 6. The distance measuring device according to claim 1, further comprising a derivation unit.
複数のスリットをもつ単一のパターンを投影する投影部と、該パターンが投影された対象物体の画像を撮影する撮影部と、に接続されている距離計測装置が行う距離計測方法であって、
前記距離計測装置の取得手段が、前記対象物体の概略の位置姿勢を取得する工程と、
前記距離計測装置の推定手段が、前記対象物体の三次元形状を表すモデルを前記概略の位置姿勢で配置した場合の、該モデル上におけるパターンの投影位置を推定する推定工程と、
前記距離計測装置の探索手段が、前記投影位置に対応する前記画像上の座標位置を求め、該求めた座標位置の近傍から前記パターンを探索する探索工程と、
前記距離計測装置の計算手段が、前記画像から探索されたパターンと、前記投影部が投影するパターンと、の対応関係を用いて三角測量に基づく計算処理を行うことにより、前記撮影部から前記対象物体の表面までの距離を計算する計算工程と、
を備えることを特徴とする距離計測方法。
A distance measuring method performed by a distance measuring device connected to a projecting unit that projects a single pattern having a plurality of slits, and an imaging unit that captures an image of a target object on which the pattern is projected,
The acquisition unit of the distance measuring device acquires a rough position and orientation of the target object;
When the estimation unit of the distance measuring device arranges a model representing the three-dimensional shape of the target object in the approximate position and orientation, an estimation step of estimating a projection position of a pattern on the model;
A search step in which the search means of the distance measuring device obtains a coordinate position on the image corresponding to the projection position, and searches for the pattern from the vicinity of the obtained coordinate position;
The calculation unit of the distance measuring device performs a calculation process based on triangulation using a correspondence relationship between a pattern searched from the image and a pattern projected by the projection unit, so that the target from the imaging unit A calculation process for calculating the distance to the surface of the object;
A distance measuring method comprising:
コンピュータを、請求項1乃至6の何れか1項に記載の距離計測装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the distance measuring device of any one of Claims 1 thru | or 6.
JP2014008858A 2014-01-21 2014-01-21 Distance measuring device and distance measuring method Pending JP2015137897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014008858A JP2015137897A (en) 2014-01-21 2014-01-21 Distance measuring device and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014008858A JP2015137897A (en) 2014-01-21 2014-01-21 Distance measuring device and distance measuring method

Publications (1)

Publication Number Publication Date
JP2015137897A true JP2015137897A (en) 2015-07-30

Family

ID=53768994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008858A Pending JP2015137897A (en) 2014-01-21 2014-01-21 Distance measuring device and distance measuring method

Country Status (1)

Country Link
JP (1) JP2015137897A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006026A1 (en) * 2019-07-10 2021-01-14 ブルーイノベーション株式会社 Self-location specification method
CN118134982A (en) * 2024-05-06 2024-06-04 广东工业大学 Structured light system three-dimensional measurement method and device based on system pose optimization

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006026A1 (en) * 2019-07-10 2021-01-14 ブルーイノベーション株式会社 Self-location specification method
JP7521761B2 (en) 2019-07-10 2024-07-24 ブルーイノベーション株式会社 Self-location method
CN118134982A (en) * 2024-05-06 2024-06-04 广东工业大学 Structured light system three-dimensional measurement method and device based on system pose optimization

Similar Documents

Publication Publication Date Title
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
JP5018980B2 (en) Imaging apparatus, length measurement method, and program
CN109000582B (en) Scanning method and system of tracking type three-dimensional scanning device, storage medium and equipment
JP5460341B2 (en) Three-dimensional measuring apparatus and control method thereof
CN106595528B (en) A kind of micro- binocular stereo vision measurement method of telecentricity based on digital speckle
JP6576945B2 (en) Calibration apparatus, calibration method, optical apparatus, photographing apparatus, projection apparatus, measurement system, and measurement method
JP6112769B2 (en) Information processing apparatus and information processing method
JP6092530B2 (en) Image processing apparatus and image processing method
KR100855657B1 (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
JP6282098B2 (en) Calibration apparatus and method
CN107358633A (en) Join scaling method inside and outside a kind of polyphaser based on 3 points of demarcation things
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
CN113592721B (en) Photogrammetry method, apparatus, device and storage medium
CN110419208B (en) Imaging system, imaging control method, image processing apparatus, and computer readable medium
JP2021173740A (en) System and method for efficiently 3d re-constructing objects using telecentric line-scan cameras
JP7184203B2 (en) Image processing device, three-dimensional measurement system, image processing method
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
JP6486083B2 (en) Information processing apparatus, information processing method, and program
WO2015159835A1 (en) Image processing device, image processing method, and program
JP2015137897A (en) Distance measuring device and distance measuring method
JP2018044942A (en) Camera parameter calculation device, camera parameter calculation method, program and recording medium
KR20200142392A (en) Method for Estimating Rotation and Movement Position Between Corresponding 3D Marker
JP4102386B2 (en) 3D information restoration device
JP2017162449A (en) Information processing device, and method and program for controlling information processing device
KR20150119770A (en) Method for measuring 3-dimensional cordinates with a camera and apparatus thereof