JP6805904B2 - Measuring equipment, measuring methods and robots - Google Patents

Measuring equipment, measuring methods and robots Download PDF

Info

Publication number
JP6805904B2
JP6805904B2 JP2017044398A JP2017044398A JP6805904B2 JP 6805904 B2 JP6805904 B2 JP 6805904B2 JP 2017044398 A JP2017044398 A JP 2017044398A JP 2017044398 A JP2017044398 A JP 2017044398A JP 6805904 B2 JP6805904 B2 JP 6805904B2
Authority
JP
Japan
Prior art keywords
unit
imaging
measuring device
arithmetic processing
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017044398A
Other languages
Japanese (ja)
Other versions
JP2018146521A (en
Inventor
芳彦 三木
芳彦 三木
和洋 米田
和洋 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017044398A priority Critical patent/JP6805904B2/en
Publication of JP2018146521A publication Critical patent/JP2018146521A/en
Application granted granted Critical
Publication of JP6805904B2 publication Critical patent/JP6805904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、計測装置、計測方法およびロボットに関する。 The present invention relates to a measuring device, a measuring method and a robot.

バラ積み部品のピッキングや自動組み立てなどの作業を、ロボットを用いて実施する際に、ロボットアームに3次元情報を取得可能な計測装置を組み合わせて用いることで、制御性能の向上が可能である。 When performing operations such as picking and automatic assembly of loosely stacked parts using a robot, it is possible to improve control performance by using a robot arm in combination with a measuring device capable of acquiring three-dimensional information.

このような3次元情報を取得する計測装置として、投影部が計測対象までの距離に応じたパターン光を切り替えて光投射しながら撮像部で計測対象を撮像し、近傍と遠方において高精度に3次元情報を取得する技術が知られている(例えば特許文献1)。 As a measuring device that acquires such three-dimensional information, the projection unit switches the pattern light according to the distance to the measurement target and images the measurement target with the imaging unit while projecting the light, and the measurement target is imaged with high accuracy in the vicinity and the distance. A technique for acquiring dimensional information is known (for example, Patent Document 1).

しかしながら、従来技術は、ロボットアームと計測装置が別体であることを前提としている。ロボットアームに計測装置を付随させる場合、計測装置も同時に動いてしまうために近傍と遠方を同時に撮像する必要がある。しかしながら、従来技術では、近傍と遠方を同時に撮像することができなかった。また、計測が可能な領域は、撮像部の焦点距離調節機能または被写界深度により限度が決まっているため、計測可能領域を大きくすることが難しかった。 However, the prior art presupposes that the robot arm and the measuring device are separate bodies. When a measuring device is attached to the robot arm, the measuring device also moves at the same time, so it is necessary to simultaneously image the vicinity and the distance. However, in the prior art, it was not possible to image near and far at the same time. Further, since the measurable area is limited by the focal length adjustment function of the imaging unit or the depth of field, it is difficult to increase the measurable area.

本発明は、上記に鑑みてなされたものであって、所定方向の3次元情報を取得可能な計測装置において、近傍と遠方の3次元情報を同時に取得可能にし、さらに計測可能な領域を大きく設定することを可能にすることを目的とする。 The present invention has been made in view of the above, and in a measuring device capable of acquiring three-dimensional information in a predetermined direction, it is possible to simultaneously acquire three-dimensional information in the vicinity and a distance, and a large measurable area is set. The purpose is to make it possible to do.

上述した課題を解決し、目的を達成するために、本発明は、所定方向の3次元情報を計測する計測装置であって、計測装置から第1距離の領域を撮像して第1撮像画像を出力する第1撮像部と、計測装置から、第1距離とは異なる第2距離の領域を撮像して第2撮像画像を出力する第2撮像部と、第1距離の領域および第2距離の領域に平行光を光走査してパターン光を投影可能な投影部と、第1撮像画像および第2撮像画像の少なくとも一方の画像に基づき、所定方向の3次元情報を演算する演算処理部と、第1撮像部と第2撮像部と投影部とを制御する制御部と、を備え、制御部は、第1撮像部と第2撮像部とを同期して撮像制御する。 In order to solve the above-mentioned problems and achieve the object, the present invention is a measuring device that measures three-dimensional information in a predetermined direction, and images a region of a first distance from the measuring device to obtain a first captured image. The output first imaging unit, the second imaging unit that captures a second distance region different from the first distance from the measuring device and outputs the second captured image, the first distance region, and the second distance. A projection unit capable of light-scanning parallel light to a region and projecting pattern light, an arithmetic processing unit that calculates three-dimensional information in a predetermined direction based on at least one image of a first captured image and a second captured image, and a processing unit. A control unit for controlling the first imaging unit, the second imaging unit, and the projection unit is provided, and the control unit controls the first imaging unit and the second imaging unit in synchronization with each other.

本発明によれば、所定方向の3次元情報を取得可能な計測装置において、近傍と遠方の3次元情報を同時に取得可能にし、さらに計測可能な領域を大きく設定することを可能にするという効果を奏する。 According to the present invention, in a measuring device capable of acquiring three-dimensional information in a predetermined direction, it is possible to simultaneously acquire near and far three-dimensional information, and it is possible to set a large measurable area. Play.

図1は、第1の実施形態に係る計測装置の一例の構成を示す図である。FIG. 1 is a diagram showing a configuration of an example of a measuring device according to the first embodiment. 図2は、第1の実施形態に適用可能な投影部の一例の構成を示す図である。FIG. 2 is a diagram showing a configuration of an example of a projection unit applicable to the first embodiment. 図3は、第1の実施形態に適用可能な偏向素子の動作を説明するための図である。FIG. 3 is a diagram for explaining the operation of the deflection element applicable to the first embodiment. 図4は、第1の実施形態に係る計測装置の機能を説明するための一例の機能ブロック図である。FIG. 4 is a functional block diagram of an example for explaining the function of the measuring device according to the first embodiment. 図5は、第1の実施形態に適用可能な計測装置における処理・制御部の一例のハードウェア構成を示すブロック図である。FIG. 5 is a block diagram showing a hardware configuration of an example of a processing / control unit in a measuring device applicable to the first embodiment. 図6は、第1の実施形態に適用可能な位相シフト法で用いる投影パターンの例を示す図である。FIG. 6 is a diagram showing an example of a projection pattern used in the phase shift method applicable to the first embodiment. 図7は、第1の実施形態に適用可能な光切断法で用いる投影パターンを説明するための図である。FIG. 7 is a diagram for explaining a projection pattern used in the optical cutting method applicable to the first embodiment. 図8は、第1の実施形態に適用可能なランダムドット法で用いる投影パターンの例を示す図である。FIG. 8 is a diagram showing an example of a projection pattern used in the random dot method applicable to the first embodiment. 図9は、第1の実施形態に係る計測処理を示す一例のフローチャートである。FIG. 9 is a flowchart of an example showing the measurement process according to the first embodiment. 図10は、第2の実施形態に係るロボットアームを概略的に示す図である。FIG. 10 is a diagram schematically showing a robot arm according to the second embodiment. 図11は、第2の実施形態に係るロボットアームの一例の構成を概略的に示すブロック図である。FIG. 11 is a block diagram schematically showing a configuration of an example of a robot arm according to a second embodiment. 図12は、第2の実施形態に係るロボットアームの制御の例を示すフローチャートである。FIG. 12 is a flowchart showing an example of control of the robot arm according to the second embodiment. 図13は、第2の実施形態の変形例に係るロボットアームの動作を説明するための図である。FIG. 13 is a diagram for explaining the operation of the robot arm according to the modified example of the second embodiment.

以下に添付図面を参照して、計測装置、計測方法およびロボットの実施形態を詳細に説明する。 The measuring device, the measuring method, and the embodiment of the robot will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、第1の実施形態に係る、3次元形状の計測を行う計測装置の一例の構成を示す。図1において、計測装置1は、処理・制御部10と、投影・撮像部20とを含む。処理・制御部10は、演算処理部11と、制御部12とを含む。投影・撮像部20は、第1の撮像部であるカメラ21aと、第2の撮像部であるカメラ21bと、投影部30とを含む。
(First Embodiment)
FIG. 1 shows a configuration of an example of a measuring device for measuring a three-dimensional shape according to the first embodiment. In FIG. 1, the measuring device 1 includes a processing / control unit 10 and a projection / imaging unit 20. The processing / control unit 10 includes an arithmetic processing unit 11 and a control unit 12. The projection / imaging unit 20 includes a camera 21a which is a first imaging unit, a camera 21b which is a second imaging unit, and a projection unit 30.

投影部30は、レーザ光を射出する光源と、光源から射出されたレーザ光を所定の方向に導出する光学系とを含む。投影部30は、投影制御部12の制御に従いレーザ光を2軸の各方向に偏向させて光走査を行い、計測対象に対して2次元のパターンを投影する。なお、投影部30が含む光源は、レーザ光を射出する光源に限定されない。すなわち、平行光を射出可能な光源であれば、投影部30の光源として適用可能である。 The projection unit 30 includes a light source that emits laser light and an optical system that derives the laser light emitted from the light source in a predetermined direction. The projection unit 30 deflects the laser beam in each of the two axes to perform optical scanning under the control of the projection control unit 12, and projects a two-dimensional pattern onto the measurement target. The light source included in the projection unit 30 is not limited to the light source that emits the laser beam. That is, any light source capable of emitting parallel light can be applied as a light source of the projection unit 30.

第1撮像部であるカメラ21aは、第1の焦点距離を持つレンズ22aと、撮像素子23aとを含み、入射された光がレンズ22aを介して撮像素子23aに照射される。カメラ21aは、撮像素子23aが照射された光を変換した電気信号を画像信号に変換して出力する。カメラ21bも同様に、第1の焦点距離より長い第2の焦点距離を持つレンズ22bと、撮像素子23bとを含み、入射された光を画像信号に変換して出力する。撮像素子23aおよび23bは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサといった一般的な撮像素子を用いることができる。また、カメラ21aおよび21bは、焦点距離(レンズ22aおよび22b)を除き、共通の構成とすることができる。 The camera 21a, which is the first image pickup unit, includes the lens 22a having the first focal length and the image pickup element 23a, and the incident light is irradiated to the image pickup element 23a via the lens 22a. The camera 21a converts an electric signal obtained by converting the light emitted by the image sensor 23a into an image signal and outputs the signal. Similarly, the camera 21b includes a lens 22b having a second focal length longer than the first focal length and an image sensor 23b, and converts the incident light into an image signal and outputs it. As the image pickup devices 23a and 23b, general image pickup elements such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used. Further, the cameras 21a and 21b can have a common configuration except for the focal lengths (lenses 22a and 22b).

第2撮像部であるカメラ21bは、投影部30により投影される2次元パターンの中心である投影中心300を中心とした第1の計測領域40を撮像するように、位置および角度が固定される。これに対して、カメラ21aは、投影中心300を中心とし、投影部30から見た場合に第1の計測領域40よりも遠距離にある第2の計測領域41を撮像するように、位置および角度が固定される。換言すれば、第2の計測領域41は、投影部30から第1の計測領域40を介して2次元のパターンが投影される領域である。 The position and angle of the camera 21b, which is the second imaging unit, are fixed so as to image the first measurement region 40 centered on the projection center 300, which is the center of the two-dimensional pattern projected by the projection unit 30. .. On the other hand, the camera 21a is positioned and positioned so as to image the second measurement area 41, which is centered on the projection center 300 and is farther than the first measurement area 40 when viewed from the projection unit 30. The angle is fixed. In other words, the second measurement area 41 is an area in which a two-dimensional pattern is projected from the projection unit 30 via the first measurement area 40.

カメラ21aおよび21bは、例えば制御部12の制御に従い撮像を行う。カメラ21aから出力された画像信号(第1撮像画像)、および、カメラ21bから出力された画像信号(第2撮像画像)は、それぞれ演算処理部11に供給される。演算処理部11は、供給された画像信号に基づき3次元座標の算出を行い、3次元形状を取得する。3次元座標の算出については後述する。 The cameras 21a and 21b perform imaging under the control of, for example, the control unit 12. The image signal (first captured image) output from the camera 21a and the image signal (second captured image) output from the camera 21b are supplied to the arithmetic processing unit 11, respectively. The arithmetic processing unit 11 calculates the three-dimensional coordinates based on the supplied image signal and acquires the three-dimensional shape. The calculation of the three-dimensional coordinates will be described later.

演算処理部11は、算出された3次元形状を示す3次元形状情報を計測装置1の外部に出力すると共に、制御部12に供給する。 The arithmetic processing unit 11 outputs the three-dimensional shape information indicating the calculated three-dimensional shape to the outside of the measuring device 1 and supplies it to the control unit 12.

制御部12は、演算処理部11から供給された信号(例えば、3次元形状情報)に応じて、投影部30が投影するパターン光(例えば、2次元パターン光)を切り替えることができる。また、制御部12は、カメラ21aとカメラ21bとを同期させて撮像制御を行う。すなわち、カメラ21aとカメラ21bとが略同時に撮像可能になるように制御する。略同時とは、例えば、カメラの1フレーム分の露光時間以内である。 The control unit 12 can switch the pattern light (for example, two-dimensional pattern light) projected by the projection unit 30 according to the signal (for example, three-dimensional shape information) supplied from the arithmetic processing unit 11. Further, the control unit 12 performs image pickup control in synchronization with the camera 21a and the camera 21b. That is, the camera 21a and the camera 21b are controlled so that they can take images at substantially the same time. Approximately simultaneous means, for example, within the exposure time of one frame of the camera.

このように、計測装置1は、カメラ21aおよび21bそれぞれについて、画像信号に基づき、3次元計測を実行することが可能な構成となっている。 As described above, the measuring device 1 has a configuration capable of executing three-dimensional measurement for each of the cameras 21a and 21b based on the image signal.

図2は、第1の実施形態に適用可能な投影部30の一例の構成を示す。図2において、投影部30は、レーザ光33を射出する、例えばレーザダイオードによる光源31と、照射された光を偏向させて反射させる偏向素子32とを含む。光源31から出射されたレーザ光33は、例えばレンズ34およびアパーチャ35を介して固定ミラー36に照射される。レーザ光33が固定ミラー36に反射された反射光は、偏向素子32の偏向中心に照射される。 FIG. 2 shows the configuration of an example of the projection unit 30 applicable to the first embodiment. In FIG. 2, the projection unit 30 includes a light source 31 that emits laser light 33, for example, by a laser diode, and a deflection element 32 that deflects and reflects the irradiated light. The laser beam 33 emitted from the light source 31 is applied to the fixed mirror 36 via, for example, the lens 34 and the aperture 35. The reflected light reflected by the laser beam 33 on the fixed mirror 36 is applied to the deflection center of the deflection element 32.

偏向素子32は、照射されたレーザ光33を2軸の方向(図中に矢印Mで示す)に偏向させて2次元の投影パターン60を形成する。この投影パターン60は、例えば対象50を含む領域に照射され投影される。 The deflection element 32 deflects the irradiated laser beam 33 in two axial directions (indicated by an arrow M in the figure) to form a two-dimensional projection pattern 60. The projection pattern 60 is irradiated and projected on a region including, for example, the target 50.

偏向素子32について、より具体的に説明する。例えば、偏向素子32は、図3に示すように、照射されたレーザ光33をライン方向(X軸方向)に偏向させ、さらに、Y軸方向に、すなわちライン順次に偏向させる。このような平行光による光走査をラスタスキャン方式とよぶ。これにより、2次元面上の一定の領域がレーザ光33により走査され、投影パターン60が形成される。このとき、例えば光源31の点灯および消灯(オン/オフ)を制御することで、所望の投影パターン60を対象に投影させることができる。 The deflection element 32 will be described more specifically. For example, as shown in FIG. 3, the deflection element 32 deflects the irradiated laser beam 33 in the line direction (X-axis direction), and further deflects the irradiated laser light 33 in the Y-axis direction, that is, in line order. Such optical scanning with parallel light is called a raster scan method. As a result, a certain region on the two-dimensional surface is scanned by the laser beam 33, and the projection pattern 60 is formed. At this time, for example, by controlling the lighting and extinguishing (on / off) of the light source 31, a desired projection pattern 60 can be projected onto the target.

偏向素子32としては、例えばMEMS(Micro Electro Mechanical Systems)光スキャナを用いることができる。MEMS光スキャナは、表面をミラー状態とした可動板と、可動板を2軸方向に傾斜可能な梁と、梁を支持する支持部とを含む構造をMEMS技術により形成する。MEMS光スキャナは、可動板を電磁駆動や静電駆動により駆動することで、可動板に照射された光を2軸の各方向に偏向させて反射させ射出することができる。偏向素子32を、MEMS技術を用いて形成することで、投影部30を小型化することが可能となり、例えば当該計測装置1をロボットアームなどに搭載して用いる場合に、ロボットアームの可搬重量に対する制限を抑制することができる。 As the deflection element 32, for example, a MEMS (Micro Electro Mechanical Systems) optical scanner can be used. The MEMS optical scanner forms a structure including a movable plate whose surface is in a mirror state, a beam whose movable plate can be tilted in a biaxial direction, and a support portion for supporting the beam by MEMS technology. By driving the movable plate by electromagnetic drive or electrostatic drive, the MEMS optical scanner can deflect the light irradiated to the movable plate in each direction of the two axes, reflect the light, and emit the light. By forming the deflection element 32 using MEMS technology, the projection unit 30 can be miniaturized. For example, when the measuring device 1 is mounted on a robot arm or the like and used, the payload of the robot arm can be reduced. It is possible to suppress the restriction on.

投影部30から射出されたレーザ光33は、レーザ光33の直進性により第1の計測領域40および第2の計測領域41それぞれにおいて十分な解像度が得られる。したがって、このようにレーザ光33を用いて走査を実施する投影部30は、カメラ21aおよび21bにおける焦点の調整が不要となる。したがって、平行光を光走査してパターン光を投影することにより、焦点の調整無しに、近傍と遠方に同時に適したパターン光を投影することができる。 The laser light 33 emitted from the projection unit 30 can obtain sufficient resolution in each of the first measurement area 40 and the second measurement area 41 due to the straightness of the laser light 33. Therefore, the projection unit 30 that performs scanning using the laser beam 33 in this way does not need to adjust the focus in the cameras 21a and 21b. Therefore, by light-scanning the parallel light and projecting the pattern light, it is possible to project the pattern light suitable for the near and far directions at the same time without adjusting the focus.

図4は、第1の実施形態に係る計測装置1の機能を説明するための一例の機能ブロック図である。なお、図4において、上述した図1および図2と共通する部分には同一の符号を付して、詳細な説明を省略する。 FIG. 4 is a functional block diagram of an example for explaining the function of the measuring device 1 according to the first embodiment. In FIG. 4, the same reference numerals are given to the portions common to those in FIGS. 1 and 2 described above, and detailed description thereof will be omitted.

演算処理部11は、カメラ21aおよび21bから出力された画像信号を解析する。演算処理部11は、画像信号の解析結果と、各カメラ21aおよび21bのキャリブレーション情報とを用いた演算処理により、3次元情報の復元処理を行い、これにより対象の3次元計測を実行する。演算処理部11は、復元された3次元情報を投影制御部12に供給する。 The arithmetic processing unit 11 analyzes the image signals output from the cameras 21a and 21b. The arithmetic processing unit 11 performs arithmetic processing using the analysis result of the image signal and the calibration information of each of the cameras 21a and 21b to restore the three-dimensional information, thereby executing the target three-dimensional measurement. The arithmetic processing unit 11 supplies the restored three-dimensional information to the projection control unit 12.

制御部12は、投影制御部120と、パターン記憶部121と、光源駆動部122と、偏向素子駆動部123と、撮像制御部124とを含む。偏向素子駆動部123は、投影制御部120の制御に従い偏向素子32を駆動する。投影制御部120は、偏向素子32の偏向中心に照射されたレーザ光33が対象をライン順次で走査するように(図3参照)、偏向素子駆動部123を制御する。撮像制御部124は、カメラ21aおよびカメラ21bの撮像タイミングや露光量を制御する。また、撮像制御部124は、カメラ21aとカメラ21bとの同期撮像が可能となるようにカメラ21aとカメラ21bとに撮像命令信号を略同時に出力する。 The control unit 12 includes a projection control unit 120, a pattern storage unit 121, a light source drive unit 122, a deflection element drive unit 123, and an image pickup control unit 124. The deflection element driving unit 123 drives the deflection element 32 under the control of the projection control unit 120. The projection control unit 120 controls the deflection element drive unit 123 so that the laser beam 33 irradiated to the deflection center of the deflection element 32 scans the target in line sequence (see FIG. 3). The image pickup control unit 124 controls the image pickup timing and the exposure amount of the camera 21a and the camera 21b. Further, the image pickup control unit 124 outputs an image pickup command signal to the camera 21a and the camera 21b substantially simultaneously so that the camera 21a and the camera 21b can perform synchronous image pickup.

光源駆動部122は、投影制御部120の制御に従い光源31の点灯および消灯を制御する。パターン記憶部121は、例えば、計測装置1が含む不揮発性の記憶媒体に予め記憶される、光源31から出射され偏向素子32により偏向されたレーザ光33を対象に投影させる際の投影パターン60を形成するためのパターン情報を、投影制御部120からの指示に従い読み出して、投影制御部120に渡す。投影制御部120は、パターン記憶部121から渡されたパターン情報に基づき光源駆動部122を制御する。 The light source driving unit 122 controls turning on and off of the light source 31 according to the control of the projection control unit 120. The pattern storage unit 121, for example, displays a projection pattern 60 for projecting a laser beam 33 emitted from a light source 31 and deflected by a deflection element 32, which is stored in advance in a non-volatile storage medium included in the measuring device 1. The pattern information to be formed is read out according to the instruction from the projection control unit 120 and passed to the projection control unit 120. The projection control unit 120 controls the light source driving unit 122 based on the pattern information passed from the pattern storage unit 121.

投影制御部120は、演算処理部11から供給された、復元された3次元情報に基づき、パターン記憶部121に対してパターン情報の読み出しを指示する。投影制御部120は、パターン記憶部121により読み出されたパターン情報に従い光源駆動部122を制御する。また、投影制御部120は、読み出したパターン情報に応じて演算処理部11に対して演算方法を指示する。 The projection control unit 120 instructs the pattern storage unit 121 to read the pattern information based on the restored three-dimensional information supplied from the arithmetic processing unit 11. The projection control unit 120 controls the light source driving unit 122 according to the pattern information read by the pattern storage unit 121. Further, the projection control unit 120 instructs the calculation processing unit 11 on the calculation method according to the read pattern information.

なお、図4において、演算処理部11、投影制御部120および撮像制御部124は、CPU(Central Processing Unit)上で動作する計測プログラムにより実現することができる。これに限らず、演算処理部11、投影制御部120および撮像制御部124を、互いに協働して動作するハードウェア回路により構成してもよい。 In FIG. 4, the arithmetic processing unit 11, the projection control unit 120, and the image pickup control unit 124 can be realized by a measurement program that operates on a CPU (Central Processing Unit). Not limited to this, the arithmetic processing unit 11, the projection control unit 120, and the image pickup control unit 124 may be configured by a hardware circuit that operates in cooperation with each other.

図5は、第1の実施形態に適用可能な計測装置1における処理・制御部10の一例のハードウェア構成を示す。図5において、処理・制御部10は、CPU100と、ROM(Read Only Memory)101と、RAM(Random Access Memory)102と、ストレージ103と、制御I/F(インタフェース)104および105と、データI/F106と、通信I/F107とを含み、これら各部がバス110により互いに通信可能に接続される。 FIG. 5 shows a hardware configuration of an example of the processing / control unit 10 in the measuring device 1 applicable to the first embodiment. In FIG. 5, the processing / control unit 10 includes a CPU 100, a ROM (Read Only Memory) 101, a RAM (Random Access Memory) 102, a storage 103, control I / Fs (interfaces) 104 and 105, and data I. The / F106 and the communication I / F107 are included, and each of these parts is communicably connected to each other by the bus 110.

ストレージ103は、データを不揮発に記憶する記憶媒体であって、ハードディスクドライブやフラッシュメモリを適用できる。ストレージ103は、CPU100が動作するためのプログラムやデータが記憶される。また、ストレージ103は、複数のパターン情報が予め記憶される。パターン記憶部121は、投影制御部120に指定されたパターン情報を、ストレージ103から読み出す。なお、ROM101を書き換え可能なROMとし、ストレージ103の機能をROM101により実現してストレージ103を省略してもよい。 The storage 103 is a storage medium that stores data non-volatilely, and a hard disk drive or a flash memory can be applied. The storage 103 stores programs and data for operating the CPU 100. Further, the storage 103 stores a plurality of pattern information in advance. The pattern storage unit 121 reads the pattern information designated by the projection control unit 120 from the storage 103. The ROM 101 may be a rewritable ROM, the function of the storage 103 may be realized by the ROM 101, and the storage 103 may be omitted.

CPU100は、例えば、ROM101やストレージ103に予め記憶されたプログラムに従い、RAM102をワークメモリとして用い、この処理・制御部10の全体の動作を制御する。制御I/F104および105は、それぞれ、光源31および偏光素子32を駆動するための駆動回路に対するインタフェースである。 The CPU 100 uses the RAM 102 as a work memory according to, for example, a program stored in advance in the ROM 101 or the storage 103, and controls the entire operation of the processing / control unit 10. The control I / F 104 and 105 are interfaces to the drive circuit for driving the light source 31 and the polarizing element 32, respectively.

データI/F106は、外部の機器との間でデータの送受信を行う。通信I/F107は、通信ネットワークに対する通信を制御する。この計測装置1の外部と投影制御部120との間で、データI/F106または通信I/F107を介して通信を行うことで、外部からこの計測装置1の動作を制御することができる。なお、計測装置1の使用環境などによっては、データI/F106および通信I/F107のうち何れか一方を省略することができる。
なお、第1の実施形態に係る計測装置1で実行される計測プログラムは、ストレージ103やROM101などに予め記憶されて提供される。これに限らず、第1の実施形態に係る計測装置1で実行される計測プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
The data I / F 106 transmits / receives data to / from an external device. The communication I / F 107 controls communication with respect to the communication network. By communicating between the outside of the measuring device 1 and the projection control unit 120 via the data I / F 106 or the communication I / F 107, the operation of the measuring device 1 can be controlled from the outside. Depending on the usage environment of the measuring device 1, one of the data I / F 106 and the communication I / F 107 may be omitted.
The measurement program executed by the measuring device 1 according to the first embodiment is stored in advance in the storage 103, ROM 101, or the like and provided. Not limited to this, the measurement program executed by the measurement device 1 according to the first embodiment is a file in an installable format or an executable format, and is a CD (Compact Disk), a flexible disk (FD), or a DVD (Digital). It may be configured to be recorded and provided on a computer-readable recording medium such as Versatile Disk).

さらに、第1の実施形態に係る計測装置1で実行される計測プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1の実施形態に係る計測装置1で実行される計測プログラムをインターネットなどのネットワーク経由で提供または配布するように構成してもよい。 Further, the measurement program executed by the measurement device 1 according to the first embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. .. Further, the measurement program executed by the measuring device 1 according to the first embodiment may be provided or distributed via a network such as the Internet.

第1の実施形態に係る計測装置1で実行される計測プログラムは、上述した演算処理部11および投影制御部120、撮像制御部124を含むモジュール構成となっている。実際のハードウェアとしては、CPU100が、ROM101またはストレージ103から計測プログラムを読み出して実行することにより、上述した各部がRAM102などの主記憶装置上にロードされ、演算処理部11および投影制御部120、撮像制御部124が主記憶装置上に生成されるようになっている。 The measurement program executed by the measurement device 1 according to the first embodiment has a modular configuration including the above-mentioned arithmetic processing unit 11, the projection control unit 120, and the image pickup control unit 124. As actual hardware, when the CPU 100 reads a measurement program from the ROM 101 or the storage 103 and executes it, each of the above-described units is loaded onto a main storage device such as a RAM 102, and the arithmetic processing unit 11 and the projection control unit 120, The image pickup control unit 124 is generated on the main storage device.

(第1の実施形態に適用可能な3次元計測について)
次に、第1の実施形態に適用可能な3次元計測について説明する。対象の形状および姿勢を3次元情報として取得する3次元計測を、対象に照射された光を観測することで行うための、幾つかの方法が知られている。第1の実施形態に係る計測装置1では、3次元計測を実行する方法として、(1)位相シフト法を用いた計測、(2)光切断法を用いた計測、および、(3)ランダムドット法を用いた計測、の3方法を採用する。なお、上述した3方法については、例えば、非特許文献1、非特許文献2に記載されている公知な方法を適用することができる。
(About 3D measurement applicable to the first embodiment)
Next, the three-dimensional measurement applicable to the first embodiment will be described. Several methods are known for performing three-dimensional measurement for acquiring the shape and posture of an object as three-dimensional information by observing the light emitted to the object. In the measuring device 1 according to the first embodiment, as a method of performing three-dimensional measurement, (1) measurement using a phase shift method, (2) measurement using an optical cutting method, and (3) random dots Three methods, measurement using the method, are adopted. As for the above-mentioned three methods, for example, known methods described in Non-Patent Document 1 and Non-Patent Document 2 can be applied.

(1)の位相シフト法を用いた計測について、概略的に説明する。位相シフト法では、非特許文献1に記載されるように、図6(a)に例示される、それぞれ位相の異なる位相シフトパターンである複数の投影パターン6010、6011、6012および6013を用いた位相解析により、3次元の形状および姿勢の復元を行う。このとき、図6(b)に例示される、それぞれ異なるグレイコードパターンである複数の投影パターン6020、6021、6022および6023を用いた空間コード化法を併用し、これら空間コード化法および位相シフト法の結果に基づき位相連結を行うことで、高精度に3次元の形状および姿勢の復元を行うことができる。 The measurement using the phase shift method of (1) will be schematically described. In the phase shift method, as described in Non-Patent Document 1, a plurality of projection patterns 60 10 , 60 11 , 60 12 and 60 13 which are phase shift patterns having different phases as exemplified in FIG. 6A. The three-dimensional shape and orientation are restored by phase analysis using. At this time, a spatial coding method using a plurality of projection patterns 60 20 , 60 21 , 60 22 and 60 23 , which are different gray code patterns exemplified in FIG. 6B, is used in combination to perform these spatial coding. By performing phase connection based on the results of the method and the phase shift method, it is possible to restore the three-dimensional shape and orientation with high accuracy.

このように、(1)の位相シフト法を用いた計測では、複数の投影パターン6010〜6013、6020〜6023それぞれについて撮像を行う必要がある。 As described above, in the measurement using the phase shift method of (1), it is necessary to take an image for each of a plurality of projection patterns 60 10 to 60 13 and 60 20 to 60 23 .

(2)の光切断法を用いた計測について、概略的に説明する。光切断法は、非特許文献2に記載されるように、ライン光源により計測対象50に対して輝線を照射し、この輝線が照射された計測対象50を撮像し、輝線画像を得る。例えば図7に例示するように、偏向素子32によりレーザ光33を偏向させてライン方向に走査することで、ライン方向の輝線33bを形成することができる。この輝線画像に基づき、計測対象50の1ライン分の3次元形状が生成される。図7の投影パターン603に示すように、計測対象50に対して複数ラインについて走査を行うことで、計測対象50の全体の3次元形状を生成できる。このような光切断パターンを用いた光切断法は、計測対象50が光沢を有する場合に用いて好適である。 The measurement using the optical cutting method of (2) will be schematically described. In the light cutting method, as described in Non-Patent Document 2, a line light source irradiates a measurement target 50 with a emission line, and the measurement target 50 irradiated with the emission line is imaged to obtain a emission line image. For example, as illustrated in FIG. 7, the emission line 33b in the line direction can be formed by deflecting the laser beam 33 by the deflection element 32 and scanning in the line direction. Based on this emission line image, a three-dimensional shape for one line of the measurement target 50 is generated. As shown in the projection pattern 60 3 of FIG. 7, by performing the scanning for the plurality of lines relative to the measurement target 50, can generate an overall three-dimensional shape of the measurement target 50. The light cutting method using such a light cutting pattern is suitable for use when the measurement target 50 has gloss.

(3)のランダムドット法を用いた計測について、概略的に説明する。図8は、ランダムドット法で用いる投影パターン604の例を示す。投影パターン604は、輝度値が2値で表現された各ドットがランダムに配置されたランダムドットパターンである。ランダムドット法では、投影に用いる投影パターン604と、投影パターン604が計測対象に反射された反射画像より得たパターンとの対応位置を求める。例えば、投影パターン604を複数のブロックに分割し、投影パターン604と反射画像による反射画像パターンとのパターンマッチングをブロック毎に行うことで、投影パターン604における各ドットに対する反射画像パターンにおける各ドットとの対応位置を求めることができる。 The measurement using the random dot method of (3) will be schematically described. Figure 8 shows an example of a projection pattern 60 4 used in the random dot method. Projection pattern 60 4 is a random dot pattern in which each dot which the luminance value is expressed in binary is randomly arranged. The random dot method, obtaining a projection pattern 60 4 used for the projection, the corresponding position of the pattern projected pattern 60 4 was obtained from the reflected image reflected in the measurement object. For example, dividing the projection pattern 60 4 into a plurality of blocks, the pattern matching between the reflection image pattern by the projection patterns 60 4 and the reflected image by performing for each block, each of the reflected image pattern for the dots in the projection pattern 60 4 The position corresponding to the dot can be obtained.

ランダムドット法では、各ドットがランダムに配置された投影パターン604を用いるため、対応点を一意に求めることができる。すなわち、ランダムドット法は、1回の撮像により3次元計測を実行することが可能である。 The random dot method, for using the projection pattern 60 4 dots are arranged at random, it is possible to obtain corresponding points uniquely. That is, in the random dot method, it is possible to perform three-dimensional measurement by one imaging.

(第1の実施形態に係る3次元計測の具体例)
次に、第1の実施形態に係る3次元計測について、より具体的に説明する。図9は、第1の実施形態に係る3次元計測処理を示す一例のフローチャートである。
(Specific example of three-dimensional measurement according to the first embodiment)
Next, the three-dimensional measurement according to the first embodiment will be described more specifically. FIG. 9 is an example flowchart showing a three-dimensional measurement process according to the first embodiment.

なお、以下では、計測装置1は、計測対象50の3次元形状を、例えばCAD(Computer-Aided Design)データや実測値などにより予め取得しているものとする。この3次元形状は、計測対象50の3次元座標を含み、例えばストレージ103に記憶される。これに限らず、計測装置1は、計測対象50が載置される台座の3次元形状を予め取得しておき、計測した3次元形状と台座の3次元形状との差分を求めることで、計測対象の3次元形状を求めてもよい。また、計測装置1に用いられるカメラ21aおよび21bは、既知のカメラキャリブレーション、アクティブ・カメラキャリブレーションにより、キャリブレーション情報が予め取得されているものとする。 In the following, it is assumed that the measuring device 1 has acquired the three-dimensional shape of the measurement target 50 in advance from, for example, CAD (Computer-Aided Design) data or actual measurement values. This three-dimensional shape includes the three-dimensional coordinates of the measurement target 50 and is stored in the storage 103, for example. Not limited to this, the measuring device 1 measures by acquiring the three-dimensional shape of the pedestal on which the measurement target 50 is placed in advance and obtaining the difference between the measured three-dimensional shape and the three-dimensional shape of the pedestal. The three-dimensional shape of the object may be obtained. Further, it is assumed that the cameras 21a and 21b used in the measuring device 1 have calibration information acquired in advance by known camera calibration and active camera calibration.

図9に示されるように、第1の実施形態に係る3次元計測処理は、処理Aと処理Bとに大別できる。処理Aは、計測対象50を認識するための処理であって、より高速な処理が望まれる。処理Bは、計測対象の3次元形状を詳細に検出し、3次元座標を算出する処理である。 As shown in FIG. 9, the three-dimensional measurement process according to the first embodiment can be roughly divided into process A and process B. The process A is a process for recognizing the measurement target 50, and a higher speed process is desired. The process B is a process of detecting the three-dimensional shape of the measurement target in detail and calculating the three-dimensional coordinates.

処理Aについて説明する。処理Aでは、上述した(3)のランダムドット法を用いて3次元計測を行う。ステップS10で、計測装置1は、第1の計測領域40および、第2の計測領域41について計測を実行する。 Process A will be described. In process A, three-dimensional measurement is performed using the random dot method of (3) described above. In step S10, the measuring device 1 executes measurement in the first measuring area 40 and the second measuring area 41.

より具体的には、計測装置1において、投影制御部120は、パターン記憶部121に対して、ランダムドット法による投影パターン604のパターン情報を指定し、指定されたパターン情報を読み出すように指示する。投影制御部120は、パターン記憶部121が読み出した投影パターン604のパターン情報に従い光源駆動部122および偏向素子駆動部123を制御して、図8に例示したような投影パターン604の投影を行う。また、投影制御部120は、読み出したパターン情報を演算処理部11に出力する。 More specifically, in the measurement device 1, the projection control unit 120, the pattern storage unit 121, specifies the pattern information of the projection pattern 60 4 by random dot method, an instruction to read the designated pattern information To do. Projection control unit 120 controls the light source driver 122 and the deflection device driving section 123 in accordance with the pattern information of the projection pattern 60 4 pattern storage unit 121 is read out, the projection of the projection pattern 60 4 as illustrated in FIG. 8 Do. Further, the projection control unit 120 outputs the read pattern information to the arithmetic processing unit 11.

投影制御部120は、投影パターン604の投影と同期して、撮像制御部124に対して、カメラ21aによる第1の計測領域40の撮像と、カメラ21bによる第2の計測領域41の撮像と、を実行させるための実行信号を出力する。撮像制御部124は、投影部制御部120から出力された実行信号を受けて、カメラ21a(第1撮像部)およびカメラ21b(第2撮像部)に略同時に撮像命令信号を出力する。カメラ21aおよびカメラ21bは、それぞれ撮像して生成した画像信号(第1撮像画像、第2撮像画像)を演算処理部11に出力する。演算処理部11は、カメラ21aおよびカメラ21bから取得した各画像信号と、投影制御部120から渡されたパターン情報とに基づきパターンマッチングを行って第1の計測領域40および第2の計測領域41における3次元座標をそれぞれ算出し、3次元形状を求める。 Projection control unit 120, in synchronization with the projection of the projection pattern 60 4, the imaging control unit 124, the imaging of the first measurement area 40 by the camera 21a, the imaging of the second measurement area 41 by the camera 21b , Is output to execute the execution signal. The image pickup control unit 124 receives the execution signal output from the projection unit control unit 120 and outputs an image pickup command signal to the camera 21a (first image pickup unit) and the camera 21b (second image pickup unit) substantially simultaneously. The camera 21a and the camera 21b output the image signals (first captured image, second captured image) generated by imaging to the arithmetic processing unit 11. The arithmetic processing unit 11 performs pattern matching based on each image signal acquired from the camera 21a and the camera 21b and the pattern information passed from the projection control unit 120, and performs pattern matching on the first measurement area 40 and the second measurement area 41. The three-dimensional coordinates in the above are calculated to obtain the three-dimensional shape.

次のステップS11で、計測装置1において、演算処理部11は、ステップS10で求めた3次元形状に基づき、第1の計測領域40に計測対象50が存在するか否かを判定する。例えば、演算処理部11は、ストレージ103に記憶される計測対象50の3次元形状と、ステップS10で算出された3次元形状とを比較し、比較結果に基づき第1の計測領域40において計測対象50が認識されたか否かを判定する。演算処理部11は、第1の計測領域40内に計測対象50が認識されたと判定した場合(ステップS11、「有り」)、処理を、処理B内のステップS20に移行させる。一方、演算処理部11は、第1の計測領域40内に計測対象50が認識されないと判定した場合(ステップS11、「無し」)、処理をステップS12に移行させる。 In the next step S11, in the measuring device 1, the arithmetic processing unit 11 determines whether or not the measurement target 50 exists in the first measurement area 40 based on the three-dimensional shape obtained in step S10. For example, the arithmetic processing unit 11 compares the three-dimensional shape of the measurement target 50 stored in the storage 103 with the three-dimensional shape calculated in step S10, and based on the comparison result, the measurement target in the first measurement area 40. It is determined whether or not 50 is recognized. When the arithmetic processing unit 11 determines that the measurement target 50 is recognized in the first measurement area 40 (step S11, “Yes”), the arithmetic processing unit 11 shifts the processing to step S20 in the processing B. On the other hand, when the arithmetic processing unit 11 determines that the measurement target 50 is not recognized in the first measurement area 40 (step S11, “none”), the arithmetic processing unit 11 shifts the processing to step S12.

ステップS12で、演算処理部11は、上述したステップS11と同様にして、ステップS10で求めた3次元形状に基づき、第2の計測領域41において計測対象50が認識されたか否かを判定する。演算処理部11は、第2の計測領域41内に計測対象50が認識されたと判定した場合(ステップS12、「有り」)、処理を、処理B内のステップS20に移行させる。 In step S12, the arithmetic processing unit 11 determines whether or not the measurement target 50 is recognized in the second measurement area 41 based on the three-dimensional shape obtained in step S10 in the same manner as in step S11 described above. When the arithmetic processing unit 11 determines that the measurement target 50 is recognized in the second measurement area 41 (step S12, “Yes”), the arithmetic processing unit 11 shifts the processing to step S20 in the processing B.

一方、演算処理部11は、第2の計測領域41内に計測対象50が認識されないと判定した場合(ステップS12、「無し」)、処理をステップS14に移行させる。この場合、第1の計測領域40および第2の計測領域41の両方において計測対象50が認識されていないことになる。計測装置1は、ステップS14で、エラー処理を行い、図9のフローチャートによる一連の処理が終了される。エラー処理は、例えば計測装置1の上位装置に対してエラーを返す処理が考えられる。 On the other hand, when the arithmetic processing unit 11 determines that the measurement target 50 is not recognized in the second measurement area 41 (step S12, “none”), the arithmetic processing unit 11 shifts the processing to step S14. In this case, the measurement target 50 is not recognized in both the first measurement area 40 and the second measurement area 41. The measuring device 1 performs error processing in step S14, and a series of processing according to the flowchart of FIG. 9 is completed. As the error processing, for example, a process of returning an error to a higher-level device of the measuring device 1 can be considered.

次に、処理Bについて説明する。処理Bでは、ステップS10またはステップS12で計測され認識された3次元形状に対して、さらに詳細な計測を実行する。また、処理Bでは、第1の計測領域40および第2の計測領域41のうち、上述の処理Aにおいて計測対象50が認識された計測領域を指定された計測領域として、この指定された計測領域について計測を行う。 Next, the process B will be described. In process B, more detailed measurement is performed on the three-dimensional shape measured and recognized in step S10 or step S12. Further, in the process B, of the first measurement area 40 and the second measurement area 41, the measurement area in which the measurement target 50 is recognized in the above-mentioned process A is designated as the designated measurement area. To measure.

処理Bにおいて、ステップS20で、例えば演算処理部11は、計測方法を選択する。ここでは、上述した(1)の位相シフト法を用いた計測方法(第1の計測方法とする)と、(2)の光切断法を用いた計測方法(第2の計測方法とする)と、(3)のランダムドット法を用いた計測方法(第3の計測方法とする)とから、計測方法を選択する。また、この例では、処理Bにおいては、第1〜第3の計測方法は、第1の計測方法が最も優先度が高く、第3の計測方法が最も優先度が低いものとしている。優先度は、各計測方法の精度や速度から任意に設定可能である。 In process B, in step S20, for example, the arithmetic processing unit 11 selects a measurement method. Here, the measurement method using the phase shift method of (1) described above (referred to as the first measurement method) and the measurement method using the optical cutting method of (2) (referred to as the second measurement method). , (3) The measurement method using the random dot method (referred to as the third measurement method) is selected. Further, in this example, in the process B, in the first to third measurement methods, the first measurement method has the highest priority and the third measurement method has the lowest priority. The priority can be arbitrarily set from the accuracy and speed of each measurement method.

演算処理部11は、ステップS20で第1の計測方法を選択すると、選択した計測方法を投影制御部120に伝え、処理をステップS21aに移行させる。ステップS21a〜ステップS23aの処理は、第1の計測方法すなわち位相シフト法を用いた計測方法により3次元計測を行う処理である。ステップS21aで、投影制御部120は、演算処理部11から伝えられた計測方法に従い、位相シフトパターンおよびグレイコードパターンによる投影を行うように制御する。また、投影制御部120は、撮像制御部124に対して、ステップS11で第1の計測領域40に計測対象50が有ると判定した場合は、カメラ21aに対して、第1計測領域40の撮像の実行命令を出力する。また、投影制御部120は、ステップS12で第2計測領域41に計測対象50が有ると判定した場合は、カメラ21bに対して、第2計測領域41の撮像の実行信号を出力する。投影部制御部120の実行信号を受けて、撮像制御部124は、カメラ21aまたはカメラ21bに対して撮像命令信号を出力する。 When the arithmetic processing unit 11 selects the first measurement method in step S20, the arithmetic processing unit 11 transmits the selected measurement method to the projection control unit 120, and shifts the processing to step S21a. The processes of steps S21a to S23a are processes for performing three-dimensional measurement by the first measurement method, that is, the measurement method using the phase shift method. In step S21a, the projection control unit 120 controls to perform projection by the phase shift pattern and the Gray code pattern according to the measurement method transmitted from the arithmetic processing unit 11. Further, when the projection control unit 120 determines in step S11 that the measurement target 50 is in the first measurement area 40 with respect to the image pickup control unit 124, the projection control unit 120 takes an image of the first measurement area 40 with respect to the camera 21a. Outputs the execution command of. Further, when the projection control unit 120 determines in step S12 that the measurement target 50 is in the second measurement area 41, the projection control unit 120 outputs an imaging execution signal of the second measurement area 41 to the camera 21b. Upon receiving the execution signal of the projection unit control unit 120, the image pickup control unit 124 outputs an image pickup command signal to the camera 21a or the camera 21b.

より具体的には、投影制御部120は、位相シフトパターンによる投影パターン6010〜6013の投影を順次実行するように、パターン記憶部121に対して読み出す各パターン情報を指定し、指定された各パターン情報を読み出すように指示する。投影制御部120は、指示に従いパターン記憶部121により読み出されたパターン情報に従い光源駆動部122および偏向素子駆動部123をそれぞれ制御する。また、投影制御部120は、各投影パターン6010〜6013の投影に同期して、指定された計測領域に対応するカメラによる撮像を実行するように、撮像制御部124に指示する。演算処理部11は、各投影パターン6010〜6013の投影に同期して撮像して得た各画像信号を、例えばRAM102に記憶する。 More specifically, the projection control unit 120 specifies and designated each pattern information to be read out to the pattern storage unit 121 so as to sequentially execute the projection of the projection patterns 60 10 to 60 13 by the phase shift pattern. Instruct to read each pattern information. The projection control unit 120 controls the light source drive unit 122 and the deflection element drive unit 123, respectively, according to the pattern information read by the pattern storage unit 121 according to the instruction. Further, the projection control unit 120 instructs the image pickup control unit 124 to perform imaging by the camera corresponding to the designated measurement area in synchronization with the projection of each projection pattern 60 10 to 60 13 . The arithmetic processing unit 11 stores, for example, each image signal obtained by imaging in synchronization with the projection of each projection pattern 60 10 to 60 13 in the RAM 102, for example.

投影制御部120は、さらに、グレイコードパターンによる投影パターン6020〜6023の投影を順次実行するように、パターン記憶部121に対して読み出す各パターン情報を指定し、指定された各パターン情報を読み出すように指示する。投影制御部120は、指示に従いパターン記憶部121により読み出されたパターン情報に従い光源駆動部122および偏向素子駆動部123をそれぞれ制御する。また、投影制御部120は、各投影パターン6020〜6023の投影に同期して、指定された計測領域に対応するカメラによる撮像を実行するように、撮像制御部124に指示する。演算処理部11は、各投影パターン6020〜6023の投影に同期して撮像して得た各画像信号を、例えばRAM102に記憶する。 The projection control unit 120 further designates each pattern information to be read from the pattern storage unit 121 so as to sequentially execute the projection of the projection patterns 60 20 to 60 23 by the gray code pattern, and displays each of the designated pattern information. Instruct to read. The projection control unit 120 controls the light source drive unit 122 and the deflection element drive unit 123, respectively, according to the pattern information read by the pattern storage unit 121 according to the instruction. Further, the projection control unit 120 instructs the image pickup control unit 124 to execute the image pickup by the camera corresponding to the designated measurement area in synchronization with the projection of each projection pattern 60 20 to 60 23 . The arithmetic processing unit 11 stores, for example, each image signal obtained by imaging in synchronization with the projection of each projection pattern 60 20 to 60 23 in the RAM 102, for example.

図6(a)および図6(b)の投影パターン6010〜6013、6020〜6023を用いる場合、演算処理部11は、ステップS21aにおいて撮像動作を8回、実行することになる。 When the projection patterns 60 10 to 60 13 and 60 20 to 60 23 of FIGS. 6 (a) and 6 (b) are used, the arithmetic processing unit 11 executes the imaging operation eight times in step S21a.

次のステップS22aで、演算処理部11は、ステップS21aで撮像して得た各画像信号に基づき、解析処理を実行する。より具体的には、演算処理部11は、位相シフトパターンによる投影パターン6010〜6013を撮像して得た各画像信号に基づき位相解析を行う。また、演算処理部11は、グレイコードパターンによる投影パターン6020〜6023を撮像して得た各画像信号に基づきグレイコード解析を行う。さらに、演算処理部11は、位相解析を行った結果と、グレイコード解析を行った結果に基づき位相連結の演算を行う。 In the next step S22a, the arithmetic processing unit 11 executes the analysis process based on each image signal obtained by imaging in the step S21a. More specifically, the arithmetic processing unit 11 performs phase analysis based on each image signal obtained by imaging the projection patterns 60 10 to 60 13 based on the phase shift pattern. Further, the arithmetic processing unit 11 performs Gray code analysis based on each image signal obtained by imaging the projection patterns 60 20 to 60 23 based on the Gray code pattern. Further, the arithmetic processing unit 11 performs a phase connection calculation based on the result of the phase analysis and the result of the Gray code analysis.

次のステップS23aで、演算処理部11は、ステップS22aによる位相連結の演算結果により取得した三角測量で用いる対応位置と、ステップS21aで投影制御部120から渡された各投影パターン6010〜6013、6020〜6023のパターン情報と、指定された計測領域に対応するカメラのキャリブレーション情報とを用いて、既知の手法により、計測対象の3次元座標を算出し、3次元形状を求める。 In the next step S23a, the arithmetic processing unit 11 determines the corresponding position used in the triangulation acquired by the calculation result of the phase connection in step S22a, and each projection pattern 60 10 to 60 13 passed from the projection control unit 120 in step S21a. , 60 20 to 60 23 The three-dimensional coordinates of the measurement target are calculated by a known method using the pattern information of 60 20 to 60 23 and the calibration information of the camera corresponding to the specified measurement area, and the three-dimensional shape is obtained.

演算処理部11は、ステップS23aで3次元形状を求めると、処理をステップS24に移行させる。ステップS24で、演算処理部11は、ステップS23aで求めた3次元形状の可否を判定する。例えば、演算処理部11は、ステップS23aで求めた3次元形状と、計測対象について予め取得される3次元形状との差分を求め、差分が閾値未満の場合に、十分な3次元形状が得られたと判定する。演算処理部11は、十分な3次元形状が得られたと判定した場合(ステップS24、「OK」)、処理をステップS25に移行させ、算出された3次元形状を示す形状情報を、例えば計測装置1の外部に出力する。 When the arithmetic processing unit 11 obtains the three-dimensional shape in step S23a, the arithmetic processing unit 11 shifts the processing to step S24. In step S24, the arithmetic processing unit 11 determines whether or not the three-dimensional shape obtained in step S23a is possible. For example, the arithmetic processing unit 11 obtains the difference between the three-dimensional shape obtained in step S23a and the three-dimensional shape acquired in advance for the measurement target, and when the difference is less than the threshold value, a sufficient three-dimensional shape is obtained. Judged as When the arithmetic processing unit 11 determines that a sufficient three-dimensional shape has been obtained (step S24, “OK”), the processing shifts to step S25, and the shape information indicating the calculated three-dimensional shape is, for example, a measuring device. Output to the outside of 1.

一方、演算処理部11は、ステップS24で十分な3次元形状が得られなかったと判定した場合(ステップS24、「NG」)、処理をステップS20に戻す。このとき、演算処理部11は、直前の3次元計測で用いた計測方法の次に優先度が高い計測方法を選択する。上述の例では、直前の3次元計測では第1の計測方法(位相シフト法を用いた計測方法)が用いられているため、第1の計測方法の次に優先度が高い第2の計測方法(この例では光切断法を用いた計測方法)を選択する。 On the other hand, when the arithmetic processing unit 11 determines that a sufficient three-dimensional shape has not been obtained in step S24 (step S24, “NG”), the processing returns to step S20. At this time, the arithmetic processing unit 11 selects the measurement method having the next highest priority after the measurement method used in the immediately preceding three-dimensional measurement. In the above example, since the first measurement method (measurement method using the phase shift method) is used in the immediately preceding three-dimensional measurement, the second measurement method having the next highest priority after the first measurement method. (In this example, the measurement method using the optical cutting method) is selected.

演算処理部11は、ステップS20で第2の計測方法を選択すると、選択した計測方法を投影制御部120に伝え、処理をステップS21bに移行させる。ステップS21b〜ステップS23bの処理は、第2の計測方法すなわち光切断法を用いた計測方法により3次元計測を行う処理である。ステップS21bで、投影制御部120は、演算処理部11から伝えられた計測方法に従い、光切断パターンによる投影を行うように制御すると共に、撮像制御部124に対して、指定された計測領域に対応するカメラにより当該計測領域の撮像を行うよう指示する。 When the arithmetic processing unit 11 selects the second measurement method in step S20, the arithmetic processing unit 11 transmits the selected measurement method to the projection control unit 120, and shifts the processing to step S21b. The processes of steps S21b to S23b are processes for performing three-dimensional measurement by the second measurement method, that is, the measurement method using the optical cutting method. In step S21b, the projection control unit 120 controls the projection according to the optical cutting pattern according to the measurement method transmitted from the arithmetic processing unit 11, and corresponds to the measurement area designated by the image pickup control unit 124. Instruct the camera to take an image of the measurement area.

より具体的には、投影制御部120は、光切断パターンによる投影パターン603の投影を実行するように、パターン記憶部121に対して読み出すパターン情報を指定し、指定されたパターン情報を読み出すように指示する。投影制御部120は、指示に従いパターン記憶部121により読み出されたパターン情報に従い光源駆動部122および偏向素子駆動部123をそれぞれ制御する。また、投影制御部120は、投影パターン603の投影に同期して、指定された計測領域に対応するカメラによる撮像を実行するように、撮像制御部124に指示する。演算処理部11は、投影パターン603の投影に同期して撮像して得た各輝線画像の画像信号を、例えばRAM102に記憶する。 More specifically, the projection control unit 120 to perform a projection of the projection pattern 60 3 by light cleavage pattern, specify the pattern information reading the pattern storage unit 121, to read the specified pattern information Instruct. The projection control unit 120 controls the light source drive unit 122 and the deflection element drive unit 123, respectively, according to the pattern information read by the pattern storage unit 121 according to the instruction. The projection control unit 120, in synchronization with the projection of the projection pattern 60 3, so as to perform imaging by the camera corresponding to the specified measurement region, and instructs the imaging control unit 124. Operation processing unit 11, an image signal of each bright line image obtained by imaging in synchronization with the projection of the projection pattern 60 3 is stored, for example, in RAM 102.

次のステップS22bで、演算処理部11は、ステップS21bで取得した各輝線画像の画像信号に基づき輝度値の重心を検出する。次のステップS23bで、演算処理部11は、ステップS22bで検出した重心と、輝線画像と、投影パターン603のパターン情報と、指定された計測領域に対応するカメラのキャリブレーション情報とに基づき計測対象50の3次元座標を算出し、3次元形状を求める。 In the next step S22b, the arithmetic processing unit 11 detects the center of gravity of the luminance value based on the image signal of each emission line image acquired in step S21b. In the next step S 23 b, the operation processing unit 11, measured on the basis of the center of gravity detected at step S22b, the bright line image, and the pattern information of the projection pattern 60 3, and calibration information of the camera corresponding to the specified measurement region The three-dimensional coordinates of the object 50 are calculated to obtain the three-dimensional shape.

演算処理部11は、ステップS23bで3次元形状を求めると、処理をステップS24に移行させて、上述したようにして、求めた3次元形状の可否を判定する。演算処理部11は、十分な3次元形状が得られたと判定した場合(ステップS24、「OK」)、処理をステップS25に移行させ、算出された3次元形状を示す形状情報を、例えば計測装置1の外部に出力する。 When the arithmetic processing unit 11 obtains the three-dimensional shape in step S23b, the processing shifts to step S24, and the possibility of the obtained three-dimensional shape is determined as described above. When the arithmetic processing unit 11 determines that a sufficient three-dimensional shape has been obtained (step S24, “OK”), the processing shifts to step S25, and the shape information indicating the calculated three-dimensional shape is, for example, a measuring device. Output to the outside of 1.

一方、演算処理部11は、ステップS24で十分な3次元形状が得られなかったと判定した場合(ステップS24、「NG」)、処理をステップS20に戻し、直前の3次元計測で用いた計測方法の次に優先度が高い計測方法を選択する。この場合には、直前の3次元計測では第2の計測方法(光切断法を用いた計測方法)が用いられているため、第2の計測方法の次に優先度が高い第3の計測方法(この例ではランダムドット法を用いた計測方法)を選択する。 On the other hand, when the arithmetic processing unit 11 determines that a sufficient three-dimensional shape cannot be obtained in step S24 (step S24, "NG"), the processing is returned to step S20, and the measurement method used in the immediately preceding three-dimensional measurement is performed. Select the measurement method with the next highest priority. In this case, since the second measurement method (measurement method using the optical cutting method) is used in the immediately preceding three-dimensional measurement, the third measurement method having the next highest priority after the second measurement method. (In this example, the measurement method using the random dot method) is selected.

演算処理部11は、ステップS20で第3の計測方法を選択すると、選択した計測方法を投影制御部120に伝え、処理をステップS21cに移行させる。ステップS21c〜ステップS23cの処理は、第3の計測方法すなわちランダムドット法を用いた計測方法により3次元計測を行う処理である。ステップS21cで、投影制御部120は、演算処理部11から伝えられた計測方法に従い、ランダムドットパターンによる投影を行うように制御すると共に、撮像制御部124に対して、指定された計測領域に対応するカメラにより当該計測領域の撮像を行うよう指示する。 When the arithmetic processing unit 11 selects the third measurement method in step S20, the arithmetic processing unit 11 transmits the selected measurement method to the projection control unit 120, and shifts the processing to step S21c. The processes of steps S21c to S23c are processes for performing three-dimensional measurement by a third measurement method, that is, a measurement method using a random dot method. In step S21c, the projection control unit 120 controls to perform projection by a random dot pattern according to the measurement method transmitted from the arithmetic processing unit 11, and corresponds to the measurement area designated by the image pickup control unit 124. Instruct the camera to take an image of the measurement area.

より具体的には、投影制御部120は、ランダムドットパターンによる投影パターン604の投影を実行するように、パターン記憶部121に対して読み出すパターン情報を指定し、指定されたパターン情報を読み出すように指示する。投影制御部120は、指示に従いパターン記憶部121により読み出されたパターン情報を演算処理部11に渡すと共に、当該パターン情報に従い光源駆動部122および偏向素子駆動部123をそれぞれ制御する。また、投影制御部120は、投影パターン604の投影に同期して指定された計測領域に対応するカメラによる撮像を実行するように、撮像制御部124に指示する。演算処理部11は、投影パターン604の投影に同期して撮像して得た画像信号を、例えばRAM102に記憶する。 More specifically, the projection control unit 120 to perform a projection of the projection pattern 60 4 by random dot pattern, specify the pattern information reading the pattern storage unit 121, to read the specified pattern information Instruct. The projection control unit 120 passes the pattern information read by the pattern storage unit 121 according to the instruction to the arithmetic processing unit 11, and also controls the light source drive unit 122 and the deflection element drive unit 123 according to the pattern information. The projection control unit 120 to perform imaging by the camera corresponding to the measurement area designated in synchronism with the projection of the projection pattern 60 4, instructs the imaging control unit 124. The operation processing unit 11 stores the image signal obtained by imaging in synchronization with the projection of the projection pattern 60 4, for example, the RAM 102.

次のステップS22cで、演算処理部11は、ステップS21cで取得した画像信号に基づき、投影制御部120から渡されたランダムドットパターンによるパターン情報とのパターンマッチングを行う。演算処理部11は、このパターンマッチングにより、投影制御部120から渡されたランダムドットパターンに含まれる各ドットに対する、画像信号に含まれるランダムドットパターンの各ドットの対応位置を求める。次のステップS23cで、演算処理部11は、ステップS22cで求めた対応位置と、カメラ21aのキャリブレーション情報とに基づき、計測対象の3次元座標を算出し、3次元形状を求める。 In the next step S22c, the arithmetic processing unit 11 performs pattern matching with the pattern information by the random dot pattern passed from the projection control unit 120 based on the image signal acquired in the step S21c. By this pattern matching, the arithmetic processing unit 11 obtains the corresponding position of each dot of the random dot pattern included in the image signal with respect to each dot included in the random dot pattern passed from the projection control unit 120. In the next step S23c, the arithmetic processing unit 11 calculates the three-dimensional coordinates of the measurement target based on the corresponding position obtained in the step S22c and the calibration information of the camera 21a, and obtains the three-dimensional shape.

演算処理部11は、ステップS23cで3次元形状を求めると、処理をステップS24に移行させて、上述したようにして、求めた3次元形状の可否を判定する。演算処理部11は、十分な3次元形状が得られたと判定した場合(ステップS24、「OK」)、処理をステップS25に移行させ、求めた3次元形状を示す形状情報を、例えば計測装置1の外部に出力する。 When the arithmetic processing unit 11 obtains the three-dimensional shape in step S23c, the processing shifts to step S24, and the possibility of the obtained three-dimensional shape is determined as described above. When the arithmetic processing unit 11 determines that a sufficient three-dimensional shape has been obtained (step S24, “OK”), the processing is shifted to step S25, and the shape information indicating the obtained three-dimensional shape is, for example, the measuring device 1. Output to the outside of.

一方、演算処理部11がステップS24で十分な3次元形状が得られなかったと判定した場合(ステップS24、「NG」)、第1の計測方法、第2の計測方法および第3の計測方法の何れを用いても3次元形状が算出できなかったことになる。この場合、例えば、処理をステップS14に移行させてエラー処理を行い、図9のフローチャートによる一連の処理を終了させることができる。 On the other hand, when the arithmetic processing unit 11 determines that a sufficient three-dimensional shape has not been obtained in step S24 (step S24, “NG”), the first measurement method, the second measurement method, and the third measurement method It means that the three-dimensional shape could not be calculated by using any of them. In this case, for example, the process can be shifted to step S14 to perform error processing, and a series of processing according to the flowchart of FIG. 9 can be completed.

このように、第1の実施形態に係る計測装置1は、計測対象50の近傍と遠方をまず1回の撮像にて3次元形状の算出が可能な計測方法を用いて計測対象50を認識する(図9のフローチャートにおける処理A)。また、計測装置1は、処理Aによる計測対象50の認識後は、複数回の撮像が必要である一方で、より高精度に3次元形状を算出可能な計測方法を用いて、処理Aで計測対象が有ると判定した領域に対して計測対象の3次元計測を実行する(図9のフローチャートにおける処理B)。また、処理Bにおいては、複数の計測方法を順次実行させることもできる。なお、第1撮像画像から得た3次元情報と第2撮像画像から得た3次元情報とを繋ぐ処理を行ってもよい。また、処理Bの処理方法の選択は、処理Aで得た3次元情報に基づいて行ってもよい。例えば、処理Aから物体のサイズが小さいことは判明した場合はより精度が高い方法を、物体のサイズが大きいことが判明した場合はより高速性の高い方法を選択するようにしてもよい。 As described above, the measuring device 1 according to the first embodiment recognizes the measuring target 50 by using a measuring method capable of calculating the three-dimensional shape by first imaging the vicinity and the distance of the measuring target 50. (Process A in the flowchart of FIG. 9). Further, the measuring device 1 needs to take images a plurality of times after the measurement target 50 is recognized by the process A, and measures the measurement in the process A by using a measurement method capable of calculating the three-dimensional shape with higher accuracy. The three-dimensional measurement of the measurement target is executed for the area determined to have the target (process B in the flowchart of FIG. 9). Further, in the process B, a plurality of measurement methods can be sequentially executed. The process of connecting the three-dimensional information obtained from the first captured image and the three-dimensional information obtained from the second captured image may be performed. Further, the processing method of the processing B may be selected based on the three-dimensional information obtained in the processing A. For example, if the process A reveals that the size of the object is small, a method with higher accuracy may be selected, and if the size of the object is found to be large, a method with higher speed may be selected.

第1の実施形態に係る計測装置1によれば、近傍と遠方とを略同時に撮像が可能である。また、カメラ21aとカメラ21bの焦点距離や測定領域は自由に設定が可能であるため、測定可能な近傍と遠方の距離を自由に設定することが可能となる。 According to the measuring device 1 according to the first embodiment, it is possible to image near and far at substantially the same time. Further, since the focal length and the measurement area of the camera 21a and the camera 21b can be freely set, the measurable near and far distances can be freely set.

従来技術では、近傍と遠方とを同時に撮像することができなかった。これは、投影部が光走査型ではなく光投射型であったため、照射距離に合わせて焦点距離やパターン光を変える必要があり、近傍と遠方とに同時に適したパターン光を投射することができず、近傍と遠方の撮像を切り換える必要があったためである。また、撮像部が1つ(ステレオカメラ)であったため、近傍と遠方とを同時に適切に撮像することができず、さらに、近傍と遠方との適切な撮像は、焦点距離調節機能または被写界深度に依存するため、近傍と遠方との間の距離(計測可能領域幅)を広げることが難しかった。 With the prior art, it was not possible to image near and far at the same time. This is because the projection unit was not an optical scanning type but an optical projection type, so it was necessary to change the focal length and pattern light according to the irradiation distance, and it was possible to project suitable pattern light to near and far at the same time. This is because it was necessary to switch between near-field and distant imaging. Further, since there is only one imaging unit (stereo camera), it is not possible to properly image the near and far areas at the same time, and further, appropriate imaging of the near and far areas can be performed by the focal length adjustment function or the field of view. Since it depends on the depth, it is difficult to increase the distance (measurable area width) between the vicinity and the distance.

近傍と遠方とを略同時に撮像する必要性について説明する。例えば、安価なロボットアームに計測装置を付随させた場合、ロボットアームのモータの挙動精度が低いため、ロボットアームの動きは予想が難しい。そのため、ロボットアームを動かしながら計測装置で計測して挙動の微調整を行う必要がある。しかしながら、ロボットアームを動かしながら近傍と遠方とを撮像したとき、撮像時間に差があると、その間にロボットアームが動いているため、近傍と遠方との距離を一定に保つことができない。そのため、遠方計測により遠方に存在していた物体にロボットアームを近づけながら、近傍計測に切り替えたときに、対象物までの距離に誤差が生じる。また、近傍で得た3次元情報と遠方で得た3次元情報とを繋ぐことが困難となる。 The necessity of imaging near and far images at substantially the same time will be described. For example, when a measuring device is attached to an inexpensive robot arm, the movement of the robot arm is difficult to predict because the behavior accuracy of the motor of the robot arm is low. Therefore, it is necessary to fine-tune the behavior by measuring with a measuring device while moving the robot arm. However, when an image is taken between the vicinity and the distance while moving the robot arm, if there is a difference in the imaging time, the robot arm is moving during that time, so that the distance between the vicinity and the distance cannot be kept constant. Therefore, when the robot arm is brought closer to an object existing in the distance by the distance measurement and the robot arm is switched to the proximity measurement, an error occurs in the distance to the object. In addition, it becomes difficult to connect the three-dimensional information obtained in the vicinity and the three-dimensional information obtained in the distance.

ロボットアームを撮像の度に止める場合、スムーズな挙動ができず、より挙動精度が下がってしまう。また、モータの回転数等でロボットアームの挙動を把握しようにも、モータの精度自体が低い場合には困難である。 If the robot arm is stopped every time the image is taken, smooth behavior cannot be achieved and the behavior accuracy is further lowered. Further, it is difficult to grasp the behavior of the robot arm by the rotation speed of the motor or the like when the accuracy of the motor itself is low.

そこで、第1の実施形態に係る計測装置1によれば、平行光を光走査する光走査型の投影部と、計測領域の異なる第1撮像部、第2撮像部の複数の撮像部とを用いて、近傍と遠方とを同期して撮像可能にする。これにより、近傍と遠方とを略同時に撮像可能となり、さらに計測可能領域幅を大きくすることが容易になる効果を奏する。 Therefore, according to the measuring device 1 according to the first embodiment, an optical scanning type projection unit that lightly scans parallel light and a plurality of imaging units of a first imaging unit and a second imaging unit having different measurement regions are provided. It is used to enable imaging in synchronization with near and far. As a result, it is possible to image the vicinity and the distance at substantially the same time, and it is easy to increase the width of the measurable area.

さらに、高速に3次元情報取得可能な処理Aと、より高精度に3次元情報取得可能な処理Bと、を切り替えて使用することにより、高速性と精度とを向上させることができる。 Further, by switching between the process A capable of acquiring three-dimensional information at high speed and the process B capable of acquiring three-dimensional information with higher accuracy, the high speed and accuracy can be improved.

また、近傍に障害物が存在している場合は、近傍を計測して障害物を避けながら遠方にロボットアームを近づけることが可能となる。 Further, when an obstacle exists in the vicinity, it is possible to measure the vicinity and bring the robot arm closer to a distance while avoiding the obstacle.

なお、図9のフローチャートにおける処理Aにおいて、位相シフトパターンを高速に切り替えて処理を高速化させた位相シフト法を用いて計測を行うことも考えられる。この場合、位相シフトパターンの高速切替に追随するように、カメラ21aおよび21bにおいて高速撮像を行う必要がある。撮像の高速化は、露光時間の減少につながり十分なS/Nを確保することが困難となる。また、S/Nの確保のために、光源31から射出されるレーザ光33の光量を増加させることも考えられる。しかしながら、レーザ光の光量を増加させる場合、安全面を考慮する必要がある、また、カメラ21aおよび21bが大型化し高価になってしまうという課題があり、上述したランダムドット法を用いる方法に比べ、不利である。 In the process A in the flowchart of FIG. 9, it is also conceivable to perform the measurement by using the phase shift method in which the phase shift pattern is switched at high speed to speed up the process. In this case, it is necessary for the cameras 21a and 21b to perform high-speed imaging so as to follow the high-speed switching of the phase shift pattern. Higher speeding of imaging leads to a reduction in exposure time, and it becomes difficult to secure a sufficient S / N. It is also conceivable to increase the amount of light of the laser beam 33 emitted from the light source 31 in order to secure the S / N. However, when increasing the amount of laser light, there is a problem that safety must be taken into consideration and the cameras 21a and 21b become large and expensive, as compared with the method using the random dot method described above. It is disadvantageous.

(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、第1の実施形態に係る計測装置1を、ロボットアームと組み合わせて用いる例である。
(Second Embodiment)
Next, the second embodiment will be described. The second embodiment is an example in which the measuring device 1 according to the first embodiment is used in combination with a robot arm.

図10(a)および図10(b)は、第2の実施形態に適用可能なロボットアーム70の例を概略的に示す。図10(a)および図10(b)に示されるロボットアーム70は、対象物をピッキングするためのハンド部71を備え、第1の実施形態に係る計測装置1が搭載されている。ロボットアーム70は、それぞれ屈曲可能な複数の可動部を備え、ハンド部71の位置および向きを、制御に従い各可動部の可動範囲内で自在に移動および変更させることができる。 10 (a) and 10 (b) schematically show an example of a robot arm 70 applicable to the second embodiment. The robot arm 70 shown in FIGS. 10A and 10B includes a hand unit 71 for picking an object, and is equipped with the measuring device 1 according to the first embodiment. The robot arm 70 is provided with a plurality of bendable movable portions, and the position and orientation of the hand portion 71 can be freely moved and changed within the movable range of each movable portion according to control.

この例では、計測装置1は、ロボットアーム70の先端部分に搭載されている。これに限らず、計測装置1は、投影・撮像部20をロボットアーム70の先端部に搭載し、処理・制御部10を例えばロボットアーム70の外部に設置してもよい。また、計測装置1は、投影中心300がハンド部71の向く方向に一致するように設けられ、ハンド部71のピッキング対象を計測対象50として計測可能なようになっている。このとき、投影・撮像部20に含まれる投影部30、ならびに、カメラ21aおよび21bは、ハンド部71によるピッキングにより計測範囲が遮られない位置に固定すると、好ましい。 In this example, the measuring device 1 is mounted on the tip of the robot arm 70. Not limited to this, in the measuring device 1, the projection / imaging unit 20 may be mounted on the tip of the robot arm 70, and the processing / control unit 10 may be installed outside the robot arm 70, for example. Further, the measuring device 1 is provided so that the projection center 300 coincides with the direction in which the hand portion 71 faces, so that the picking target of the hand portion 71 can be measured as the measurement target 50. At this time, it is preferable that the projection unit 30 included in the projection / imaging unit 20 and the cameras 21a and 21b are fixed at positions where the measurement range is not obstructed by picking by the hand unit 71.

図10(a)は、カメラ21bを用いて第2の計測領域41に対する計測を行う場合の例を示す。計測装置1の投影部30から射出されるレーザ光33により、第2の計測領域41内の面に対して投影パターン60aが投影される。計測装置1は、この投影パターン60aの計測対象50からの反射光を用いて、当該計測対象50の3次元座標を算出し、3次元形状を求める。図10(b)は、カメラ21aを用いて第1の計測領域40に対する計測を行う場合の例を示す。投影部30は、第1の計測領域40内の面に投影パターン60bを投影する。第1の計測領域40は、第2の計測領域41に対して投影部30からの距離が近いため、投影パターン60bは、投影パターン60aよりも小さくなる。 FIG. 10A shows an example in which the camera 21b is used to perform measurement on the second measurement area 41. The projection pattern 60a is projected onto the surface in the second measurement area 41 by the laser beam 33 emitted from the projection unit 30 of the measurement device 1. The measuring device 1 calculates the three-dimensional coordinates of the measurement target 50 by using the reflected light from the measurement target 50 of the projection pattern 60a, and obtains the three-dimensional shape. FIG. 10B shows an example in which the camera 21a is used to perform measurement on the first measurement area 40. The projection unit 30 projects the projection pattern 60b onto the surface in the first measurement area 40. Since the first measurement area 40 is closer to the second measurement area 41 from the projection unit 30, the projection pattern 60b is smaller than the projection pattern 60a.

このように、第2の実施形態では、計測装置1をロボットアーム70に搭載することで、計測装置1と計測対象50との距離を容易に変更できる。そのため、計測装置1は、計測領域を、第1の計測領域40と第2の計測領域とで容易に切り替えることが可能となる。 As described above, in the second embodiment, the distance between the measuring device 1 and the measuring target 50 can be easily changed by mounting the measuring device 1 on the robot arm 70. Therefore, the measuring device 1 can easily switch the measurement area between the first measurement area 40 and the second measurement area.

図11は、第2の実施形態に係るロボットアーム70の一例の構成を概略的に示す。ロボットアーム70は、アーム駆動部700と、複数のモータ7011、7012、…を含む。モータ7011、7012、…は、アーム駆動部700の制御に従い、ハンド部71を含むロボットアーム70の各可動部を駆動する。 FIG. 11 schematically shows a configuration of an example of the robot arm 70 according to the second embodiment. The robot arm 70 includes an arm drive unit 700 and a plurality of motors 701 1 , 701 2 , .... The motors 701 1 , 701 2 , ... Drive each movable part of the robot arm 70 including the hand part 71 under the control of the arm drive part 700.

アーム駆動部700は、計測装置1の計測結果に基づき、各モータ7011、7012、…を駆動する。また、アーム駆動部700は、計測装置1に対して、カメラ21aを用いた第1の計測領域40に対する計測と、カメラ21bを用いて第2の計測領域41に対する計測とを、適宜要求する。すなわち、アーム駆動部700は、計測装置1の計測結果に基づきロボットアーム70の動作を制御する動作制御部として機能する。 The arm drive unit 700 drives the motors 701 1 , 701 2 , ... Based on the measurement result of the measuring device 1. Further, the arm drive unit 700 appropriately requests the measuring device 1 to measure the first measurement area 40 using the camera 21a and the second measuring area 41 using the camera 21b. That is, the arm drive unit 700 functions as an operation control unit that controls the operation of the robot arm 70 based on the measurement result of the measurement device 1.

なお、ここでは、ロボットアーム70の各可動部を駆動するアクチュエータとしてモータ7011、7012、…を用いるように説明したが、これはこの例に限られない。ロボットアーム70の各可動部は、油圧式、空圧式など他の方式のアクチュエータを用いて駆動してもよい。 Although it has been described here that the motors 701 1 , 701 2 , ... Are used as actuators for driving each movable portion of the robot arm 70, this is not limited to this example. Each movable part of the robot arm 70 may be driven by using an actuator of another type such as a hydraulic type or a pneumatic type.

図12は、第2の実施形態に係るロボットアーム70の制御の例を示すフローチャートである。ステップS30で、ロボットアーム70は、図10(a)に示したように、第2の計測領域41内に計測対象50が位置するように、予め設定された初期化情報に従いハンド部71の位置を初期化する。 FIG. 12 is a flowchart showing an example of control of the robot arm 70 according to the second embodiment. In step S30, as shown in FIG. 10A, the robot arm 70 positions the hand unit 71 according to preset initialization information so that the measurement target 50 is located in the second measurement area 41. To initialize.

次のステップS31で、ロボットアーム70は、初期化位置において計測対象50が検出されたか否かを判定する。ロボットアーム70は、計測対象50が検出されないと判定した場合(ステップS31、「No」)、処理をステップS30に戻す。一方、ロボットアーム70は、計測対象50が検出されたと判定した場合(ステップS31、「Yes」)、処理をステップS32に移行させる。 In the next step S31, the robot arm 70 determines whether or not the measurement target 50 is detected at the initialization position. When the robot arm 70 determines that the measurement target 50 is not detected (step S31, “No”), the robot arm 70 returns the process to step S30. On the other hand, when the robot arm 70 determines that the measurement target 50 has been detected (step S31, “Yes”), the robot arm 70 shifts the process to step S32.

ステップS31では、例えばロボットアーム70は、計測対象50を検出するための所定のセンサ(光センサ、接触センサなど)を用いて計測対象50の検出を行う。これに限らず、ロボットアーム70を操作するユーザによるユーザ指示に応じて、検出されたか否かを判定してもよい。さらに、ロボットアーム70は、計測装置1を用いて第2の計測領域41を計測することで、計測対象50の検出の判定を行ってもよい。 In step S31, for example, the robot arm 70 detects the measurement target 50 by using a predetermined sensor (optical sensor, contact sensor, or the like) for detecting the measurement target 50. Not limited to this, it may be determined whether or not the robot arm 70 has been detected according to a user instruction by the user who operates the robot arm 70. Further, the robot arm 70 may determine the detection of the measurement target 50 by measuring the second measurement area 41 using the measurement device 1.

ステップS32で、計測装置1は、例えばロボットアーム70の要求に応じて、図9のフローチャートにおける処理A、すなわち、ランダムドット法を用いた3次元計測を行う。次のステップS33で、計測装置1は、ステップS32での3次元計測の結果に基づき、ハンド部71と計測対象50との距離を推定する。計測装置1は、3次元計測の結果に基づき計測対象50の凡その位置および姿勢をさらに認識してもよい。 In step S32, the measuring device 1 performs the process A in the flowchart of FIG. 9, that is, the three-dimensional measurement using the random dot method, for example, in response to the request of the robot arm 70. In the next step S33, the measuring device 1 estimates the distance between the hand unit 71 and the measurement target 50 based on the result of the three-dimensional measurement in step S32. The measuring device 1 may further recognize the approximate position and orientation of the measurement target 50 based on the result of the three-dimensional measurement.

次のステップS34で、ロボットアーム70は、ステップS33で計測装置1により推定された計測対象50までの距離に基づき、ハンド部71を、第1の計測領域40内に計測対象50が位置するように移動させる。このとき、ロボットアーム70は、計測装置1により認識された計測対象50の凡その位置をさらに用いてハンド部71を移動させてもよい。さらに、ロボットアーム70は、計測装置1に、第1の計測領域40に対して複数回の3次元計測を要求し、各3次元計測の結果に基づきハンド部71の位置を微調整してもよい。 In the next step S34, the robot arm 70 arranges the hand unit 71 so that the measurement target 50 is located in the first measurement area 40 based on the distance to the measurement target 50 estimated by the measurement device 1 in step S33. Move to. At this time, the robot arm 70 may move the hand unit 71 by further using the approximate position of the measurement target 50 recognized by the measurement device 1. Further, the robot arm 70 may request the measuring device 1 to perform three-dimensional measurement a plurality of times for the first measurement area 40, and finely adjust the position of the hand unit 71 based on the result of each three-dimensional measurement. Good.

次のステップS35で、計測装置1は、例えばロボットアーム70の要求に応じて、図9のフローチャートにおける処理Bの、ステップS21a〜ステップS23aの処理に従い、位相シフトパターンおよびグレイコードパターンにより、位相シフト法を用いた3次元計測を行う。次のステップS36で、計測装置1は、ステップS35で計測された3次元形状に基づき、計測対象50の位置および姿勢を推定する。ここでは、位相シフト法を用いて計測された3次元計測を用いるため、ステップS32およびステップS33によるランダムドット法を用いた場合よりも、計測対象50の位置および姿勢をより高精度に推定することが可能である。 In the next step S35, the measuring device 1 performs a phase shift according to the phase shift pattern and the Gray code pattern according to the processes of steps S21a to S23a of the process B in the flowchart of FIG. 9, for example, in response to the request of the robot arm 70. Perform three-dimensional measurement using the method. In the next step S36, the measuring device 1 estimates the position and orientation of the measurement target 50 based on the three-dimensional shape measured in step S35. Here, since the three-dimensional measurement measured by the phase shift method is used, the position and orientation of the measurement target 50 are estimated with higher accuracy than when the random dot method according to steps S32 and S33 is used. Is possible.

なお、第2の実施形態においても、位相シフト法を用いた計測方法により十分な3次元形状が得られない場合、上述したように、計測方法の優先度に従い、第2の計測方法、第3の計測方法を順次実行することができる。 Also in the second embodiment, when a sufficient three-dimensional shape cannot be obtained by the measurement method using the phase shift method, as described above, the second measurement method, the third, is performed according to the priority of the measurement method. Measurement methods can be executed sequentially.

ロボットアーム70は、ステップS36で推定された計測対象50の位置および姿勢に基づきハンド部71の位置および向きなどを制御して、計測対象50をピッキングする。 The robot arm 70 picks the measurement target 50 by controlling the position and orientation of the hand unit 71 based on the position and posture of the measurement target 50 estimated in step S36.

これに限らず、ステップS35の3次元計測により得られる3次元形状と、計測対象50の既知の3次元形状とに基づき、計測された計測対象50に対する不良品判別、異物判別などの検査を実行することも可能である。 Not limited to this, based on the three-dimensional shape obtained by the three-dimensional measurement in step S35 and the known three-dimensional shape of the measurement target 50, inspections such as defective product discrimination and foreign matter discrimination for the measured measurement target 50 are executed. It is also possible to do.

このように、第2の実施形態に係るロボットアーム70は、計測装置1により、1回の撮像処理で3次元計測が可能なランダムドット法を用いた計測を行い、計測対象50までの距離を推定してハンド部71を移動させる。ハンド部71の移動後、複数回の撮像処理が必要な一方でより高精度な3次元計測が可能な位相シフト法を用いた計測により、計測対象50の位置および姿勢を推定する。そのため、第2の実施形態によっても、ロボットアーム70によるピッキング動作を、高価、大型である高速撮像が可能なカメラを用いること無く、より高速および高精度に実行することが可能である。 As described above, the robot arm 70 according to the second embodiment performs measurement by the measuring device 1 using the random dot method capable of three-dimensional measurement in one imaging process, and determines the distance to the measurement target 50. Estimate and move the hand unit 71. After the movement of the hand unit 71, the position and orientation of the measurement target 50 are estimated by measurement using the phase shift method, which requires a plurality of imaging processes and enables more accurate three-dimensional measurement. Therefore, according to the second embodiment, the picking operation by the robot arm 70 can be performed at higher speed and with higher accuracy without using an expensive and large camera capable of high-speed imaging.

例えば、上述の各実施形態では、第1撮像画像により得た3次元情報と第2撮像画像により得た3次元情報と、において、対象物の有無によって処理の切り替えを行っているが、第1撮像部とおよび第2撮像部が、焦点距離は異なるものの共通の計測領域を有する場合、第1撮像画像およびと第2撮像画像の両方に対象物が存在しているときは、対象物に焦点距離が近い方の3次元情報を優先する構成にしても良い。 For example, in each of the above-described embodiments, the processing is switched between the three-dimensional information obtained from the first captured image and the three-dimensional information obtained from the second captured image depending on the presence or absence of an object. When the imaging unit and the second imaging unit have different focal lengths but have a common measurement area, and when an object is present in both the first image and the second image, the object is focused on the object. The configuration may be such that priority is given to the three-dimensional information having the shorter distance.

(第2の実施形態の変形例)
次に、第2の実施形態の変形例について説明する。図13は、第2の実施形態の変形例に係るロボットアームの動作を説明するための図である。なお、図13において、上述した図10と共通する部分には同一の符号を付して、詳細な説明を省略する。また、第2の実施形態の変形例では、第1の実施形態で説明した計測装置1の構成をそのまま適用できる。
(Modified example of the second embodiment)
Next, a modified example of the second embodiment will be described. FIG. 13 is a diagram for explaining the operation of the robot arm according to the modified example of the second embodiment. In FIG. 13, the same reference numerals are given to the parts common to those in FIG. 10 described above, and detailed description thereof will be omitted. Further, in the modified example of the second embodiment, the configuration of the measuring device 1 described in the first embodiment can be applied as it is.

対象物体として、開口部52を有する第1の対象物体51と、開口部52に接続可能な接続部を有する第2の対象物体53と、を考える。計測装置1は、第1の対象物体51および第2の対象物体53を、近傍計測領域(第1の計測領域40に相当)を撮像する第1撮像部(例えばカメラ21a)と、遠方計測領域(第2の計測領域41に相当)を撮像する第2撮像部(例えばカメラ21b)とで同時に撮像し、高速処理が可能な処理Aで第1の対象物体51と第2の対象物体53の一致を確認する。ここでは、第1の対象物体51と第2の対象物体53と、の組み合わせが、予め決められた組み合わせである場合に、第1の対象物体51と第2の対象物体53とが一致すると判定する。 As the target object, consider a first target object 51 having an opening 52 and a second target object 53 having a connection portion connectable to the opening 52. The measuring device 1 includes a first imaging unit (for example, a camera 21a) that captures a nearby measurement area (corresponding to the first measurement area 40) and a distant measurement area for the first target object 51 and the second target object 53. A second target object 51 and a second target object 53 can be simultaneously imaged by a second imaging unit (for example, a camera 21b) that images (corresponding to a second measurement area 41) and can be processed at high speed. Check for a match. Here, when the combination of the first target object 51 and the second target object 53 is a predetermined combination, it is determined that the first target object 51 and the second target object 53 match. To do.

第1の対象物体51と第2の対象物体53とが一致すると判定されると、ロボットアーム70によるピッキング動作が開始される。ロボットアーム70は、計測装置1により遠方と近傍とを同時撮像して処理Aを継続しながら、対象物体53にハンド部71を近づける。ロボットアーム70は、第2の対象物体53が近傍計測領域に含まれたときに、撮像を第1撮像部のみの撮像に切り替え、処理を図9のフローチャートにおける処理Bに切り替える。その上で、ロボットアーム70は、第2の対象物体53にハンド部71を精度良く近づけて第2の対象物体53をピッキングする。 When it is determined that the first target object 51 and the second target object 53 match, the picking operation by the robot arm 70 is started. The robot arm 70 brings the hand unit 71 closer to the target object 53 while simultaneously imaging a distant place and a near area by the measuring device 1 and continuing the process A. When the second target object 53 is included in the neighborhood measurement region, the robot arm 70 switches the imaging to the imaging of only the first imaging unit, and switches the process to the process B in the flowchart of FIG. Then, the robot arm 70 brings the hand unit 71 closer to the second target object 53 with high accuracy and picks the second target object 53.

ロボットアーム70は、第2の対象物体53のピッキング後、撮像を第1撮像部および第2撮像部による撮像に切り替え、処理を図9のフローチャートにおける処理Aに切り替える。その上で、ロボットアーム70は、ハンド部71を第1の対象物体51の開口部52に近づけ、第1の対象物体51が近傍計測領域に含まれたときに、撮像を第1撮像部のみの撮像に切り替え、処理を図9のフローチャートにおける処理Bに切り替える。その上で、ロボットアーム70は、開口部52に第2の対象物体53の接続部を接続するようにハンド部71の動作を制御する。 After picking the second target object 53, the robot arm 70 switches the imaging to the imaging by the first imaging unit and the second imaging unit, and switches the process to the process A in the flowchart of FIG. Then, the robot arm 70 brings the hand portion 71 closer to the opening 52 of the first target object 51, and when the first target object 51 is included in the proximity measurement region, the robot arm 70 performs imaging only on the first imaging unit. The image is switched to, and the process is switched to process B in the flowchart of FIG. Then, the robot arm 70 controls the operation of the hand portion 71 so as to connect the connecting portion of the second target object 53 to the opening 52.

これにより、第2の実施形態の変形例では、近傍と遠方に置かれた2つの物体を同時に素早く補足し、精度良く2つの物体を接続可能にする効果を奏する。 As a result, in the modified example of the second embodiment, the two objects placed in the vicinity and the distance are quickly captured at the same time, and the effect of enabling the two objects to be connected with high accuracy is obtained.

なお、上述の各実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。 It should be noted that each of the above-described embodiments is an example of a preferred embodiment of the present invention, but is not limited thereto, and can be implemented by various modifications without departing from the gist of the present invention.

1 3次元計測装置
10 処理・制御部
11 演算処理部
12 投影制御部
20 投影・撮像部
21a,21b カメラ
22a,22b レンズ
23a,23b 撮像素子
30 投影部
31 光源
32 偏向素子
33 レーザ光
40 第1の計測領域
41 第2の計測領域
50 計測対象
60,6010,6011,6012,6013,6020,6021,6022,6023,603,604 投影パターン
70 ロボットアーム
71 ハンド部
120 制御部
121 パターン記憶部
1 3D measuring device 10 Processing / control unit 11 Arithmetic processing unit 12 Projection control unit 20 Projection / imaging unit 21a, 21b Camera 22a, 22b Lens 23a, 23b Image sensor 30 Projection unit 31 Light source 32 Deflection element 33 Laser light 40 First Measurement area 41 Second measurement area 50 Measurement target 60, 60 10 , 60 11 , 60 12 , 60 13 , 60 20 , 60 21 , 60 22 , 60 23 , 60 3 , 60 4 Projection pattern 70 Robot arm 71 Hand Unit 120 Control unit 121 Pattern storage unit

特開2016−169989号公報Japanese Unexamined Patent Publication No. 2016-1699989

プロジェクタ・カメラシステムのレスポンス関数を用いた位相シフト法によるアクティブ・ステレオの精度向上「画像の認識・理解シンポジウム(MIRU2009)」2009年7月Improving the accuracy of active stereo by the phase shift method using the response function of the projector / camera system "Image Recognition and Understanding Symposium (MIRU2009)" July 2009 「光切断法による3次元画像を用いた外観検査技術」RICOH TECHNICAL REPORT、No.39, 2013、2014年1月28日発行"Appearance inspection technique using three-dimensional image by optical cutting method" RICOH TECHNICAL REPORT, No. 39, 2013, published January 28, 2014

Claims (10)

所定方向の3次元情報を計測する計測装置であって、
前記計測装置から第1距離の領域を撮像して第1撮像画像を出力する第1撮像部と、
前記計測装置から、前記第1距離とは異なる第2距離の領域を撮像して第2撮像画像を出力する第2撮像部と、
前記第1距離の領域および前記第2距離の領域に平行光を光走査してパターン光を投影可能な投影部と、
前記第1撮像画像および前記第2撮像画像の少なくとも一方の画像に基づき、前記所定方向の3次元情報を演算する演算処理部と、
前記第1撮像部と前記第2撮像部と前記投影部とを制御する制御部と、
を備え、
前記制御部は、前記第1撮像部と前記第2撮像部とを同期して撮像制御可能な
計測装置。
A measuring device that measures three-dimensional information in a predetermined direction.
A first imaging unit that images a region at a first distance from the measuring device and outputs a first captured image.
From the measuring device, a second imaging unit that images a region of a second distance different from the first distance and outputs a second captured image.
A projection unit capable of light-scanning parallel light to the first distance region and the second distance region to project pattern light, and a projection unit.
An arithmetic processing unit that calculates three-dimensional information in a predetermined direction based on at least one image of the first captured image and the second captured image.
A control unit that controls the first imaging unit, the second imaging unit, and the projection unit.
With
The control unit is a measuring device capable of synchronizing the first imaging unit and the second imaging unit for imaging control.
前記制御部は、
前記第1撮像部および前記第2撮像部の少なくとも一方に撮像命令信号を出力し、前記第1撮像部および前記第2撮像部のうち一方の撮像部の1フレームの露光時間以内に、他方の撮像部に撮像命令信号を出力する
請求項1に記載の計測装置。
The control unit
An imaging command signal is output to at least one of the first imaging unit and the second imaging unit, and within the exposure time of one frame of one of the first imaging unit and the second imaging unit, the other The measuring device according to claim 1, which outputs an imaging command signal to an imaging unit.
前記制御部は、
前記3次元情報に基づいて、前記第1撮像部と前記第2撮像部とを同期して撮像制御する同期撮像と、前記第1撮像部または前記第2撮像部の何れか一方による単独撮像と、を切り替える
請求項1または請求項2に記載の計測装置。
The control unit
Synchronous imaging in which the first imaging unit and the second imaging unit are synchronizedly controlled for imaging based on the three-dimensional information, and independent imaging by either the first imaging unit or the second imaging unit. The measuring device according to claim 1 or 2, which switches between.
前記演算処理部は、
前記同期撮像された前記第1撮像画像と前記第2撮像画像とから3次元情報を演算する第1演算処理と、前記第1撮像画像または前記第2撮像画像のうち前記単独撮像された撮像画像から3次元情報を演算する第2演算処理と、を切り換える
請求項3に記載の計測装置。
The arithmetic processing unit
The first calculation process for calculating three-dimensional information from the synchronously captured first captured image and the second captured image, and the independently captured captured image of the first captured image or the second captured image. The measuring device according to claim 3, which switches between a second arithmetic process for calculating three-dimensional information from the image and the second arithmetic process.
前記第1演算処理は、前記同期撮像された1枚の前記第1撮像画像および1枚の前記第2撮像画像から3次元情報を演算する演算処理であり、
前記第2演算処理は、複数の前記第1撮像画像および複数の前記第2撮像画像から3次元情報を演算する演算処理である
請求項4に記載の計測装置。
The first arithmetic processing is an arithmetic processing for calculating three-dimensional information from one synchronously imaged first image and one second image.
The measuring device according to claim 4, wherein the second arithmetic processing is an arithmetic processing for calculating three-dimensional information from a plurality of the first captured images and a plurality of the second captured images.
前記第2演算処理は、使用する演算処理を優先度の異なる複数の演算処理から選択可能であり、
前記演算処理部は、
予め設定された前記優先度に基づいて演算を開始し、使用した演算処理では3次元情報を得られなかった場合に、演算方法を次に前記優先度が高い演算処理に切り換える
請求項4または請求項5に記載の計測装置。
In the second arithmetic processing, the arithmetic processing to be used can be selected from a plurality of arithmetic processes having different priorities.
The arithmetic processing unit
Claim 4 or claim that starts the calculation based on the preset priority and switches the calculation method to the next higher priority calculation process when the three-dimensional information cannot be obtained by the calculation process used. Item 5. The measuring device according to item 5.
前記第1演算処理は、ランダムドット法による演算処理であり、
前記第2演算処理は、ランダムドット法、光切断法および位相シフト法のうち何れか1つを前記第1演算処理で取得した3次元情報に基づいて選択する演算処理である
請求項4または請求項5に記載の計測装置。
The first arithmetic processing is an arithmetic processing by the random dot method.
Claim 4 or claim, wherein the second arithmetic processing is an arithmetic processing in which any one of the random dot method, the optical cutting method, and the phase shift method is selected based on the three-dimensional information acquired in the first arithmetic processing. Item 5. The measuring device according to item 5.
前記制御部は、前記演算処理部の演算した3次元情報に基づき、投影するパターン光を変更する
請求項1乃至請求項7の何れか1項に記載の計測装置。
The measuring device according to any one of claims 1 to 7, wherein the control unit changes the projected pattern light based on the three-dimensional information calculated by the arithmetic processing unit.
請求項1乃至請求項8の何れか1項に記載の計測装置と、
ロボットアームと、
前記計測装置により取得された前記3次元座標に基づき前記ロボットアームの動作を制御する動作制御部と
を備えるロボット。
The measuring device according to any one of claims 1 to 8.
With the robot arm
A robot including a motion control unit that controls the motion of the robot arm based on the three-dimensional coordinates acquired by the measuring device.
所定方向の3次元情報を計測する計測装置に用いられる計測方法であって、
前記第1距離の領域および前記第2距離の領域に平行光を光走査してパターン光を投影する投影ステップと、
前記計測装置から第1距離の領域を撮像して第1撮像画像を出力する第1撮像ステップと、
前記計測装置から、前記第1距離とは異なる第2距離の領域を撮像して第2撮像画像を出力する第2撮像ステップと、
前記第1撮像画像および前記第2撮像画像の少なくとも一方の画像に基づき、前記所定方向の3次元情報を演算する演算処理ステップと、
を備え、
前記第2撮像ステップは、前記第1撮像ステップと略同時に行われる
計測方法。
A measurement method used in a measuring device that measures three-dimensional information in a predetermined direction.
A projection step of light-scanning parallel light into the first distance region and the second distance region to project pattern light,
A first imaging step of imaging a region of a first distance from the measuring device and outputting a first captured image,
A second imaging step of imaging a region of a second distance different from the first distance from the measuring device and outputting a second captured image.
An arithmetic processing step for calculating three-dimensional information in the predetermined direction based on at least one image of the first captured image and the second captured image, and
With
The second imaging step is a measurement method performed substantially at the same time as the first imaging step.
JP2017044398A 2017-03-08 2017-03-08 Measuring equipment, measuring methods and robots Active JP6805904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017044398A JP6805904B2 (en) 2017-03-08 2017-03-08 Measuring equipment, measuring methods and robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017044398A JP6805904B2 (en) 2017-03-08 2017-03-08 Measuring equipment, measuring methods and robots

Publications (2)

Publication Number Publication Date
JP2018146521A JP2018146521A (en) 2018-09-20
JP6805904B2 true JP6805904B2 (en) 2020-12-23

Family

ID=63592051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017044398A Active JP6805904B2 (en) 2017-03-08 2017-03-08 Measuring equipment, measuring methods and robots

Country Status (1)

Country Link
JP (1) JP6805904B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10771768B2 (en) * 2016-12-15 2020-09-08 Qualcomm Incorporated Systems and methods for improved depth sensing
JP7379859B2 (en) * 2018-06-29 2023-11-15 株式会社リコー Light sources, projection devices, measurement devices, robots, electronic devices, moving objects, and modeling devices
US10627709B2 (en) * 2018-06-29 2020-04-21 Ricoh Company, Ltd. Light source, projection device, measurement device, robot, electronic device, mobile object, and shaping apparatus
JP7222200B2 (en) 2018-08-27 2023-02-15 株式会社リコー Optical devices, measuring devices, robots, electronic devices, mobile objects, and molding devices
JP7174768B2 (en) * 2018-09-27 2022-11-17 ヤマハ発動機株式会社 3D measuring device
JP7372513B2 (en) 2018-12-05 2023-11-01 ミツミ電機株式会社 Imaging devices, imaging systems, and industrial robots
WO2020186825A1 (en) 2019-03-15 2020-09-24 上海图漾信息科技有限公司 Depth data measuring head, measurement device and measurement method
JP2020196116A (en) * 2019-05-30 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 Camera and robot system
DE102020112352A1 (en) 2019-05-30 2020-12-03 Panasonic I-Pro Sensing Solutions Co., Ltd. Camera and robot system
JP7375378B2 (en) * 2019-08-29 2023-11-08 セイコーエプソン株式会社 Optical scanning devices, optical measurement devices, and robots
JP7372161B2 (en) * 2020-01-23 2023-10-31 三菱重工業株式会社 Manipulators, automation methods and programs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798429A (en) * 1993-09-28 1995-04-11 Fuji Film Micro Device Kk Range finder
JP2000213931A (en) * 1999-01-21 2000-08-04 Hamamatsu Photonics Kk Range finding module
JP5624394B2 (en) * 2010-07-16 2014-11-12 キヤノン株式会社 Position / orientation measurement apparatus, measurement processing method thereof, and program
JP2013104784A (en) * 2011-11-14 2013-05-30 Mitsubishi Electric Corp Optical three-dimensional camera
JP6075644B2 (en) * 2014-01-14 2017-02-08 ソニー株式会社 Information processing apparatus and method

Also Published As

Publication number Publication date
JP2018146521A (en) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6805904B2 (en) Measuring equipment, measuring methods and robots
JP5911934B2 (en) Contour measurement device and robot system
JP5891280B2 (en) Method and device for optically scanning and measuring the environment
KR102317329B1 (en) Optical scanning probe and three dimensional data generating apparatus using the same
US11312029B2 (en) Three-dimensional measuring apparatus, robot, and robot system
US8477198B2 (en) Interaction control system, method for detecting motion of object, host apparatus and control method thereof
KR100871409B1 (en) Measurement apparatus and measurement method
JPH06300542A (en) Shape feature extraction device with two-dimensional laser pattern and two-dimensional laser pattern
JP2017520755A (en) 3D coarse laser scanner
KR101562467B1 (en) 3 dimensional measurement device using smart phone
KR100740249B1 (en) Apparatus and method for measuring image
WO2022050279A1 (en) Three-dimensional measurement device
JP2020034310A (en) Optical device, measurement device, robot, electronic apparatus, mobile body, and shape forming device
JP2020003263A (en) Three-dimensional measuring device, controller, and robot system
CN112437908B (en) Depth sensing robot-eye camera using structured light
JP4767403B2 (en) Three-dimensional measuring apparatus and three-dimensional measuring method
KR20180092738A (en) Apparatus and method for obtaining depth information using digital micro-mirror device
JP2010151697A (en) Apparatus and method for three-dimensional shape measurement
Hattori et al. Handy rangefinder for active robot vision
JP2022080992A (en) Measurement device, control device, control method and program
US11333485B2 (en) Alignment method for a beam-directing unit of an interferometric measuring device, and measuring device for carrying out an interferometric measurement by means of laser radiation
JP7206855B2 (en) Three-dimensional position detection device, three-dimensional position detection system, and three-dimensional position detection method
US20170185157A1 (en) Object recognition device
JP2020159730A (en) Three-dimensional measurement method, three-dimensional measurement device, and robot system
US12030243B2 (en) Measuring apparatus, movable apparatus, robot, electronic device, fabricating apparatus, and measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R151 Written notification of patent or utility model registration

Ref document number: 6805904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151