JP2018017610A - Three-dimensional measuring device, robot, robot controlling device, and robot system - Google Patents

Three-dimensional measuring device, robot, robot controlling device, and robot system Download PDF

Info

Publication number
JP2018017610A
JP2018017610A JP2016148165A JP2016148165A JP2018017610A JP 2018017610 A JP2018017610 A JP 2018017610A JP 2016148165 A JP2016148165 A JP 2016148165A JP 2016148165 A JP2016148165 A JP 2016148165A JP 2018017610 A JP2018017610 A JP 2018017610A
Authority
JP
Japan
Prior art keywords
captured image
imaging
unit
predetermined
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016148165A
Other languages
Japanese (ja)
Inventor
智紀 原田
Tomonori Harada
智紀 原田
橋本 浩一
Koichi Hashimoto
浩一 橋本
翔悟 荒井
Shogo Arai
翔悟 荒井
俊樹 房州
Toshiki Boshu
俊樹 房州
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016148165A priority Critical patent/JP2018017610A/en
Publication of JP2018017610A publication Critical patent/JP2018017610A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional measuring device capable of suppressing an error caused by optical characteristics of an object and performing three-dimensional measurement with high accuracy even when the object is a glossy object or a translucent object.SOLUTION: A three-dimensional measuring device functions as follows. A predetermined figure is projected onto a first position and a second position in an imaging range including an object, where images can be captured by a first imaging part and a second imaging part; based on a first captured image of the imaging range including the predetermined figure projected onto the first position captured by the first imaging part, a second captured image of the imaging range captured by the second imaging part, a third captured image of the imaging range including the predetermined figure projected onto the second position, the image captured by the first imaging part, and a fourth captured image of the imaging range captured by the second imaging part, first feature points detected from the first captured image are associated with second feature points detected from the second captured image; and, subsequently, three-dimensional measurement is performed based on the images captured by the first imaging part and the second imaging part.SELECTED DRAWING: Figure 4

Description

この発明は、三次元計測装置、ロボット、ロボット制御装置、及びロボットシステムに関する。   The present invention relates to a three-dimensional measuring device, a robot, a robot control device, and a robot system.

対象物のモデルに基づいて対象物の位置及び姿勢を算出し、算出した当該位置及び姿勢に基づいてロボットに所定の作業を行わせる技術の研究や開発が行われている。   Research and development of a technique for calculating the position and orientation of an object based on the model of the object and causing a robot to perform a predetermined operation based on the calculated position and orientation are being performed.

これに関し、パターン投光手段によりパターン光を計測対象物に投光し、パターン光が投光された計測対象物を複数の撮像手段によりそれぞれ異なる方向から撮像し、パターン投光手段とそれぞれの撮像手段との間の校正を校正手段により行い、それぞれの撮像手段により撮像された画像に基づいて、それぞれの三次元点群を三次元点群計測手段により計測し、三次元点群計測手段により計測されたそれぞれの三次元点群を校正手段により得られた校正結果に基づいて所定の座標系に射影し、それぞれの信頼度を比較することによりそれぞれの三次元点群の計測結果を統合する三次元計測装置が知られている(特許文献1参照)。   In this regard, pattern light is projected onto the measurement object by the pattern light projecting means, and the measurement target object on which the pattern light is projected is imaged from different directions by the plurality of image capturing means. Calibration is performed by the calibration means, and each 3D point cloud is measured by the 3D point cloud measurement means and measured by the 3D point cloud measurement means based on the image captured by each imaging means. Projecting each 3D point cloud to a predetermined coordinate system based on the calibration result obtained by the calibration means, and comparing the reliability of each 3D point cloud to integrate the measurement results of each 3D point cloud An original measuring device is known (see Patent Document 1).

特開2015−21862号公報JP 2015-21862 A

このような三次元計測装置では、対象物が光沢を有する物体や半透明な物体である場合、3台以上の撮像手段を用いた位相シフト法を用いることで、対象物の光学特性によって三次元点群の計測結果の精度が低下してしまうことを抑制させていた。しかしながら、撮像手段の数を増やすことは、三次元計測装置の使用に関する費用を増大させてしまうことに加えて、3台以上の撮像手段を設置するために必要な空間を確保しなければならなくなる。   In such a three-dimensional measurement apparatus, when the target object is a glossy object or a translucent object, a three-dimensional measurement is performed depending on the optical characteristics of the target object by using a phase shift method using three or more imaging means. It has been suppressed that the accuracy of the measurement result of the point cloud is lowered. However, increasing the number of image pickup means increases the cost related to the use of the three-dimensional measuring apparatus, and in addition, it is necessary to secure a space necessary for installing three or more image pickup means. .

上記課題の少なくとも一つを解決するために本発明の一態様は、対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な前記撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、前記第1位置に投射された前記所定図形を含む前記撮像範囲が前記第1撮像部により撮像された第1撮像画像と、当該撮像範囲が前記第2撮像部により撮像された第2撮像画像と、前記第2位置に投射された前記所定図形を含む前記撮像範囲を前記第1撮像部により撮像された第3撮像画像と、当該撮像範囲を前記第2撮像部により撮像された第4撮像画像とに基づいて、前記第1撮像画像から検出された第1特徴点と、前記第2撮像画像から検出された第2特徴点とを対応付けた後、前記第1撮像部及び前記第2撮像部により撮像された画像に基づく三次元計測を行う、三次元計測装置である。
この構成により、三次元計測装置は、対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、第1位置に投射された所定図形を含む撮像範囲が第1撮像部により撮像された第1撮像画像と、当該撮像範囲が第2撮像部により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲を第1撮像部により撮像された第3撮像画像と、当該撮像範囲を第2撮像部により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部及び第2撮像部により撮像された画像に基づく三次元計測を行う。これにより、三次元計測装置は、対象物が光沢を有する物体や半透明な物体であっても、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
In order to solve at least one of the above problems, one embodiment of the present invention is an imaging range including an object, and the first position and the second position in the imaging range that can be imaged by the first imaging unit and the second imaging unit. A predetermined figure is projected on the position by the projection unit, the first imaging image in which the imaging range including the predetermined figure projected on the first position is captured by the first imaging unit, and the imaging range is the second A second captured image captured by the image capturing unit; a third captured image captured by the first image capturing unit including the imaging range including the predetermined figure projected on the second position; After associating the first feature point detected from the first captured image with the second feature point detected from the second captured image based on the fourth captured image captured by the two imaging units The first imaging unit and the second imaging unit Performing three-dimensional measurement based on the image captured by a three-dimensional measuring apparatus.
With this configuration, the three-dimensional measuring apparatus projects a predetermined figure to the first position and the second position in the imaging range including the target object and imageable by the first imaging unit and the second imaging unit by the projection unit. A first captured image in which an imaging range including a predetermined graphic projected on the first position is captured by the first imaging unit, a second captured image in which the imaging range is captured by the second imaging unit, and a second First imaging based on a third captured image in which an imaging range including a predetermined graphic projected at a position is captured by the first imaging unit and a fourth captured image in which the imaging range is captured by the second imaging unit. After associating the first feature point detected from the image with the second feature point detected from the second captured image, three-dimensional measurement based on the images captured by the first imaging unit and the second imaging unit is performed. Do. Thereby, even if a target object is a glossy object or a semi-transparent object, the three-dimensional measurement apparatus can suppress an error due to the optical characteristics of the target object and can accurately perform the three-dimensional measurement.

また、本発明の他の態様は、三次元計測装置において、前記第1撮像画像内における前記所定図形の位置と前記第3撮像画像内における前記所定図形の位置と差を表す第1ベクトルと、前記第2撮像画像内における前記所定図形の位置と前記第4撮像画像内における前記所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、前記第1特徴点と前記第2特徴点とを対応付ける、構成が用いられてもよい。
この構成により、三次元計測装置は、第1撮像画像内における所定図形の位置と第3撮像画像内における所定図形の位置と差を表す第1ベクトルと、第2撮像画像内における所定図形の位置と第4撮像画像内における所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置は、第1ベクトルと第2ベクトルとのうち少なくとも一方に基づいて、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
According to another aspect of the present invention, in the three-dimensional measurement apparatus, a first vector that represents a difference between a position of the predetermined graphic in the first captured image and a position of the predetermined graphic in the third captured image; Based on at least one of the position of the predetermined graphic in the second captured image and the second vector representing the difference between the position of the predetermined graphic in the fourth captured image and the second feature point A configuration for associating feature points may be used.
With this configuration, the three-dimensional measurement apparatus allows the first vector representing the difference between the position of the predetermined graphic in the first captured image and the position of the predetermined graphic in the third captured image, and the position of the predetermined graphic in the second captured image. The first feature point and the second feature point are associated with each other based on at least one of the position of the predetermined figure in the fourth captured image and the second vector representing the difference. Thereby, the three-dimensional measurement apparatus can suppress the error due to the optical characteristic of the object based on at least one of the first vector and the second vector, and can accurately perform the three-dimensional measurement.

また、本発明の他の態様は、三次元計測装置において、前記第1撮像部が設けられた位置と、前記第2撮像部が設けられた位置とのそれぞれから前記第1位置及び前記第2位置までの距離の変化と、前記第1ベクトルと前記第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、前記第1特徴点と前記第2特徴点とを対応付ける、構成が用いられてもよい。
この構成により、三次元計測装置は、第1撮像部が設けられた位置と、第2撮像部が設けられた位置とのそれぞれから第1位置及び第2位置までの距離の変化と、第1ベクトルと第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置は、対応情報に基づいて対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
According to another aspect of the present invention, in the three-dimensional measurement apparatus, the first position and the second position are respectively determined from a position where the first imaging unit is provided and a position where the second imaging unit is provided. Based on correspondence information stored in advance, which is correspondence information indicating a correspondence relationship between a change in distance to a position and a change in value based on at least one of the first vector and the second vector. A configuration in which a feature point is associated with the second feature point may be used.
With this configuration, the three-dimensional measurement apparatus has a change in distance from the position where the first imaging unit is provided and the position where the second imaging unit is provided to the first position and the second position, and the first The first feature point and the second feature point are associated with each other based on correspondence information that is a correspondence information that indicates a correspondence relationship between a value change based on at least one of the vector and the second vector and is stored in advance. Thereby, the three-dimensional measuring apparatus can suppress an error due to the optical characteristics of the object based on the correspondence information, and can accurately perform the three-dimensional measurement.

また、本発明の他の態様は、三次元計測装置において、対応付けた前記第1特徴点と前記第2特徴点とに基づいて前記対象物の三次元形状を表す三次元点群を生成する、構成が用いられてもよい。
この構成により、三次元計測装置は、対応付けた第1特徴点と第2特徴点とに基づいて対象物の三次元形状を表す三次元点群を生成する。これにより、三次元計測装置は、生成した三次元点群に基づいて、対象物の位置及び姿勢を精度よく検出することができる。
According to another aspect of the present invention, in the three-dimensional measurement device, a three-dimensional point group representing a three-dimensional shape of the object is generated based on the associated first feature point and the second feature point. A configuration may be used.
With this configuration, the three-dimensional measurement apparatus generates a three-dimensional point group representing the three-dimensional shape of the target object based on the associated first feature point and second feature point. Thereby, the three-dimensional measuring apparatus can detect the position and orientation of the object with high accuracy based on the generated three-dimensional point group.

また、本発明の他の態様は、三次元計測装置において、生成した前記三次元点群に基づいて前記対象物の位置及び姿勢を算出する、構成が用いられてもよい。
この構成により、三次元計測装置は、生成した三次元点群に基づいて対象物の位置及び姿勢を算出する。これにより、三次元計測装置は、精度よく算出した対象物の位置及び姿勢を他の装置に出力することができる。
Moreover, the structure which calculates the position and attitude | position of the said target object based on the produced | generated said three-dimensional point group may be used for the other aspect of this invention in a three-dimensional measuring device.
With this configuration, the three-dimensional measurement apparatus calculates the position and orientation of the object based on the generated three-dimensional point group. Thereby, the three-dimensional measuring apparatus can output the position and orientation of the target object calculated with high accuracy to another apparatus.

また、本発明の他の態様は、上記に記載の三次元計測装置が算出した前記対象物の位置及び姿勢に基づいて所定作業を行う、ロボットである。
この構成により、ロボットは、三次元計測装置が三次元計測を行った結果に基づいて所定作業を行う。これにより、ロボットは、高い精度で所定作業を行うことができる。
Another aspect of the present invention is a robot that performs a predetermined operation based on the position and orientation of the object calculated by the three-dimensional measurement apparatus described above.
With this configuration, the robot performs a predetermined operation based on the result of the three-dimensional measurement device performing the three-dimensional measurement. Thereby, the robot can perform a predetermined operation with high accuracy.

また、本発明の他の態様は、上記に記載のロボットに前記所定作業を行わせる、ロボット制御装置である。
この構成により、ロボット制御装置は、三次元計測装置が三次元計測を行った結果に基づいてロボットに所定作業を行わせる。これにより、ロボット制御装置は、高い精度で所定作業をロボットに行わせることができる。
Another aspect of the present invention is a robot control apparatus that causes the robot described above to perform the predetermined operation.
With this configuration, the robot control device causes the robot to perform a predetermined operation based on the result of the three-dimensional measurement performed by the three-dimensional measurement device. Thereby, the robot controller can cause the robot to perform a predetermined operation with high accuracy.

また、本発明の他の態様は、前記投射部と、前記第1撮像部と、前記第2撮像部と、上記に記載のロボットと、上記に記載のロボット制御装置と、を備えるロボットシステムである。
この構成により、ロボットシステムは、三次元計測装置が三次元計測を行った結果に基づいてロボットに所定作業を行わせる。これにより、ロボットシステムは、高い精度で所定作業をロボットに行わせることができる。
Another aspect of the present invention is a robot system including the projection unit, the first imaging unit, the second imaging unit, the robot described above, and the robot control device described above. is there.
With this configuration, the robot system causes the robot to perform a predetermined operation based on the result of the three-dimensional measurement performed by the three-dimensional measurement device. Accordingly, the robot system can cause the robot to perform a predetermined operation with high accuracy.

以上により、三次元計測装置は、対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、第1位置に投射された所定図形を含む撮像範囲が第1撮像部により撮像された第1撮像画像と、当該撮像範囲が第2撮像部により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲を第1撮像部により撮像された第3撮像画像と、当該撮像範囲を第2撮像部により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部及び第2撮像部により撮像された画像に基づく三次元計測を行う。これにより、三次元計測装置は、対象物が光沢を有する物体や半透明な物体であっても、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
また、ロボットは、三次元計測装置が三次元計測を行った結果に基づいて所定作業を行う。これにより、ロボットは、高い精度で所定作業を行うことができる。
ロボット制御装置、及びロボットシステムは、三次元計測装置が三次元計測を行った結果に基づいてロボットに所定作業を行わせる。これにより、ロボット制御装置、及びロボットシステムは、高い精度で所定作業をロボットに行わせることができる。
As described above, in the three-dimensional measurement apparatus, the predetermined figure is projected by the projection unit at the first position and the second position in the imaging range that includes the target object and can be imaged by the first imaging unit and the second imaging unit. A first captured image in which an imaging range including a predetermined graphic projected on the first position is captured by the first imaging unit, a second captured image in which the imaging range is captured by the second imaging unit, and a second position The first captured image is based on a third captured image obtained by imaging the imaging range including the predetermined figure projected on the first imaging unit and a fourth captured image obtained by imaging the imaging range by the second imaging unit. After associating the first feature point detected from the second feature point detected from the second captured image, three-dimensional measurement is performed based on the images captured by the first imaging unit and the second imaging unit . Thereby, even if a target object is a glossy object or a semi-transparent object, the three-dimensional measurement apparatus can suppress an error due to the optical characteristics of the target object and can accurately perform the three-dimensional measurement.
Further, the robot performs a predetermined operation based on the result of the three-dimensional measurement device performing the three-dimensional measurement. Thereby, the robot can perform a predetermined operation with high accuracy.
The robot control device and the robot system cause the robot to perform a predetermined operation based on the result of the 3D measurement performed by the 3D measurement device. Thereby, the robot control device and the robot system can cause the robot to perform a predetermined operation with high accuracy.

実施形態に係る三次元計測システム1の構成の一例を示す図である。It is a figure which shows an example of a structure of the three-dimensional measurement system 1 which concerns on embodiment. 所定図形の一例を示す図である。It is a figure which shows an example of a predetermined figure. 三次元計測装置30のハードウェア構成の一例を示す図である。3 is a diagram illustrating an example of a hardware configuration of a three-dimensional measurement apparatus 30. FIG. 三次元計測装置30の機能構成の一例を示す図である。3 is a diagram illustrating an example of a functional configuration of a three-dimensional measurement apparatus 30. FIG. 三次元計測装置30が三次元計測を行う処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in which the three-dimensional measuring apparatus 30 performs three-dimensional measurement. 第1特徴点が検出される前の第1撮像画像と、第2特徴点が検出される前の第2撮像画像とを例示する図である。It is a figure which illustrates the 1st captured image before the 1st feature point is detected, and the 2nd captured image before the 2nd feature point is detected. 第1特徴点が検出された後の第1撮像画像と、第2特徴点が検出された後の第2撮像画像とを例示する図である。It is a figure which illustrates the 1st picked-up image after the 1st feature point is detected, and the 2nd picked-up image after the 2nd feature point is detected. 三次元計測装置30が対応情報を生成する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in which the three-dimensional measuring device 30 generates correspondence information. 対象高さがZ=0の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。When the target height is Z = 0, the predetermined position of the predetermined figure projected in the projection range PA matches the first position determined in the projection range PA in the projection range PA. It is a figure which shows an example of a mode that it exists. 対象高さがZ=2の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。When the target height is Z = 2, the predetermined position of the predetermined figure projected in the projection range PA matches the first position predetermined in the projection range PA in the projection range PA. It is a figure which shows an example of a mode that it exists. 対象高さがZ=4の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。In the case where the target height is Z = 4, the predetermined position of the predetermined figure projected in the projection range PA matches the first position predetermined in the projection range PA in the projection range PA. It is a figure which shows an example of a mode that it exists. 対応情報の一例を示す図である。It is a figure which shows an example of correspondence information. 実施形態の変形例に係るロボットシステム2の構成の一例を示す図である。It is a figure which shows an example of a structure of the robot system 2 which concerns on the modification of embodiment.

<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<三次元計測システムの構成>
まず、三次元計測システム1の構成について説明する。
図1は、実施形態に係る三次元計測システム1の構成の一例を示す図である。三次元計測システム1は、投射部5と、撮像部10と、三次元計測装置30を備える。
<Configuration of 3D measurement system>
First, the configuration of the three-dimensional measurement system 1 will be described.
FIG. 1 is a diagram illustrating an example of a configuration of a three-dimensional measurement system 1 according to the embodiment. The three-dimensional measurement system 1 includes a projection unit 5, an imaging unit 10, and a three-dimensional measurement device 30.

投射部5は、例えば、投射画像を投射するための液晶ライトバルブや投射レンズ、液晶駆動部、光源として超高圧水銀ランプやメタルハライドランプ等を備えるプロジェクターである。投射部5は、図1に示した作業台TBの上面に載置された対象物Oを含む範囲である投射範囲PAに投射画像を投射可能な位置に設置される。   The projection unit 5 is a projector including, for example, a liquid crystal light valve and a projection lens for projecting a projection image, a liquid crystal driving unit, and an ultrahigh pressure mercury lamp, a metal halide lamp, and the like as a light source. The projection part 5 is installed in the position which can project a projection image in the projection range PA which is the range containing the target object O mounted on the upper surface of the worktable TB shown in FIG.

作業台TBは、例えば、テーブル等の台である。なお、作業台TBは、テーブルに代えて、対象物Oを載置することが可能な台であれば、他の台であってもよい。   The work table TB is a table such as a table, for example. The work table TB may be another table as long as it is a table on which the object O can be placed instead of the table.

対象物Oは、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部材である。図1では、図の簡略化のため、対象物Oを直方体形状の物体として表している。なお、対象物Oは、産業用の部品や部材に代えて、日用品や生体等の他の物体であってもよい。また、対象物Oの形状は、直方体形状に代えて、他の形状であってもよい。   The object O is, for example, an industrial part or member such as a plate, screw, or bolt that is assembled to a product. In FIG. 1, the object O is represented as a rectangular parallelepiped object for simplification of the drawing. The object O may be other objects such as daily necessities and living bodies instead of industrial parts and members. Further, the shape of the object O may be another shape instead of the rectangular parallelepiped shape.

また、対象物Oは、例えば、投射部5により投射された光の意図しない反射や透過を発生させる光学特性を有する物体である。以下では、一例として、対象物Oが、当該光が投射される表面の少なくとも一部が半透明な物体である場合について説明する。なお、対象物Oは、半透明な物体に代えて、当該光が投射される表面の少なくとも一部に光沢を有する物体であってもよく、当該光学特性を有さない物体、すなわち、当該一部に光沢を有さない不透明な物体であって当該表面の全体が不透明な物体であってもよい。   The object O is an object having optical characteristics that cause unintentional reflection or transmission of light projected by the projection unit 5, for example. Hereinafter, as an example, the case where the object O is a semi-transparent object on at least a part of the surface on which the light is projected will be described. Note that the object O may be an object having gloss on at least a part of the surface on which the light is projected, instead of a translucent object. It may be an opaque object that does not have gloss on the part, and the entire surface may be an opaque object.

投射部5は、ケーブルによって三次元計測装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、投射部5は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって三次元計測装置30と接続される構成であってもよい。   The projection unit 5 is connected to the three-dimensional measuring device 30 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The projection unit 5 may be configured to be connected to the three-dimensional measurement apparatus 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

撮像部10は、第1撮像部11と、第2撮像部12とを備えたステレオカメラである。撮像部10は、図1に示した作業台TBの上面に載置された対象物Oを含む範囲である撮像範囲CAを、第1撮像部11と第2撮像部12との両方が撮像可能な位置に設置される。以下では、一例として、投射範囲PAの全体が撮像範囲CAの内側に含まれる場合について説明する。なお、撮像範囲CAは、これに代えて、投射範囲PAと部分的に重なる構成であってもよく、全体が投射範囲PAの内側に含まれる構成であってもよい。   The imaging unit 10 is a stereo camera that includes a first imaging unit 11 and a second imaging unit 12. The imaging unit 10 can capture both the first imaging unit 11 and the second imaging unit 12 in the imaging range CA that includes the object O placed on the upper surface of the work table TB illustrated in FIG. It is installed in a proper position. Below, the case where the whole projection range PA is contained inside the imaging range CA as an example is demonstrated. Instead of this, the imaging range CA may be configured to partially overlap the projection range PA, or may be configured to be entirely included inside the projection range PA.

第1撮像部11は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。
第2撮像部12は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。
The first imaging unit 11 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an imaging element that converts collected light into an electrical signal.
The second imaging unit 12 is, for example, a camera that includes a CCD, a CMOS, or the like that is an imaging device that converts collected light into an electrical signal.

第1撮像部11及び第2撮像部12は、ケーブルによって三次元計測装置30と通信可能に接続されている。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、第1撮像部11と第2撮像部12のいずれか一方又は両方は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって三次元計測装置30と接続される構成であってもよい。   The first imaging unit 11 and the second imaging unit 12 are communicably connected to the three-dimensional measurement apparatus 30 via a cable. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. In addition, one or both of the first imaging unit 11 and the second imaging unit 12 is configured to be connected to the three-dimensional measurement apparatus 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). May be.

三次元計測装置30は、例えば、ワークステーションやデスクトップPC(Personal Computer)、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA(Personal Digital Assistant)等の情報処理装置である。   The three-dimensional measuring apparatus 30 is, for example, a workstation, a desktop PC (Personal Computer), a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA (Personal Digital Assistant), or the like. Information processing apparatus.

三次元計測装置30は、投射部5に投射画像を投射範囲PAへ投射させる。三次元計測装置30は、投射画像が投射された投射範囲PAを含む撮像範囲CAを第1撮像部11及び第2撮像部12にステレオ撮像させる。三次元計測装置30は、第1撮像部11及び第2撮像部12がステレオ撮像した画像を第1撮像部11及び第2撮像部12のそれぞれから取得する。三次元計測装置30は、取得した画像に基づく三次元計測を行う。具体的には、三次元計測装置30は、取得した画像に基づく三次元計測として、当該画像に基づいて、対象物Oの三次元形状を表す三次元点群を生成する。より具体的には、三次元計測装置30は、当該画像に基づいて、当該画像に含まれる対象物Oの表面の各点の三次元位置(三次元座標)を検出する。三次元計測装置30は、検出した当該三次元位置に基づいて当該表面の三次元形状を表す点群である三次元点群を生成する。すなわち、三次元点群を構成する各点は、三次元位置を示す。当該三次元位置は、ワールド座標系WCにおける三次元位置であってもよく、ロボット座標系RCにおける三次元位置であってもよく、他の三次元座標系における三次元位置であってもよい。以下では、一例として、三次元計測装置30が当該画像に基づいて、当該画像に含まれる対象物Oの表面の各点のワールド座標系WCにおける三次元位置を検出する場合について説明する。なお、三次元計測装置30が当該画像から三次元点群を生成する方法は、既知の方法であってもよく、これから開発される方法であってもよい。三次元計測装置30は、生成した三次元点群に基づいて、対象物Oの位置及び姿勢を算出する。   The three-dimensional measuring apparatus 30 causes the projection unit 5 to project a projection image onto the projection range PA. The three-dimensional measuring apparatus 30 causes the first imaging unit 11 and the second imaging unit 12 to perform stereo imaging of the imaging range CA including the projection range PA on which the projection image is projected. The three-dimensional measurement apparatus 30 acquires images captured by the first imaging unit 11 and the second imaging unit 12 in stereo from the first imaging unit 11 and the second imaging unit 12, respectively. The three-dimensional measuring device 30 performs three-dimensional measurement based on the acquired image. Specifically, the three-dimensional measuring device 30 generates a three-dimensional point group representing the three-dimensional shape of the object O based on the image as the three-dimensional measurement based on the acquired image. More specifically, the three-dimensional measuring device 30 detects a three-dimensional position (three-dimensional coordinates) of each point on the surface of the object O included in the image based on the image. The three-dimensional measuring device 30 generates a three-dimensional point group that is a point group representing the three-dimensional shape of the surface based on the detected three-dimensional position. That is, each point constituting the three-dimensional point group indicates a three-dimensional position. The three-dimensional position may be a three-dimensional position in the world coordinate system WC, a three-dimensional position in the robot coordinate system RC, or a three-dimensional position in another three-dimensional coordinate system. Hereinafter, as an example, a case will be described in which the three-dimensional measurement device 30 detects a three-dimensional position in the world coordinate system WC of each point on the surface of the object O included in the image based on the image. In addition, the method by which the three-dimensional measuring device 30 generates a three-dimensional point group from the image may be a known method or a method developed from now on. The three-dimensional measuring device 30 calculates the position and orientation of the object O based on the generated three-dimensional point group.

<三次元計測装置が行う処理の概要>
以下、三次元計測装置30が行う処理の概要について説明する。なお、以下では、一例として、作業台TBの上面が、ワールド座標系WCにおけるXY平面と平行である場合について説明する。なお、当該上面は、当該XY平面と非平行である構成であってもよい。
<Outline of processing performed by 3D measuring device>
Hereinafter, an outline of processing performed by the three-dimensional measurement apparatus 30 will be described. In the following, a case where the upper surface of the work table TB is parallel to the XY plane in the world coordinate system WC will be described as an example. Note that the upper surface may be configured to be non-parallel to the XY plane.

三次元計測装置30は、投射範囲PA内(すなわち、撮像範囲CA内)へ所定図形を含む投射画像を投射部5に投射させる。この際、三次元計測装置30は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。所定図形の予め決められた位置は、例えば、所定図形の図心の位置である。なお、所定図形の予め決められた位置は、これに代えて、所定図形に対応付けられた他の位置であってもよい。ここで、図2を参照し、所定図形について説明する。   The three-dimensional measuring apparatus 30 causes the projection unit 5 to project a projection image including a predetermined graphic within the projection range PA (that is, within the imaging range CA). At this time, the three-dimensional measuring device 30 is configured so that the predetermined position of the predetermined figure projected in the projection range PA matches the first position determined in the projection range PA within the projection range PA. The projection image is projected on the projection unit 5 to the projection range PA. The predetermined position of the predetermined figure is, for example, the position of the centroid of the predetermined figure. It should be noted that the predetermined position of the predetermined graphic may be another position associated with the predetermined graphic instead. Here, the predetermined figure will be described with reference to FIG.

図2は、所定図形の一例を示す図である。所定図形は、この一例において、ランダムドットパターンである。ランダムドットパターンは、所定形状の画素の塊であるドットが複数規則的に配置された画像であり、ドット毎に0又は255の輝度値がランダムに割り当てられた画像である。図2に示した例では、ドットの形状は、正方形状である。なお、ドットの形状は、正方形状に代えて、長方形状であってもよく、円形状であってもよく、楕円形状であってもよく、他の形状であってもよい。また、所定図形は、ランダムドットパターンに代えて、すべての画素の輝度値が一定の図形(輝度値が一様な図形)でなければ他の如何なる図形であってもよい。例えば、当該図形は、景色や人物が撮像された画像であってもよい。以下では、一例として、投射画像の全体が所定図形によって占められている場合について説明する。すなわち、以下では、投射画像が所定図形である場合について説明する。なお、投射画像は、投射画像の一部に所定図形を含む画像であってもよい。   FIG. 2 is a diagram illustrating an example of a predetermined figure. The predetermined figure is a random dot pattern in this example. The random dot pattern is an image in which a plurality of dots, which are clusters of pixels having a predetermined shape, are regularly arranged, and an image in which a luminance value of 0 or 255 is randomly assigned to each dot. In the example shown in FIG. 2, the dot shape is a square shape. The dot shape may be a rectangular shape instead of a square shape, a circular shape, an elliptical shape, or another shape. Further, the predetermined figure may be any other figure instead of the random dot pattern as long as the luminance values of all the pixels are not constant (figure having a uniform luminance value). For example, the figure may be an image obtained by capturing a scene or a person. Below, the case where the whole projection image is occupied by the predetermined figure as an example is demonstrated. That is, hereinafter, a case where the projection image is a predetermined graphic will be described. Note that the projection image may be an image including a predetermined graphic in a part of the projection image.

三次元計測装置30は、第1状態において、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる。第1状態は、投射範囲PA内に投射された所定図形の位置と第1位置とが投射範囲PA内において一致している状態のことである。三次元計測装置30は、このステレオ撮像によって第1撮像部11により撮像された撮像画像を第1撮像画像として第1撮像部11から取得する。また、三次元計測装置30は、当該ステレオ撮像によって第2撮像部12により撮像された撮像画像を第2撮像画像として第2撮像部12から取得する。   In the first state, the three-dimensional measurement apparatus 30 causes the first imaging unit 11 and the second imaging unit 12 to perform stereo imaging of the imaging range CA. The first state is a state in which the position of the predetermined figure projected within the projection range PA and the first position are coincident within the projection range PA. The three-dimensional measuring apparatus 30 acquires a captured image captured by the first imaging unit 11 by the stereo imaging from the first imaging unit 11 as a first captured image. In addition, the three-dimensional measurement apparatus 30 acquires a captured image captured by the second imaging unit 12 by the stereo imaging from the second imaging unit 12 as a second captured image.

また、三次元計測装置30は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第2位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。第2位置は、投射範囲PA内において第1位置と異なる位置である。ただし、第2位置のワールド座標系WCにおける高さは、第1位置のワールド座標系WCにおける高さとほぼ同じ高さでなければならない。第1位置のワールド座標系WCにおける高さは、第1位置のワールド座標系WCにおけるZ軸方向の位置のことであり、第2位置のワールド座標系WCにおける高さは、第2位置のワールド座標系WCにおけるZ軸方向の位置のことである。なお、作業台TBの上面が、ワールド座標系WCにおけるXY平面と非平行である場合、第1位置のワールド座標系WCにおける高さと第2位置のワールド座標系WCにおける高さとの差が所定範囲内に収まる(近似的に同じと見做せる)程度に、第1位置と第2位置とを近づけることにより、三次元計測装置30は、以下において説明する処理と同じ処理を行うことができる。   The three-dimensional measuring device 30 projects the predetermined figure projected in the projection range PA so that the predetermined position in the projection range PA coincides with the predetermined second position in the projection range PA. The image is projected on the projection unit 5 to the projection range PA. The second position is a position different from the first position in the projection range PA. However, the height of the second position in the world coordinate system WC must be substantially the same as the height of the first position in the world coordinate system WC. The height of the first position in the world coordinate system WC is the position in the Z-axis direction of the world coordinate system WC of the first position, and the height of the second position in the world coordinate system WC is the world position of the second position. It is a position in the Z-axis direction in the coordinate system WC. When the upper surface of the work table TB is not parallel to the XY plane in the world coordinate system WC, the difference between the height in the world coordinate system WC at the first position and the height in the world coordinate system WC at the second position is within a predetermined range. By bringing the first position and the second position close to each other so as to be within the range (approximately considered to be the same), the three-dimensional measurement apparatus 30 can perform the same processing as described below.

三次元計測装置30は、第2状態において、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる。第2状態は、投射範囲PA内に投射された所定図形の位置と第2位置とが投射範囲PA内において一致している状態のことである。三次元計測装置30は、このステレオ撮像によって第1撮像部11により撮像された撮像画像を第3撮像画像として第1撮像部11から取得する。また、三次元計測装置30は、当該ステレオ撮像によって第2撮像部12により撮像された撮像画像を第4撮像画像として第2撮像部12から取得する。   In the second state, the three-dimensional measurement apparatus 30 causes the first imaging unit 11 and the second imaging unit 12 to perform stereo imaging of the imaging range CA. The second state is a state in which the position of the predetermined figure projected within the projection range PA and the second position are coincident within the projection range PA. The three-dimensional measuring apparatus 30 acquires a captured image captured by the first imaging unit 11 by the stereo imaging from the first imaging unit 11 as a third captured image. In addition, the three-dimensional measurement apparatus 30 acquires a captured image captured by the second imaging unit 12 by the stereo imaging from the second imaging unit 12 as a fourth captured image.

また、三次元計測装置30は、取得した第1撮像画像及び第2撮像画像から特徴点を検出する。特徴点は、撮像画像内における特徴的な点のことである。三次元計測装置30は、SURF(Speeded Up Robust Features)、 SIFT(Scale-Invariant Feature Transform)等の既存のアルゴリズムによって第1撮像画像及び第2撮像画像から特徴点を検出する構成であってもよく、これから開発される方法によって第1撮像画像及び第2撮像画像から特徴点を検出する構成であってもよい。具体的には、三次元計測装置30は、取得した第1撮像画像に基づいて、第1撮像画像における1以上の特徴点である第1特徴点を検出する。また、三次元計測装置30は、取得した第2撮像画像に基づいて、第2撮像画像における1以上の特徴点である第2特徴点を検出する。   The three-dimensional measurement apparatus 30 detects feature points from the acquired first captured image and second captured image. A feature point is a characteristic point in a captured image. The three-dimensional measuring apparatus 30 may be configured to detect feature points from the first captured image and the second captured image using existing algorithms such as SURF (Speeded Up Robust Features) and SIFT (Scale-Invariant Feature Transform). The feature point may be detected from the first captured image and the second captured image by a method to be developed. Specifically, the three-dimensional measurement apparatus 30 detects a first feature point that is one or more feature points in the first captured image based on the acquired first captured image. Further, the three-dimensional measurement device 30 detects a second feature point that is one or more feature points in the second captured image based on the acquired second captured image.

三次元計測装置30は、第1撮像画像〜第4撮像画像に基づいて、検出した第1特徴点と、検出した第2特徴点とを対応付ける。そして、三次元計測装置30は、対応付けられた第1特徴点及び第2特徴点と、第1撮像画像及び第2撮像画像とに基づく三次元計測を行う。これにより、三次元計測装置30は、対象物Oの位置及び姿勢を算出する。   The three-dimensional measurement apparatus 30 associates the detected first feature point with the detected second feature point based on the first captured image to the fourth captured image. Then, the three-dimensional measurement device 30 performs three-dimensional measurement based on the associated first feature point and second feature point, and the first captured image and the second captured image. Thereby, the three-dimensional measurement apparatus 30 calculates the position and orientation of the object O.

すなわち、三次元計測装置30は、対象物Oを含む撮像範囲CAであって第1撮像部11及び第2撮像部12により撮像可能な撮像範囲CAにおける第1位置及び第2位置に所定図形が投射部5により投射され、第1位置に投射された所定図形を含む撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、当該撮像範囲CAが第2撮像部12により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲CAを第1撮像部11により撮像された第3撮像画像と、当該撮像範囲CAを第2撮像部12により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部11及び第2撮像部12により撮像された第1撮像画像及び第2撮像画像に基づく三次元計測を行う。これにより、三次元計測装置30は、対象物Oが光沢を有する物体や半透明な物体であっても、対象物Oの光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。以下では、三次元計測装置30が三次元計測を行う処理について詳しく説明する。   That is, the three-dimensional measuring apparatus 30 has a predetermined figure at the first position and the second position in the imaging range CA that includes the object O and can be imaged by the first imaging unit 11 and the second imaging unit 12. A first captured image in which an imaging range CA including a predetermined figure projected by the projection unit 5 and projected on the first position is captured by the first imaging unit 11, and the imaging range CA is captured by the second imaging unit 12. The second imaged image, the third imaged image obtained by imaging the imaging range CA including the predetermined graphic projected at the second position by the first imaging unit 11, and the imaging range CA are imaged by the second imaging unit 12. After associating the first feature point detected from the first captured image with the second feature point detected from the second captured image based on the fourth captured image, the first imaging unit 11 and the second 1st imaging imaged by 2 imaging parts 12 Performing three-dimensional measurement based on the image and the second image. Thereby, even if the target object O is a glossy object or a semitransparent object, the three-dimensional measurement apparatus 30 can suppress an error due to the optical characteristics of the target object O and can accurately perform the three-dimensional measurement. . Below, the process in which the three-dimensional measurement apparatus 30 performs three-dimensional measurement is demonstrated in detail.

<三次元計測装置のハードウェア構成>
以下、図3を参照し、三次元計測装置30のハードウェア構成について説明する。図3は、三次元計測装置30のハードウェア構成の一例を示す図である。
<Hardware configuration of 3D measuring device>
Hereinafter, the hardware configuration of the three-dimensional measurement apparatus 30 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a hardware configuration of the three-dimensional measurement apparatus 30.

三次元計測装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34と、表示部35を備える。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。また、三次元計測装置30は、通信部34を介して投射部5、撮像部10のそれぞれと通信を行う。   The three-dimensional measurement apparatus 30 includes, for example, a CPU (Central Processing Unit) 31, a storage unit 32, an input reception unit 33, a communication unit 34, and a display unit 35. These components are connected to each other via a bus Bus so that they can communicate with each other. In addition, the three-dimensional measurement device 30 communicates with each of the projection unit 5 and the imaging unit 10 via the communication unit 34.

CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、三次元計測装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部32は、三次元計測装置30が処理する各種の情報、各種の画像、各種のプログラム等を格納する。
The CPU 31 executes various programs stored in the storage unit 32.
The storage unit 32 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), an electrically erasable programmable read-only memory (EEPROM), a read-only memory (ROM), and a random access memory (RAM). Note that the storage unit 32 may be an external storage device connected by a digital input / output port such as a USB instead of the one built in the three-dimensional measurement device 30. The storage unit 32 stores various information processed by the three-dimensional measurement apparatus 30, various images, various programs, and the like.

入力受付部33は、例えば、表示部35と一体に構成されたタッチパネルである。なお、入力受付部33は、キーボードやマウス、タッチパッド、その他の入力装置であってもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
The input receiving unit 33 is, for example, a touch panel configured integrally with the display unit 35. The input receiving unit 33 may be a keyboard, a mouse, a touch pad, or other input device.
The communication unit 34 includes, for example, a digital input / output port such as USB, an Ethernet (registered trademark) port, and the like.
The display unit 35 is, for example, a liquid crystal display panel or an organic EL (ElectroLuminescence) display panel.

<三次元計測装置の機能構成>
以下、図4を参照し、三次元計測装置30の機能構成について説明する。図4は、三次元計測装置30の機能構成の一例を示す図である。
<Functional configuration of 3D measuring device>
Hereinafter, the functional configuration of the three-dimensional measurement apparatus 30 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a functional configuration of the three-dimensional measurement apparatus 30.

三次元計測装置30は、記憶部32と、制御部36を備える。   The three-dimensional measurement apparatus 30 includes a storage unit 32 and a control unit 36.

制御部36は、三次元計測装置30の全体を制御する。制御部36は、投射制御部361と、撮像制御部363と、画像取得部365と、特徴点検出部367と、対応付処理部369と、三次元点群生成部375と、位置姿勢算出部377を備える。制御部36が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The control unit 36 controls the entire three-dimensional measurement device 30. The control unit 36 includes a projection control unit 361, an imaging control unit 363, an image acquisition unit 365, a feature point detection unit 367, a correspondence processing unit 369, a three-dimensional point group generation unit 375, and a position and orientation calculation unit. 377. These functional units included in the control unit 36 are realized, for example, when the CPU 31 executes various programs stored in the storage unit 32. Further, some or all of the functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

投射制御部361は、投射部5に投射画像を投射範囲PAへ投射させる。
撮像制御部363は、撮像部10に撮像範囲CAをステレオ撮像させる。具体的には、撮像制御部363は、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる。
The projection control unit 361 causes the projection unit 5 to project a projection image onto the projection range PA.
The imaging control unit 363 causes the imaging unit 10 to perform stereo imaging of the imaging range CA. Specifically, the imaging control unit 363 causes the first imaging unit 11 and the second imaging unit 12 to perform stereo imaging of the imaging range CA.

画像取得部365は、撮像部10が撮像した撮像画像を撮像部10から取得する。具体的には、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像部11から取得する。また、画像取得部365は、第2撮像部12が撮像した撮像画像を第2撮像部12から取得する。   The image acquisition unit 365 acquires the captured image captured by the imaging unit 10 from the imaging unit 10. Specifically, the image acquisition unit 365 acquires the captured image captured by the first imaging unit 11 from the first imaging unit 11. Further, the image acquisition unit 365 acquires the captured image captured by the second imaging unit 12 from the second imaging unit 12.

特徴点検出部367は、画像取得部365が取得した撮像画像に基づいて、当該撮像画像における1以上の特徴点を検出する。
対応付処理部369は、ある撮像画像に基づいて特徴点検出部367が検出した1以上の特徴点と、当該撮像画像と異なる他の撮像画像に基づいて特徴点検出部367が検出した1以上の特徴点とを対応付ける処理を行う。
The feature point detection unit 367 detects one or more feature points in the captured image based on the captured image acquired by the image acquisition unit 365.
The association processing unit 369 includes one or more feature points detected by the feature point detection unit 367 based on a certain captured image and one or more feature points detected by the feature point detection unit 367 based on another captured image different from the captured image. A process of associating with feature points of

三次元点群生成部375は、対応付処理部369による処理の結果と、画像取得部365が第1撮像部11から取得した撮像画像と、画像取得部365が第2撮像部12から取得した撮像画像とに基づいて、これらの撮像画像に含まれる対象物Oの三次元点群を生成する。
位置姿勢算出部377は、三次元点群生成部375が生成した三次元点群に基づいて、対象物Oのワールド座標系WCにおける位置及び姿勢を算出する。
The three-dimensional point cloud generation unit 375 has a result of processing by the association processing unit 369, a captured image acquired by the image acquisition unit 365 from the first imaging unit 11, and an image acquisition unit 365 acquired from the second imaging unit 12. Based on the captured images, a three-dimensional point group of the object O included in these captured images is generated.
The position / orientation calculation unit 377 calculates the position and orientation of the object O in the world coordinate system WC based on the three-dimensional point group generated by the three-dimensional point group generation unit 375.

<三次元計測装置が三次元計測を行う処理>
以下、図5を参照し、三次元計測装置30が三次元計測を行う処理について説明する。図5は、三次元計測装置30が三次元計測を行う処理の流れの一例を示すフローチャートである。
<Process for 3D measurement by 3D measurement device>
Hereinafter, with reference to FIG. 5, the process in which the three-dimensional measurement apparatus 30 performs three-dimensional measurement will be described. FIG. 5 is a flowchart illustrating an example of a process flow in which the three-dimensional measurement apparatus 30 performs three-dimensional measurement.

投射制御部361は、投射部5に所定図形を含む投射画像を投射範囲PAへ投射させる(ステップS110)。具体的には、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。   The projection control unit 361 causes the projection unit 5 to project a projection image including a predetermined graphic onto the projection range PA (Step S110). Specifically, the projection control unit 361 causes the predetermined position of the predetermined graphic projected in the projection range PA to coincide with the first position predetermined in the projection range PA within the projection range PA. The projection image is projected on the projection unit 5 to the projection range PA.

次に、撮像制御部363は、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる(ステップS120)。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像画像として第1撮像部11から取得し、第2撮像部12が撮像した撮像画像を第2撮像画像として第2撮像部12から取得する(ステップS130)。   Next, the imaging control unit 363 causes the first imaging unit 11 and the second imaging unit 12 to perform stereo imaging of the imaging range CA (step S120). Next, the image acquisition unit 365 acquires the captured image captured by the first imaging unit 11 as the first captured image from the first imaging unit 11, and the captured image captured by the second imaging unit 12 as the second captured image. Obtained from the second imaging unit 12 (step S130).

次に、投射制御部361は、投射部5に所定図形を含む投射画像を投射範囲PAへ投射させる(ステップS140)。具体的には、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第2位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。   Next, the projection control unit 361 causes the projection unit 5 to project a projection image including a predetermined graphic onto the projection range PA (step S140). Specifically, the projection control unit 361 causes the predetermined position of the predetermined figure projected in the projection range PA to coincide with the second position predetermined in the projection range PA in the projection range PA. The projection image is projected on the projection unit 5 to the projection range PA.

ステップS110において投射範囲PAに投射された投射画像と、ステップS140において投射範囲PAに投射された投射画像との違いは、投射画像内における所定図形の位置である。ここで、所定図形が投射画像の一部に含まれる場合であり、且つ所定図形の形状が三角形状の図形であった場合を例に挙げて説明する。ステップS110において投射範囲PAに投射された投射画像と、ステップS140において投射範囲PAに投射された投射画像とを比較した場合、投射範囲PA内では、所定図形が投射範囲PA内において第1位置から第2位置へと移動したように見える。これを実現する方法の一例は、画像内において所定図形の位置が互いに異なる2つの投射画像のうちの一方をステップS110において投射部5に投射範囲PAへ投射させ、他方をステップS140において投射部5に投射範囲PAへ投射させる方法である。なお、三次元計測装置30は、投射部5の光軸の方向を変化させる方法等の他の方法によって当該違いを実現する構成であってもよい。   The difference between the projection image projected on the projection range PA in step S110 and the projection image projected on the projection range PA in step S140 is the position of the predetermined figure in the projection image. Here, a case where the predetermined graphic is included in a part of the projection image and the shape of the predetermined graphic is a triangular graphic will be described as an example. When the projection image projected on the projection range PA in step S110 and the projection image projected on the projection range PA in step S140 are compared, the predetermined figure is within the projection range PA from the first position in the projection range PA. It looks like it has moved to the second position. An example of a method for realizing this is to project one of two projection images having different predetermined graphic positions in the image onto the projection range PA in step S110 and project the other to the projection unit 5 in step S140. Is projected onto the projection range PA. The three-dimensional measurement device 30 may be configured to realize the difference by other methods such as a method of changing the direction of the optical axis of the projection unit 5.

ステップS140の処理が行われた後、撮像制御部363は、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる(ステップS150)。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第3撮像画像として第1撮像部11から取得し、第2撮像部12が撮像した撮像画像を第4撮像画像として第2撮像部12から取得する(ステップS160)。   After the process of step S140 is performed, the imaging control unit 363 causes the first imaging unit 11 and the second imaging unit 12 to perform stereo imaging of the imaging range CA (step S150). Next, the image acquisition unit 365 acquires the captured image captured by the first imaging unit 11 as the third captured image from the first imaging unit 11, and the captured image captured by the second imaging unit 12 as the fourth captured image. Obtained from the second imaging unit 12 (step S160).

次に、特徴点検出部367は、ステップS130において画像取得部365が取得した第1撮像画像に基づいて、第1撮像画像における1以上の特徴点である第1特徴点を検出するとともに、ステップS130において画像取得部365が取得した第2撮像画像に基づいて、第2撮像画像における1以上の特徴点である第2特徴点を検出する(ステップS170)。ここで、図6及び図7を参照し、第1撮像画像から検出された第1特徴点、及び第2撮像画像から検出された第2特徴点について説明する。   Next, the feature point detection unit 367 detects a first feature point that is one or more feature points in the first captured image based on the first captured image acquired by the image acquisition unit 365 in step S130. Based on the second captured image acquired by the image acquisition unit 365 in S130, a second feature point that is one or more feature points in the second captured image is detected (step S170). Here, the first feature point detected from the first captured image and the second feature point detected from the second captured image will be described with reference to FIGS. 6 and 7.

図6は、第1特徴点が検出される前の第1撮像画像と、第2特徴点が検出される前の第2撮像画像とを例示する図である。図6に示した第1撮像画像P1は、第1特徴点が検出される前の第1撮像画像の一例である。第1撮像画像P1内における点のそれぞれは、輝度値が「255」のドットを示す。また、第1撮像画像P1内における当該点以外の部分は、輝度値が「0」のドットによって占められている部分である。また、図6に示した第2撮像画像P2は、第2特徴点が検出される前の第2撮像画像の一例である。第2撮像画像P2内における点のそれぞれは、輝度値が「255」のドットを示す。また、第2撮像画像P2内における当該点以外の部分は、輝度値が「0」のドットによって占められている部分である。ここで、図6に示した例では、図が煩雑になるのを避けるため、第1撮像画像P1及び第2撮像画像P2のそれぞれにおいて輝度値が「255」のドットの数を、輝度値が「0」のドットの数に比べて少なくして表している。   FIG. 6 is a diagram illustrating a first captured image before the first feature point is detected and a second captured image before the second feature point is detected. The first captured image P1 illustrated in FIG. 6 is an example of the first captured image before the first feature point is detected. Each of the points in the first captured image P1 indicates a dot having a luminance value of “255”. In addition, the portion other than the point in the first captured image P1 is a portion occupied by dots having a luminance value of “0”. Further, the second captured image P2 illustrated in FIG. 6 is an example of the second captured image before the second feature point is detected. Each of the points in the second captured image P2 indicates a dot having a luminance value of “255”. In addition, the part other than the point in the second captured image P2 is a part occupied by dots having a luminance value of “0”. Here, in the example shown in FIG. 6, in order to avoid the figure from becoming complicated, the number of dots having a luminance value of “255” in each of the first captured image P1 and the second captured image P2 is set. The number of dots is smaller than the number of “0” dots.

特徴点検出部367は、図7に示したように、第1撮像画像P1から第1特徴点を検出し、第2撮像画像P2から第2特徴点を検出する。図7は、第1特徴点が検出された後の第1撮像画像と、第2特徴点が検出された後の第2撮像画像とを例示する図である。図7に示した第1撮像画像P11は、第1特徴点が検出された後の第1撮像画像の一例である。第1撮像画像P11内における点のうちハッチングされた点のそれぞれは、第1撮像画像P1から特徴点検出部367が検出した第1特徴点である。また、図7に示した第2撮像画像P21は、第2特徴点が検出された後の第2撮像画像の一例である。第2撮像画像P21内における点のうちハッチングされた点のそれぞれは、第2撮像画像P2から特徴点検出部367が検出した第2特徴点である。   As shown in FIG. 7, the feature point detection unit 367 detects the first feature point from the first captured image P1, and detects the second feature point from the second captured image P2. FIG. 7 is a diagram illustrating a first captured image after the first feature point is detected and a second captured image after the second feature point is detected. The first captured image P11 illustrated in FIG. 7 is an example of the first captured image after the first feature point is detected. Each of the hatched points in the first captured image P11 is a first feature point detected by the feature point detection unit 367 from the first captured image P1. The second captured image P21 illustrated in FIG. 7 is an example of the second captured image after the second feature point is detected. Each of the hatched points in the second captured image P21 is a second feature point detected by the feature point detection unit 367 from the second captured image P2.

ステップS170の処理が行われた後、対応付処理部369は、第1対応付処理を行う(ステップS180)。ここで、ステップS180の第1対応付処理について説明する。対応付処理部369は、第1対応付処理において、例えば、第1特徴点のそれぞれ毎に、第1特徴点に対応する第2特徴点の候補であってエピポーラ幾何を満たす1以上の第2特徴点の候補を検出する。以下では、説明の便宜上、第2特徴点の候補を第2特徴点候補と称して説明する。対応付処理部369が第2特徴点候補を検出する方法は、既知の方法であってもよく、これから開発される方法であってもよい。対応付処理部369は、第1特徴点のそれぞれ毎に、第1特徴点と、第1特徴点に対応する1以上の第2特徴点候補とを対応付ける。   After the process of step S170 is performed, the association processing unit 369 performs a first association process (step S180). Here, the first association process in step S180 will be described. In the first association processing, the association processing unit 369 is, for example, one or more second feature points that are candidates for the second feature point corresponding to the first feature point and satisfy the epipolar geometry for each first feature point. Detect feature point candidates. Hereinafter, for convenience of explanation, the second feature point candidates will be referred to as second feature point candidates. The method by which the association processing unit 369 detects the second feature point candidate may be a known method or a method to be developed in the future. The association processing unit 369 associates the first feature point with one or more second feature point candidates corresponding to the first feature point for each of the first feature points.

また、対応付処理部369は、ある第1特徴点に対応する第2特徴点候補が2以上ある場合、当該第1特徴点と、当該2以上の第2特徴点候補のそれぞれとに基づくワールド座標系WCにおけるZ軸方向の位置を算出する。当該位置を算出する方法は、例えば、三角測量法であるが、これに限られず、他の方法であってもよい。そして、対応付処理部369は、ある第1特徴点と、当該2以上の第2特徴点候補のうちのある第2特徴点候補と、当該第1特徴点と当該第2特徴点候補とに基づいて算出された当該Z軸方向の位置とを対応付ける。   In addition, when there are two or more second feature point candidates corresponding to a certain first feature point, the association processing unit 369 uses a world based on the first feature point and each of the two or more second feature point candidates. A position in the Z-axis direction in the coordinate system WC is calculated. The method for calculating the position is, for example, a triangulation method, but is not limited thereto, and other methods may be used. Then, the association processing unit 369 includes a first feature point, a second feature point candidate among the two or more second feature point candidates, the first feature point, and the second feature point candidate. The position in the Z-axis direction calculated based on this is associated.

ステップS180の処理が行われた後、対応付処理部369は、第1撮像画像と、第3撮像画像とに基づいて、第1撮像画像に含まれる所定図形の第1撮像画像上における位置から、第3撮像画像に含まれる所定図形の第3撮像画像上における位置までの軌跡を表す第1ベクトルをオプティカルフローとして算出する(ステップS190)。ここで、ステップS190の処理について説明する。   After the process of step S180 is performed, the association processing unit 369 starts from the position on the first captured image of the predetermined graphic included in the first captured image based on the first captured image and the third captured image. The first vector representing the trajectory up to the position on the third captured image of the predetermined graphic included in the third captured image is calculated as an optical flow (step S190). Here, the process of step S190 will be described.

前述した通り、ステップS110において投射範囲PAに投射された所定図形の投射範囲PA内における位置(すなわち、第1位置)と、ステップS140において投射範囲PAに投射された所定図形の投射範囲PA内における位置(すなわち、第2位置)とは、異なる位置である。このため、第1状態において撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、第2状態において撮像範囲CAが第1撮像部11により撮像された第3撮像画像とを比較した場合、これらの撮像画像に含まれる所定図形は、撮像画像に含まれる投射範囲PA内の第1位置から撮像画像に含まれる投射範囲PA内の第2位置まで移動したように見える。   As described above, the position (that is, the first position) of the predetermined graphic projected on the projection range PA in step S110 and the projection within the projection range PA of the predetermined graphic projected on the projection range PA in step S140. The position (that is, the second position) is a different position. Therefore, the first captured image in which the imaging range CA is captured by the first imaging unit 11 in the first state is compared with the third captured image in which the imaging range CA is captured by the first imaging unit 11 in the second state. In this case, the predetermined graphic included in these captured images appears to have moved from the first position in the projection range PA included in the captured image to the second position in the projection range PA included in the captured image.

そこで、対応付処理部369は、第1撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置を第1検出位置として検出する。また、対応付処理部369は、第3撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置である第3検出位置を検出する。対応付処理部369は、検出した第1検出位置及び第3検出位置に基づいて、撮像部座標系CCにおける第1検出位置と撮像部座標系CCにおける第3検出位置との差を表す第1ベクトルをオプティカルフローとして算出する。   Therefore, the association processing unit 369 detects the position in the imaging unit coordinate system CC at a predetermined position of the predetermined image included in the first captured image as the first detection position. In addition, the association processing unit 369 detects a third detection position that is a position in the imaging unit coordinate system CC at a predetermined position of a predetermined image included in the third captured image. The correspondence processing unit 369 represents a first difference representing a difference between the first detection position in the imaging unit coordinate system CC and the third detection position in the imaging unit coordinate system CC based on the detected first detection position and third detection position. The vector is calculated as an optical flow.

このようなオプティカルフローの大きさは、図1に示したように第1撮像部11及び第2撮像部12のワールド座標系WCにおける位置が固定されている場合、投射範囲PA内における第1位置のワールド座標系WCにおける高さの変化に応じて変化する。このようなオプティカルフローの大きさと当該高さとの関係を利用することにより、対応付処理部369は、後述するステップS210において、第1特徴点毎に、第1特徴点に対応する第2特徴点を、第1特徴点に対応する2以上の第2特徴点候補の中から特定することができる。以下では、説明の便宜上、当該高さを、対象高さと称して説明する。   The magnitude of such an optical flow is the first position in the projection range PA when the positions of the first imaging unit 11 and the second imaging unit 12 in the world coordinate system WC are fixed as shown in FIG. It changes according to the change of the height in the world coordinate system WC. By using the relationship between the magnitude of the optical flow and the height, the association processing unit 369 causes the second feature point corresponding to the first feature point for each first feature point in step S210 to be described later. Can be identified from two or more second feature point candidates corresponding to the first feature point. Hereinafter, for convenience of description, the height will be referred to as a target height.

ここで、オプティカルフローの大きさは、この一例において、オプティカルフローのノルムによって表す。なお、オプティカルフローの大きさは、これに代えて、オプティカルフローに基づく他の値によって表す構成であってもよい。   Here, the magnitude of the optical flow is represented by the norm of the optical flow in this example. Instead of this, the size of the optical flow may be represented by another value based on the optical flow.

なお、ステップS190において、対応付処理部369は、第2撮像画像と、第4撮像画像とに基づいて、オプティカルフローを算出する構成であってもよい。この場合、対応付処理部369は、第2撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置を第2検出位置として検出する。また、対応付処理部369は、第4撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置である第4検出位置を検出する。対応付処理部369は、検出した第2検出位置及び第4検出位置に基づいて、撮像部座標系CCにおける第2検出位置と第4検出位置との差を表す第2ベクトルをオプティカルフローとして算出する。   In step S190, the association processing unit 369 may be configured to calculate an optical flow based on the second captured image and the fourth captured image. In this case, the association processing unit 369 detects a position in the imaging unit coordinate system CC at a predetermined position of the predetermined image included in the second captured image as the second detection position. In addition, the association processing unit 369 detects a fourth detection position that is a position in the imaging unit coordinate system CC of a predetermined position of the predetermined image included in the fourth captured image. The association processing unit 369 calculates, as an optical flow, a second vector representing a difference between the second detection position and the fourth detection position in the imaging unit coordinate system CC based on the detected second detection position and fourth detection position. To do.

また、ステップS190において、対応付処理部369は、第1撮像画像と、第2撮像画像と、第3撮像画像と、第4撮像画像とに基づいて、オプティカルフローを算出する構成であってもよい。この場合、対応付処理部369は、第1ベクトルと、第2ベクトルとを算出する。そして、対応付処理部369は、第1ベクトルと第2ベクトルとの平均をオプティカルフローとして算出する。   Further, in step S190, the association processing unit 369 may calculate an optical flow based on the first captured image, the second captured image, the third captured image, and the fourth captured image. Good. In this case, the association processing unit 369 calculates the first vector and the second vector. Then, the association processing unit 369 calculates an average of the first vector and the second vector as an optical flow.

ステップS190の処理が行われた後、対応付処理部369は、記憶部32に予め記憶された対応情報を記憶部32から読み出す(ステップS200)。対応情報は、対象高さと、各対象高さに応じたオプティカルフローの大きさとが対応付けられた情報である。例えば、対応付処理部369は、ある対象高さに応じたオプティカルフローの大きさを特定したい場合、対応情報に基づいて当該対象高さに応じたオプティカルフローの大きさを特定することができる。三次元計測装置30が対応情報を生成する処理については、後述する。   After the process of step S190 is performed, the association processing unit 369 reads the correspondence information stored in advance in the storage unit 32 from the storage unit 32 (step S200). The correspondence information is information in which the target height is associated with the size of the optical flow corresponding to each target height. For example, when it is desired to specify the size of the optical flow corresponding to a certain target height, the association processing unit 369 can specify the size of the optical flow corresponding to the target height based on the correspondence information. The process in which the three-dimensional measuring device 30 generates correspondence information will be described later.

次に、対応付処理部369は、ステップS190において算出されたオプティカルフローと、ステップS200において記憶部32から読み出した対応情報とに基づいて、第1特徴点のそれぞれ毎に第2対応付処理を行う(ステップS210)。ある第1特徴点に対する第2対応付処理は、当該第1特徴点に対応する第2特徴点を、当該第1特徴点に対応付けられた第2特徴点候補の中から特定し、特定した当該第2特徴点と当該第1特徴点とを対応付ける処理のことである。ただし、第2対応付処理において、対応付処理部369は、ある第1特徴点に対応付けられた第2特徴点候補が1つの場合、当該第2特徴点候補を当該第1特徴点に対応する第2特徴点として特定する。ここで、ステップS210の処理について説明する。   Next, the correspondence processing unit 369 performs the second correspondence processing for each of the first feature points based on the optical flow calculated in step S190 and the correspondence information read from the storage unit 32 in step S200. This is performed (step S210). In the second association processing for a certain first feature point, the second feature point corresponding to the first feature point is identified from the second feature point candidates associated with the first feature point and identified. This is a process of associating the second feature point with the first feature point. However, in the second association processing, the association processing unit 369 corresponds the second feature point candidate to the first feature point when there is one second feature point candidate associated with a certain first feature point. The second feature point is specified. Here, the process of step S210 will be described.

前述した通り、第1撮像部11及び第2撮像部12のワールド座標系WCにおける位置が固定されている場合、投射範囲PA内における第1位置及び第2位置のワールド座標系WCにおける高さの変化に応じて変化する。これはすなわち、対応情報が予め導出されている場合、対応付処理部369が、対応情報とステップS190において算出されたオプティカルフローとに基づいて、第1撮像画像に含まれる投射範囲PA内において所定図形が位置している面のワールド座標系WCにおける高さを特定することができることを示している。当該高さは、ワールド座標系WCにおけるZ軸方向の位置のことである。そこで、対応付処理部369は、ステップS190において算出されたオプティカルフローと、ステップS200において記憶部32から読み出した対応情報とに基づいて、当該面(例えば、対象物Oの上面)のワールド座標系WCにおける高さを特定する。対応付処理部369は、第1撮像画像に含まれる当該面内に含まれる第1特徴点のそれぞれ毎に、以下の処理を行う。対応付処理部369は、ある第1特徴点に対する当該処理において、当該第1特徴点と、当該第1特徴点に対応付けられた第2特徴点候補のそれぞれとに基づく三次元位置を三角測量法によって算出する。対応付処理部369は、算出した三次元位置のうち、ワールド座標系WCにおける高さが、当該面のワールド座標系WCにおける高さとほぼ一致する(最も近い)三次元位置を特定する。対応付処理部369は、特定した三次元位置を算出するために用いた第2特徴点候補を、当該三次元位置を算出するために用いた第1特徴点に対応する第2特徴点として特定する。対応付処理部369は、特定した当該第1特徴点と当該第2特徴点とを対応付ける。対応付処理部369は、このような第2対応付処理を、第1特徴点のそれぞれ毎に行う。これにより、対応付処理部369は、第1特徴点と第2特徴点とを精度よく対応付けることができる。   As described above, when the positions of the first imaging unit 11 and the second imaging unit 12 in the world coordinate system WC are fixed, the heights of the first position and the second position in the world coordinate system WC within the projection range PA are determined. It changes according to change. That is, when the correspondence information is derived in advance, the association processing unit 369 determines the predetermined range within the projection range PA included in the first captured image based on the correspondence information and the optical flow calculated in step S190. It shows that the height in the world coordinate system WC of the surface on which the figure is located can be specified. The height is a position in the Z-axis direction in the world coordinate system WC. Therefore, the association processing unit 369, based on the optical flow calculated in step S190 and the correspondence information read from the storage unit 32 in step S200, the world coordinate system of the surface (for example, the upper surface of the object O). Specify the height in WC. The association processing unit 369 performs the following processing for each first feature point included in the plane included in the first captured image. In the process for a certain first feature point, the association processing unit 369 triangulates the three-dimensional position based on the first feature point and each of the second feature point candidates associated with the first feature point. Calculated by the method. The association processing unit 369 specifies a three-dimensional position in the calculated three-dimensional position where the height in the world coordinate system WC substantially matches (closest) to the height of the surface in the world coordinate system WC. The association processing unit 369 specifies the second feature point candidate used to calculate the specified three-dimensional position as the second feature point corresponding to the first feature point used to calculate the three-dimensional position. To do. The association processing unit 369 associates the identified first feature point with the second feature point. The association processing unit 369 performs such second association processing for each first feature point. Thereby, the correspondence processing unit 369 can associate the first feature point and the second feature point with high accuracy.

ステップS210の処理が行われた後、三次元点群生成部375は、ステップS210における第2対応付処理の結果として互いに対応付けられた第1特徴点及び第2特徴点とに基づいて、第1撮像画像に含まれる対象物Oの三次元点群を生成する(ステップS220)。当該三次元点群を生成する方法は、既知の方法であってもよく、これから開発される方法であってもよい。なお、上記のステップS220の処理は、三次元計測の一例である。次に、位置姿勢算出部377は、ステップS220において生成された対象物Oの三次元点群に基づいて、対象物Oのワールド座標系WCにおける位置及び姿勢を算出し(ステップS230)、処理を終了する。位置姿勢算出部377が当該三次元点群に基づいて対象物Oの位置及び姿勢を算出する方法は、既知の方法であってもよく、これから開発される方法であってもよい。   After the process of step S210 is performed, the three-dimensional point group generation unit 375 generates a first feature point and a second feature point that are associated with each other as a result of the second association process in step S210. A three-dimensional point group of the object O included in one captured image is generated (step S220). The method for generating the three-dimensional point group may be a known method or a method developed from now on. Note that the processing in step S220 is an example of three-dimensional measurement. Next, the position / orientation calculation unit 377 calculates the position and orientation of the object O in the world coordinate system WC based on the three-dimensional point group of the object O generated in step S220 (step S230), and performs processing. finish. The method by which the position / orientation calculation unit 377 calculates the position and orientation of the object O based on the three-dimensional point group may be a known method or a method that will be developed in the future.

このように、三次元計測装置30は、対象物Oを含む撮像範囲CAであって第1撮像部11及び第2撮像部12により撮像可能な撮像範囲CAにおける第1位置及び第2位置に所定図形が投射部5により投射され、第1位置に投射された所定図形を含む撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、当該撮像範囲CAが第2撮像部12により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲CAを第1撮像部11により撮像された第3撮像画像と、当該撮像範囲CAを第2撮像部12により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部11及び第2撮像部12により撮像された第1撮像画像及び第2撮像画像に基づく三次元計測を行う。これにより、三次元計測装置30は、対象物Oが光沢を有する物体や半透明な物体であっても、対象物Oの光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。   As described above, the three-dimensional measuring device 30 is predetermined at the first position and the second position in the imaging range CA that includes the object O and can be imaged by the first imaging unit 11 and the second imaging unit 12. A first captured image in which an imaging range CA including a predetermined graphic projected on the first position is projected by the projection unit 5 and captured by the first imaging unit 11, and the imaging range CA is captured by the second imaging unit 12. The second captured image, the third captured image in which the first imaging unit 11 captures the imaging range CA including the predetermined graphic projected on the second position, and the second imaging unit 12 captures the imaging range CA. After associating the first feature point detected from the first captured image with the second feature point detected from the second captured image based on the captured fourth captured image, the first imaging unit 11 And the first image picked up by the second image pickup unit 12 Performing three-dimensional measurement based on the image and the second image. Thereby, even if the target object O is a glossy object or a semitransparent object, the three-dimensional measurement apparatus 30 can suppress an error due to the optical characteristics of the target object O and can accurately perform the three-dimensional measurement. .

<三次元計測装置が対応情報を生成する処理>
以下、図8〜図11を参照し、三次元計測装置30が対応情報を生成する処理について説明する。図8は、三次元計測装置30が対応情報を生成する処理の流れの一例を示すフローチャートである。
<Process in which 3D measuring device generates correspondence information>
Hereinafter, with reference to FIGS. 8 to 11, a process in which the three-dimensional measurement apparatus 30 generates correspondence information will be described. FIG. 8 is a flowchart illustrating an example of a process flow in which the three-dimensional measurement apparatus 30 generates correspondence information.

対応付処理部369は、記憶部32に予め記憶された対象高さ情報を記憶部32から読み出す。対応高さ情報は、ユーザーにより選択された複数の対象高さを示す情報である。以下では、説明の便宜上、対象高さをZの値によって表す。すなわち、Z=0は、対象高さが基準となる高さであることを表す。また、Z=nは、対象高さが基準となる高さから所定高さのn倍分だけ高い高さであることを表す。ここで、nは、0を除く実数であれば、如何なる数であってもよい。   The association processing unit 369 reads the target height information stored in advance in the storage unit 32 from the storage unit 32. The corresponding height information is information indicating a plurality of target heights selected by the user. In the following, for convenience of explanation, the target height is represented by the value of Z. That is, Z = 0 represents that the target height is a reference height. Z = n represents that the target height is higher than the reference height by n times the predetermined height. Here, n may be any number as long as it is a real number excluding 0.

また、以下では、一例として、ユーザーによりZ=0、2、4、6、8の5つの対象高さが選択された場合について説明する。すなわち対象高さ情報は、Z=0、2、4、6、8の5つの対象高さのそれぞれを示す。   In the following, a case where five target heights Z = 0, 2, 4, 6, and 8 are selected by the user will be described as an example. That is, the target height information indicates each of the five target heights Z = 0, 2, 4, 6, and 8.

対応付処理部369は、記憶部32から読み出した対象高さ情報が示す対象高さ毎に、ステップS320〜ステップS410の処理を繰り返し行う(ステップS310)。すなわち、対応付処理部369は、Z=0、2、4、6、8の5つの対象高さのそれぞれ毎に、当該処理を繰り返し行う。   The association processing unit 369 repeatedly performs the processing of step S320 to step S410 for each target height indicated by the target height information read from the storage unit 32 (step S310). That is, the association processing unit 369 repeatedly performs the process for each of the five target heights of Z = 0, 2, 4, 6, and 8.

対応付処理部369は、ステップS310において選択された対象高さに基づいて、ユーザーが作業台TBの上面のワールド座標系WCにおける高さを対象高さと一致させるまで待機する(ステップS320)。例えば、作業台TBの上面のワールド座標系WCにおける高さを対象高さと一致させる作業が終了したことを示す操作をユーザーから対応付処理部369が受け付けた場合、投射制御部361は、ステップS330に遷移する。なお、作業台TBの上面のワールド座標系WCにおける高さを変更する機構部を作業台TBが備えている場合、対応付処理部369は、当該機構部を制御し、当該作業を当該機構部に行わせる構成であってもよい。この場合、投射制御部361は、対応付処理部369が当該処理を終了させた場合にステップS330に遷移する。   The correspondence processing unit 369 waits until the user matches the height in the world coordinate system WC on the upper surface of the work table TB with the target height based on the target height selected in step S310 (step S320). For example, when the association processing unit 369 receives an operation indicating that the operation of matching the height of the upper surface of the work table TB in the world coordinate system WC with the target height is completed from the user, the projection control unit 361 performs step S330. Transition to. When the work table TB includes a mechanism unit that changes the height of the upper surface of the work table TB in the world coordinate system WC, the association processing unit 369 controls the mechanism unit so that the work is performed. It may be configured to be performed. In this case, the projection control unit 361 transitions to step S330 when the association processing unit 369 ends the process.

そして、ステップS330において、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる(ステップS330)。   In step S330, the projection control unit 361 matches the predetermined position of the predetermined figure projected in the projection range PA with the first position determined in the projection range PA within the projection range PA. In this manner, the projection image is projected onto the projection range 5 to the projection range PA (step S330).

次に、撮像制御部363は、第1撮像部11と第2撮像部12の少なくとも一方に撮像範囲CAを撮像させる(ステップS340)。以下では、一例として、ステップS340において、撮像制御部363が第1撮像部11に撮像範囲CAを撮像させる場合について説明する。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像部11から取得する(ステップS350)。   Next, the imaging control unit 363 causes at least one of the first imaging unit 11 and the second imaging unit 12 to image the imaging range CA (step S340). Hereinafter, as an example, a case where the imaging control unit 363 causes the first imaging unit 11 to image the imaging range CA in step S340 will be described. Next, the image acquisition unit 365 acquires the captured image captured by the first imaging unit 11 from the first imaging unit 11 (step S350).

次に、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第2位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる(ステップS370)。   Next, the projection control unit 361 performs projection so that the predetermined position of the predetermined figure projected in the projection range PA matches the second position predetermined in the projection range PA within the projection range PA. The image is projected on the projection unit 5 to the projection range PA (step S370).

次に、撮像制御部363は、ステップS340において撮像範囲CAを撮像した撮像部と同じ撮像部(この一例において、第1撮像部11)に撮像範囲CAを撮像させる(ステップS380)。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像部11から取得する(ステップS390)。   Next, the imaging control unit 363 causes the same imaging unit (in this example, the first imaging unit 11) as the imaging unit that captured the imaging range CA in step S340 to image the imaging range CA (step S380). Next, the image acquisition unit 365 acquires the captured image captured by the first imaging unit 11 from the first imaging unit 11 (step S390).

次に、対応付処理部369は、ステップS350において画像取得部365が取得した撮像画像に含まれる所定図形の当該撮像画像上における位置から、ステップS390において画像取得部365が取得した撮像画像に含まれる所定図形の第2撮像画像上における位置までの軌跡を表すベクトルをオプティカルフローとして算出する(ステップS410)。そして、対応付処理部369は、算出したオプティカルフローにステップS310において選択された対象高さを対応付ける。   Next, the association processing unit 369 is included in the captured image acquired by the image acquisition unit 365 in step S390 from the position on the captured image of the predetermined graphic included in the captured image acquired by the image acquisition unit 365 in step S350. A vector representing the trajectory of the predetermined figure to the position on the second captured image is calculated as an optical flow (step S410). Then, the association processing unit 369 associates the target height selected in Step S310 with the calculated optical flow.

ここで、図9〜図12を参照し、ステップS310〜ステップS410の処理について説明する。図9は、対象高さがZ=0の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。図10は、対象高さがZ=2の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。図11は、対象高さがZ=4の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。図9〜図11において、投射画像に含まれる所定図形を明確に示すため、所定図形を矢印ARによって表している。   Here, with reference to FIG. 9 to FIG. 12, processing in steps S <b> 310 to S <b> 410 will be described. FIG. 9 shows that when the target height is Z = 0, the predetermined position of the predetermined figure projected within the projection range PA is the first position determined within the projection range PA and within the projection range PA. It is a figure which shows an example of a mode that it corresponds in. FIG. 10 shows that when the target height is Z = 2, the predetermined position of the predetermined figure projected within the projection range PA is the first position determined within the projection range PA and within the projection range PA. It is a figure which shows an example of a mode that it corresponds in. FIG. 11 shows that when the target height is Z = 4, the predetermined position of the predetermined figure projected within the projection range PA is the first position determined within the projection range PA and within the projection range PA. It is a figure which shows an example of a mode that it corresponds in. 9 to 11, the predetermined figure is represented by an arrow AR in order to clearly show the predetermined figure included in the projection image.

三次元計測装置30は、例えば、1回目のステップS320〜ステップS410の処理を、作業台TBの上面のワールド座標系WCにおける高さが図9に示した高さと一致している状態において行う。三次元計測装置30は、2回目のステップS320〜ステップS410の処理を、作業台TBの上面のワールド座標系WCにおける高さが図10に示した高さと一致している状態において行う。そして、三次元計測装置30は、3回目のステップS320〜ステップS410の処理を、作業台TBの上面のワールド座標系WCにおける高さが図11に示した高さと一致している状態において行う。図9〜図11のそれぞれを比較することにより、作業台TBの上面のワールド座標系WCにおける高さが高くなるほど、第1撮像部11及び第2撮像部12のそれぞれと当該第1位置(及び第2位置)との間の距離が長くなる。これにより、作業台TBの上面のワールド座標系WCにおける高さが高くなるほど、ステップS350において画像取得部365が取得した撮像画像に含まれる所定図形の当該撮像画像上における位置から、ステップS390において画像取得部365が取得した撮像画像に含まれる所定図形の第2撮像画像上における位置までの距離は、長くなる。その結果、当該高さが高くなるほど、オプティカルフローの大きさが大きくなる。   For example, the three-dimensional measuring apparatus 30 performs the first processing of Step S320 to Step S410 in a state where the height of the upper surface of the work table TB in the world coordinate system WC matches the height shown in FIG. The three-dimensional measuring apparatus 30 performs the second processing from step S320 to step S410 in a state where the height of the upper surface of the work table TB in the world coordinate system WC matches the height shown in FIG. Then, the three-dimensional measurement apparatus 30 performs the third processing in steps S320 to S410 in a state where the height of the upper surface of the work table TB in the world coordinate system WC matches the height shown in FIG. By comparing each of FIGS. 9 to 11, as the height of the upper surface of the work table TB in the world coordinate system WC increases, each of the first imaging unit 11 and the second imaging unit 12 and the first position (and The distance to the second position) is increased. As a result, as the height of the upper surface of the work table TB in the world coordinate system WC increases, from the position on the captured image of the predetermined graphic included in the captured image acquired by the image acquisition unit 365 in step S350, the image is displayed in step S390. The distance to the position on the 2nd captured image of the predetermined figure contained in the captured image which the acquisition part 365 acquired becomes long. As a result, the higher the height, the larger the optical flow.

ステップS310〜ステップS410の繰り返し処理が行われた後、対応付処理部369は、例えば、当該繰り返し処理によって算出されたオプティカルフローのそれぞれに基づいて、オプティカルフローの大きさの変化と、各オプティカルフローに対応付けられた対象高さの変化との関係を表す関数を対応情報として線形補完によって生成(導出)する(ステップS420)。なお、対応付処理部369は、当該関数に代えて、当該関係を表すテーブル等の他の情報を対応情報として生成する構成であってもよい。また、対応付処理部369は、線形補完に代えて、他の統計手法によって対応情報を生成する構成であってもよい。ここで、図12を参照し、当該関数について説明する。   After the repetitive processing of Steps S310 to S410 is performed, the association processing unit 369, for example, based on each of the optical flows calculated by the repetitive processing, changes in the size of the optical flow and each optical flow. A function representing the relationship with the change in the target height associated with is generated (derived) by linear interpolation as correspondence information (step S420). Note that the association processing unit 369 may be configured to generate other information such as a table representing the relationship as correspondence information instead of the function. Further, the association processing unit 369 may be configured to generate correspondence information using another statistical method instead of linear interpolation. Here, the function will be described with reference to FIG.

図12は、対応情報の一例を示す図である。図12に示したグラフの縦軸は、オプティカルフローの大きさを示す。また、当該グラフの横軸は、対象高さZの値を示す。当該グラフにプロットされた点は、ステップS310において選択可能な対象高さのそれぞれに応じたオプティカルフローの大きさを表す点である。これらの点に基づいて、対応付処理部369は、線形補完を行うことにより、オプティカルフローの大きさの変化と、各オプティカルフローに対応付けられた対象高さの変化との関係を表す関数を対応情報として生成する。当該グラフにプロットされた点のそれぞれを繋ぐ線は、当該関数を表す線である。   FIG. 12 is a diagram illustrating an example of correspondence information. The vertical axis of the graph shown in FIG. 12 indicates the magnitude of the optical flow. The horizontal axis of the graph indicates the value of the target height Z. The points plotted in the graph are points representing the size of the optical flow corresponding to each of the target heights that can be selected in step S310. Based on these points, the association processing unit 369 performs linear interpolation to obtain a function that represents the relationship between the change in the magnitude of the optical flow and the change in the target height associated with each optical flow. Generate as correspondence information. A line connecting each of the points plotted on the graph is a line representing the function.

対応情報を生成した後、対応付処理部369は、生成した対応情報を記憶部32に記憶する。そして、対応付処理部369は、処理を終了する。
このように、三次元計測装置30は、ステップS310〜ステップS420の処理によって、対応情報を生成する。これにより、三次元計測装置30は、図5に示したフローチャートの処理を精度よく行うことができる。
After generating the correspondence information, the association processing unit 369 stores the generated correspondence information in the storage unit 32. Then, the association processing unit 369 ends the process.
As described above, the three-dimensional measurement apparatus 30 generates correspondence information through the processes in steps S310 to S420. Thereby, the three-dimensional measurement apparatus 30 can perform the process of the flowchart shown in FIG. 5 with high accuracy.

<実施形態の変形例>
以下、図13を参照し、実施形態の変形例について説明する。なお、実施形態の変形例では、実施形態と同様な構成部に対して同じ符号を付して説明を省略する。
<Modification of Embodiment>
Hereinafter, a modification of the embodiment will be described with reference to FIG. In addition, in the modification of embodiment, the same code | symbol is attached | subjected with respect to the structure part similar to embodiment, and description is abbreviate | omitted.

図13は、実施形態の変形例に係るロボットシステム2の構成の一例を示す図である。ロボットシステム2は、撮像部10と、ロボット20と、ロボット制御装置50を備える。また、ロボット制御装置50は、三次元計測装置30を備える。より具体的には、ロボット制御装置50は、三次元計測装置30が備える各機能部を備える。   FIG. 13 is a diagram illustrating an example of a configuration of a robot system 2 according to a modification of the embodiment. The robot system 2 includes an imaging unit 10, a robot 20, and a robot control device 50. Further, the robot control device 50 includes a three-dimensional measurement device 30. More specifically, the robot control device 50 includes functional units included in the three-dimensional measurement device 30.

ロボット20は、アームAと、アームAを支持する支持台Bを備える単腕ロボットである。単腕ロボットは、この一例におけるアームAのような1本のアーム(腕)を備えるロボットである。なお、ロボット20は、単腕ロボットに代えて、複腕ロボットであってもよい。複腕ロボットは、2本以上のアーム(例えば、2本以上のアームA)を備えるロボットである。なお、複腕ロボットのうち、2本のアームを備えるロボットは、双腕ロボットとも称される。すなわち、ロボット20は、2本のアームを備える双腕ロボットであってもよく、3本以上のアーム(例えば、3本以上のアームA)を備える複腕ロボットであってもよい。また、ロボット20は、スカラロボットや、円筒型ロボット等の他のロボットであってもよい。   The robot 20 is a single-arm robot including an arm A and a support base B that supports the arm A. The single arm robot is a robot having one arm (arm) like the arm A in this example. The robot 20 may be a multi-arm robot instead of the single-arm robot. The multi-arm robot is a robot having two or more arms (for example, two or more arms A). Of the multi-arm robot, a robot having two arms is also referred to as a double-arm robot. That is, the robot 20 may be a double-arm robot having two arms or a multi-arm robot having three or more arms (for example, three or more arms A). The robot 20 may be another robot such as a SCARA robot or a cylindrical robot.

アームAは、エンドエフェクターEと、マニピュレーターMを備える。
エンドエフェクターEは、この一例において、物体を把持可能な指部を備えるエンドエフェクターである。なお、エンドエフェクターEは、当該指部を備えるエンドエフェクターに代えて、空気の吸引や磁力、治具等によって物体を持ち上げることが可能なエンドエフェクターや、他のエンドエフェクターであってもよい。
The arm A includes an end effector E and a manipulator M.
In this example, the end effector E is an end effector including a finger portion that can grip an object. The end effector E may be an end effector capable of lifting an object by air suction, a magnetic force, a jig or the like, or another end effector, instead of the end effector including the finger portion.

エンドエフェクターEは、ケーブルによってロボット制御装置50と通信可能に接続されている。これにより、エンドエフェクターEは、ロボット制御装置50から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、エンドエフェクターEは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置50と接続される構成であってもよい。   The end effector E is communicably connected to the robot controller 50 via a cable. Thereby, the end effector E performs an operation based on the control signal acquired from the robot control device 50. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. Further, the end effector E may be configured to be connected to the robot control device 50 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

マニピュレーターMは、6つの関節を備える。また、当該6つの関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、マニピュレーターMを備えるアームAは、6軸垂直多関節型のアームである。アームAは、支持台Bと、エンドエフェクターEと、マニピュレーターMと、マニピュレーターMが備える6つの関節それぞれのアクチュエーターとによる連携した動作によって6軸の自由度の動作を行う。なお、アームAは、5軸以下の自由度で動作する構成であってもよく、7軸以上の自由度で動作する構成であってもよい。   The manipulator M includes six joints. Each of the six joints includes an actuator (not shown). That is, the arm A including the manipulator M is a 6-axis vertical articulated arm. The arm A performs an operation with six degrees of freedom by a coordinated operation by the support base B, the end effector E, the manipulator M, and the actuators of each of the six joints included in the manipulator M. The arm A may be configured to operate with a degree of freedom of 5 axes or less, or may be configured to operate with a degree of freedom of 7 axes or more.

マニピュレーターMが備える6つの(関節に備えられた)アクチュエーターはそれぞれ、ケーブルによってロボット制御装置50と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置50から取得される制御信号に基づいて、マニピュレーターMを動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、マニピュレーターMが備える6つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置50と接続される構成であってもよい。   Each of the six actuators (provided at the joints) included in the manipulator M is communicably connected to the robot controller 50 via a cable. Accordingly, the actuator operates the manipulator M based on the control signal acquired from the robot control device 50. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. Further, a part or all of the six actuators included in the manipulator M may be connected to the robot control device 50 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

ロボット制御装置50は、この一例において、ロボットを制御する装置である。ロボット制御装置50は、予め入力された動作プログラムに基づいて制御信号を生成する。ロボット制御装置50は、生成した制御信号をロボット20に送信し、ロボット20に所定の作業を行わせる。所定の作業は、この一例において、ロボット20がアームAを動作させ、作業台TBの上面に載置された対象物Oを把持し、把持した対象物Oを図示しない給材領域に配置する作業である。なお、所定の作業は、これに代えて、他の作業であってもよい。   In this example, the robot control device 50 is a device that controls the robot. The robot control device 50 generates a control signal based on an operation program input in advance. The robot control device 50 transmits the generated control signal to the robot 20 to cause the robot 20 to perform a predetermined operation. In this example, the predetermined work is a work in which the robot 20 operates the arm A to hold the object O placed on the upper surface of the work table TB and to place the grasped object O in a supply area (not shown). It is. The predetermined work may be another work instead of this.

ロボット制御装置50は、所定の作業をロボット20に行わせる際、対象物Oを含む撮像範囲CAであって第1撮像部11及び第2撮像部12により撮像可能な撮像範囲CAにおける第1位置及び第2位置に所定図形が投射部5により投射され、第1位置に投射された所定図形を含む撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、当該撮像範囲CAが第2撮像部12により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲CAを第1撮像部11により撮像された第3撮像画像と、当該撮像範囲CAを第2撮像部12により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部11及び第2撮像部12により撮像された第1撮像画像及び第2撮像画像に基づく三次元計測を行う。この三次元計測により、ロボット制御装置50は、対象物Oの三次元点群を生成する。ロボット制御装置50は、生成した当該三次元点群に基づいて、対象物Oの位置及び姿勢を算出する。そして、ロボット制御装置50は、算出した対象物Oの位置及び姿勢に基づいて、ロボット20に所定の作業を行わせる。なお、ロボット制御装置50が対象物Oの三次元計測を行うための処理は、図5に示したフローチャートの処理の説明においてワールド座標系WCをロボット座標系RCに読み替えた場合の処理と同様の処理であるため説明を省略する。   When the robot controller 50 causes the robot 20 to perform a predetermined operation, the robot control device 50 is the first position in the imaging range CA that includes the object O and can be imaged by the first imaging unit 11 and the second imaging unit 12. And the predetermined figure is projected by the projection part 5 in the 2nd position, and the 1st picked-up image in which the imaging range CA containing the predetermined figure projected on the 1st position was imaged by the 1st imaging part 11, and the said imaging range CA are A second captured image captured by the second image capturing unit 12, a third captured image captured by the first image capturing unit 11 including the predetermined image projected on the second position, and the captured image range CA. After associating the first feature point detected from the first captured image with the second feature point detected from the second captured image based on the fourth captured image captured by the second imaging unit 12 , First imaging unit 11 and second imaging Performing three-dimensional measurement based on the first image and the second captured image captured by 12. With this three-dimensional measurement, the robot control device 50 generates a three-dimensional point group of the object O. The robot control device 50 calculates the position and orientation of the object O based on the generated three-dimensional point group. Then, the robot control device 50 causes the robot 20 to perform a predetermined operation based on the calculated position and orientation of the object O. The process for the robot controller 50 to perform the three-dimensional measurement of the object O is the same as the process when the world coordinate system WC is replaced with the robot coordinate system RC in the description of the process of the flowchart shown in FIG. Since it is a process, explanation is omitted.

ここで、ロボット制御装置50は、所定の作業をロボット20に行わせる前に、前述の対応情報を予め生成する。ロボット制御装置50が対応情報を生成する処理は、図8のフローチャートの処理の説明においてワールド座標系WCをロボット座標系RCに読み替えた場合の処理と同様の処理であるため説明を省略する。   Here, the robot control device 50 generates the aforementioned correspondence information in advance before causing the robot 20 to perform a predetermined operation. The process in which the robot control device 50 generates the correspondence information is the same as the process when the world coordinate system WC is replaced with the robot coordinate system RC in the description of the process in the flowchart of FIG.

このように、ロボット制御装置50は、実施形態において説明した三次元計測装置30を備え、三次元計測装置30が算出した対象物Oの位置及び姿勢に基づいて、ロボット20に所定の作業を行わせる。これにより、ロボット制御装置50は、高い精度で所定の作業をロボット20に行わせることができる。   As described above, the robot control device 50 includes the three-dimensional measurement device 30 described in the embodiment, and performs predetermined work on the robot 20 based on the position and orientation of the object O calculated by the three-dimensional measurement device 30. Make it. Thereby, the robot control apparatus 50 can make the robot 20 perform a predetermined operation with high accuracy.

なお、ロボットシステム2において、ロボット制御装置50と三次元計測装置30とは、別体であってもよい。この場合、ロボット制御装置50は、三次元計測装置30から三次元計測装置30が算出した対象物Oの位置及び姿勢を取得し、取得した対象物Oの位置及び姿勢に基づいてロボット20に所定の作業を行わせる。   In the robot system 2, the robot control device 50 and the three-dimensional measurement device 30 may be separate. In this case, the robot control device 50 acquires the position and orientation of the object O calculated by the three-dimensional measurement device 30 from the three-dimensional measurement device 30, and determines a predetermined value for the robot 20 based on the acquired position and posture of the object O. Let's do the work.

以上のように、三次元計測装置30は、対象物(この一例において、対象物O)を含む撮像範囲(この一例において、撮像範囲CA)であって第1撮像部(この一例において、第1撮像部11)及び第2撮像部(この一例において、第2撮像部12)により撮像可能な撮像範囲における第1位置及び第2位置に所定図形が投射部(この一例において、投射部5)により投射され、第1位置に投射された所定図形を含む撮像範囲が第1撮像部により撮像された第1撮像画像と、当該撮像範囲が第2撮像部により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲を第1撮像部により撮像された第3撮像画像と、当該撮像範囲を第2撮像部により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部及び第2撮像部により撮像された画像に基づく三次元計測を行う。これにより、三次元計測装置30は、対象物が光沢を有する物体や半透明な物体であっても、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。   As described above, the three-dimensional measurement apparatus 30 is an imaging range (an imaging range CA in this example) including an object (in this example, the object O), and a first imaging unit (in this example, the first imaging unit CA). Predetermined figures are projected by the projection unit (in this example, the projection unit 5) at the first position and the second position in the imaging range that can be imaged by the imaging unit 11) and the second imaging unit (in this example, the second imaging unit 12). A first captured image in which an imaging range including a predetermined figure projected and projected to the first position is captured by the first imaging unit; a second captured image in which the imaging range is captured by the second imaging unit; Based on a third captured image in which an imaging range including a predetermined graphic projected at two positions is captured by the first imaging unit and a fourth captured image in which the imaging range is captured by the second imaging unit. First feature detected from captured image After that associates the point, and a second feature point detected from the second image, performs three-dimensional measurement based on the image captured by the first imaging unit and the second imaging unit. Thereby, even if the target object is a glossy object or a translucent object, the three-dimensional measurement apparatus 30 can suppress an error due to the optical characteristics of the target object and accurately perform the three-dimensional measurement.

また、三次元計測装置30は、第1撮像画像内における所定図形の位置と第3撮像画像内における所定図形の位置と差を表す第1ベクトルと、第2撮像画像内における所定図形の位置と第4撮像画像内における所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置30は、第1ベクトルと第2ベクトルとのうち少なくとも一方に基づいて、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。   The three-dimensional measuring device 30 also includes a first vector representing a difference between the position of the predetermined graphic in the first captured image and the position of the predetermined graphic in the third captured image, and the position of the predetermined graphic in the second captured image. The first feature point and the second feature point are associated with each other based on at least one of the position of the predetermined figure in the fourth captured image and the second vector representing the difference. Thereby, the three-dimensional measuring apparatus 30 can suppress the error due to the optical characteristic of the object based on at least one of the first vector and the second vector, and can accurately perform the three-dimensional measurement.

また、三次元計測装置30は、第1撮像部が設けられた位置と、第2撮像部が設けられた位置とのそれぞれから第1位置及び第2位置までの距離の変化と、第1ベクトルと第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置30は、対応情報に基づいて対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。   Further, the three-dimensional measurement apparatus 30 includes a first vector and a change in distance from the position where the first imaging unit is provided and the position where the second imaging unit is provided to the first position and the second position. The first feature point and the second feature point are associated with each other based on correspondence information indicating correspondence between the change in value based on at least one of the second vector and the change in value. Thereby, the three-dimensional measuring apparatus 30 can suppress the error due to the optical characteristics of the object based on the correspondence information, and can accurately perform the three-dimensional measurement.

また、三次元計測装置30は、対応付けた第1特徴点と第2特徴点とに基づいて対象物の三次元形状を表す三次元点群を生成する。これにより、三次元計測装置30は、生成した三次元点群に基づいて、対象物の位置及び姿勢を精度よく検出することができる。   In addition, the three-dimensional measuring device 30 generates a three-dimensional point group that represents the three-dimensional shape of the object based on the first feature point and the second feature point that are associated with each other. Thereby, the three-dimensional measuring apparatus 30 can accurately detect the position and orientation of the object based on the generated three-dimensional point group.

また、三次元計測装置30は、生成した三次元点群に基づいて対象物の位置及び姿勢を算出する。これにより、三次元計測装置30は、精度よく算出した対象物の位置及び姿勢を他の装置(この一例において、ロボット制御装置50)に出力することができる。   In addition, the three-dimensional measurement device 30 calculates the position and orientation of the object based on the generated three-dimensional point group. Thereby, the three-dimensional measurement apparatus 30 can output the position and orientation of the target object calculated with high accuracy to another apparatus (in this example, the robot control apparatus 50).

また、ロボット20は、三次元計測装置30が三次元計測を行った結果に基づいて所定作業(この一例において、所定の作業)を行う。これにより、ロボット20は、高い精度で所定作業を行うことができる。   Further, the robot 20 performs a predetermined work (a predetermined work in this example) based on the result of the three-dimensional measurement performed by the three-dimensional measurement device 30. Thereby, the robot 20 can perform a predetermined operation with high accuracy.

また、ロボット制御装置50は、三次元計測装置30が三次元計測を行った結果に基づいてロボット20に所定作業を行わせる。これにより、ロボット制御装置50は、高い精度で所定作業をロボットに行わせることができる。   Further, the robot control device 50 causes the robot 20 to perform a predetermined operation based on the result of the 3D measurement performed by the 3D measurement device 30. As a result, the robot control device 50 can cause the robot to perform a predetermined operation with high accuracy.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.

また、以上に説明した装置(例えば、三次元計測装置30、ロボット制御装置50)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Further, a program for realizing the function of an arbitrary component in the above-described apparatuses (for example, the three-dimensional measuring apparatus 30 and the robot control apparatus 50) is recorded on a computer-readable recording medium, and the program is stored in the computer. The program may be read by the system and executed. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in the computer system. . Furthermore, “computer-readable recording medium” means a volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1…三次元計測システム、2…ロボットシステム、10…撮像部、11…第1撮像部、12…第2撮像部、20…ロボット、30…三次元計測装置、31…CPU、32…記憶部、33…入力受付部、34…通信部、35…表示部、36…制御部、50…ロボット制御装置、361…投射制御部、363…撮像制御部、365…画像取得部、367…特徴点検出部、369…対応付処理部、375…三次元点群生成部、377…位置姿勢算出部 DESCRIPTION OF SYMBOLS 1 ... Three-dimensional measuring system, 2 ... Robot system, 10 ... Imaging part, 11 ... 1st imaging part, 12 ... 2nd imaging part, 20 ... Robot, 30 ... Three-dimensional measuring apparatus, 31 ... CPU, 32 ... Memory | storage part , 33 ... Input receiving unit, 34 ... Communication unit, 35 ... Display unit, 36 ... Control unit, 50 ... Robot control device, 361 ... Projection control unit, 363 ... Imaging control unit, 365 ... Image acquisition unit, 367 ... Feature inspection Output unit, 369... Corresponding processing unit, 375... Three-dimensional point group generation unit, 377.

Claims (8)

対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な前記撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、前記第1位置に投射された前記所定図形を含む前記撮像範囲が前記第1撮像部により撮像された第1撮像画像と、当該撮像範囲が前記第2撮像部により撮像された第2撮像画像と、前記第2位置に投射された前記所定図形を含む前記撮像範囲を前記第1撮像部により撮像された第3撮像画像と、当該撮像範囲を前記第2撮像部により撮像された第4撮像画像とに基づいて、前記第1撮像画像から検出された第1特徴点と、前記第2撮像画像から検出された第2特徴点とを対応付けた後、前記第1撮像部及び前記第2撮像部により撮像された画像に基づく三次元計測を行う、
三次元計測装置。
A predetermined figure is projected by the projection unit to the first position and the second position in the imaging range that includes the target object and can be imaged by the first imaging unit and the second imaging unit, and is projected to the first position. In addition, a first captured image in which the imaging range including the predetermined figure is captured by the first imaging unit, a second captured image in which the imaging range is captured by the second imaging unit, and the second position are projected. Based on a third captured image obtained by imaging the imaging range including the predetermined figure by the first imaging unit and a fourth captured image obtained by imaging the imaging range by the second imaging unit. After associating the first feature point detected from one captured image with the second feature point detected from the second captured image, the image captured by the first image capturing unit and the second image capturing unit Based on 3D measurement,
Three-dimensional measuring device.
前記第1撮像画像内における前記所定図形の位置と前記第3撮像画像内における前記所定図形の位置と差を表す第1ベクトルと、前記第2撮像画像内における前記所定図形の位置と前記第4撮像画像内における前記所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、前記第1特徴点と前記第2特徴点とを対応付ける、
請求項1に記載の三次元計測装置。
A first vector representing a difference between a position of the predetermined graphic in the first captured image and a position of the predetermined graphic in the third captured image; a position of the predetermined graphic in the second captured image; Associating the first feature point with the second feature point based on at least one of the position of the predetermined figure in the captured image and the second vector representing the difference;
The three-dimensional measuring apparatus according to claim 1.
前記第1撮像部が設けられた位置と、前記第2撮像部が設けられた位置とのそれぞれから前記第1位置及び前記第2位置までの距離の変化と、前記第1ベクトルと前記第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、前記第1特徴点と前記第2特徴点とを対応付ける、
請求項2に記載の三次元計測装置。
Changes in distance from the position where the first imaging unit is provided and the position where the second imaging unit is provided to the first position and the second position, the first vector, and the second Correspondence information indicating a correspondence relationship with a change in value based on at least one of the vectors and associating the first feature point with the second feature point based on correspondence information stored in advance.
The three-dimensional measuring apparatus according to claim 2.
対応付けた前記第1特徴点と前記第2特徴点とに基づいて前記対象物の三次元形状を表す三次元点群を生成する、
請求項1から3のうちいずれか一項に記載の三次元計測装置。
Generating a three-dimensional point group representing a three-dimensional shape of the object based on the first feature point and the second feature point associated with each other;
The three-dimensional measuring apparatus according to any one of claims 1 to 3.
生成した前記三次元点群に基づいて前記対象物の位置及び姿勢を算出する、
請求項4に記載の三次元計測装置。
Calculating the position and orientation of the object based on the generated three-dimensional point cloud;
The three-dimensional measuring apparatus according to claim 4.
請求項5に記載の三次元計測装置が算出した前記対象物の位置及び姿勢に基づいて所定作業を行う、
ロボット。
A predetermined operation is performed based on the position and orientation of the object calculated by the three-dimensional measurement apparatus according to claim 5.
robot.
請求項6に記載のロボットに前記所定作業を行わせる、
ロボット制御装置。
Making the robot according to claim 6 perform the predetermined work;
Robot control device.
前記投射部と、
前記第1撮像部と、
前記第2撮像部と、
請求項6に記載のロボットと、
請求項7に記載のロボット制御装置と、
を備えるロボットシステム。
The projection unit;
The first imaging unit;
The second imaging unit;
A robot according to claim 6;
A robot controller according to claim 7;
A robot system comprising:
JP2016148165A 2016-07-28 2016-07-28 Three-dimensional measuring device, robot, robot controlling device, and robot system Pending JP2018017610A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016148165A JP2018017610A (en) 2016-07-28 2016-07-28 Three-dimensional measuring device, robot, robot controlling device, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148165A JP2018017610A (en) 2016-07-28 2016-07-28 Three-dimensional measuring device, robot, robot controlling device, and robot system

Publications (1)

Publication Number Publication Date
JP2018017610A true JP2018017610A (en) 2018-02-01

Family

ID=61081279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148165A Pending JP2018017610A (en) 2016-07-28 2016-07-28 Three-dimensional measuring device, robot, robot controlling device, and robot system

Country Status (1)

Country Link
JP (1) JP2018017610A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110303474A (en) * 2018-03-27 2019-10-08 发那科株式会社 Use the robot system of the teaching of image procossing amendment robot
CN115014204A (en) * 2022-07-29 2022-09-06 武汉精立电子技术有限公司 Geometric center positioning measurement method and system for near-to-eye display equipment
CN118244566A (en) * 2024-05-28 2024-06-25 浙江方圆检测集团股份有限公司 Portable trademark morphology detection platform

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110303474A (en) * 2018-03-27 2019-10-08 发那科株式会社 Use the robot system of the teaching of image procossing amendment robot
CN115014204A (en) * 2022-07-29 2022-09-06 武汉精立电子技术有限公司 Geometric center positioning measurement method and system for near-to-eye display equipment
CN115014204B (en) * 2022-07-29 2022-11-04 武汉精立电子技术有限公司 Method and system for positioning and measuring geometric center of near-to-eye display device
CN118244566A (en) * 2024-05-28 2024-06-25 浙江方圆检测集团股份有限公司 Portable trademark morphology detection platform

Similar Documents

Publication Publication Date Title
CN106945035B (en) Robot control apparatus, robot system, and control method for robot control apparatus
CN105269578B (en) Pointing device and robot system
US9652660B2 (en) Control system, robot system, and control method
JP2018051704A (en) Robot control device, robot, and robot system
JP2017170571A (en) Robot, robot control apparatus, and robot system
JP2013215866A (en) Robot system, robot system calibration method, calibration device, and digital camera
KR20140008262A (en) Robot system, robot, robot control device, robot control method, and robot control program
JP6885856B2 (en) Robot system and calibration method
JP6772630B2 (en) 3D measuring device and 3D object recognition method
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2018017610A (en) Three-dimensional measuring device, robot, robot controlling device, and robot system
JP2017219365A (en) Position and posture detection device, robot controller, and robot
CN109323668B (en) Three-dimensional shape measurement device, robot system, and three-dimensional shape measurement method
JP6488571B2 (en) Teaching apparatus and robot system
JP2018001333A (en) Calibration board, robot and detection method
JP2017219359A (en) Shape measuring device, robot controller, and robot
JP2017202549A (en) Robot control device, robot, and robot system
JP2018034243A (en) Robot, robot control device, and robot system
JP2020091126A (en) Measurement device, system, display method, and program
US11478936B2 (en) Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor
WO2019176450A1 (en) Information processing device, information processing method, and program
JP2020123049A (en) Dimension unit setting method, information processing device, and robot system
JP2016013590A (en) Teaching device, and robot system
JP2018001321A (en) Robot, robot control device and robot system
JP2015226954A (en) Robot, control method of the same and control unit of the same

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026