JP2018017610A - Three-dimensional measuring device, robot, robot controlling device, and robot system - Google Patents
Three-dimensional measuring device, robot, robot controlling device, and robot system Download PDFInfo
- Publication number
- JP2018017610A JP2018017610A JP2016148165A JP2016148165A JP2018017610A JP 2018017610 A JP2018017610 A JP 2018017610A JP 2016148165 A JP2016148165 A JP 2016148165A JP 2016148165 A JP2016148165 A JP 2016148165A JP 2018017610 A JP2018017610 A JP 2018017610A
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- imaging
- unit
- predetermined
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
この発明は、三次元計測装置、ロボット、ロボット制御装置、及びロボットシステムに関する。 The present invention relates to a three-dimensional measuring device, a robot, a robot control device, and a robot system.
対象物のモデルに基づいて対象物の位置及び姿勢を算出し、算出した当該位置及び姿勢に基づいてロボットに所定の作業を行わせる技術の研究や開発が行われている。 Research and development of a technique for calculating the position and orientation of an object based on the model of the object and causing a robot to perform a predetermined operation based on the calculated position and orientation are being performed.
これに関し、パターン投光手段によりパターン光を計測対象物に投光し、パターン光が投光された計測対象物を複数の撮像手段によりそれぞれ異なる方向から撮像し、パターン投光手段とそれぞれの撮像手段との間の校正を校正手段により行い、それぞれの撮像手段により撮像された画像に基づいて、それぞれの三次元点群を三次元点群計測手段により計測し、三次元点群計測手段により計測されたそれぞれの三次元点群を校正手段により得られた校正結果に基づいて所定の座標系に射影し、それぞれの信頼度を比較することによりそれぞれの三次元点群の計測結果を統合する三次元計測装置が知られている(特許文献1参照)。 In this regard, pattern light is projected onto the measurement object by the pattern light projecting means, and the measurement target object on which the pattern light is projected is imaged from different directions by the plurality of image capturing means. Calibration is performed by the calibration means, and each 3D point cloud is measured by the 3D point cloud measurement means and measured by the 3D point cloud measurement means based on the image captured by each imaging means. Projecting each 3D point cloud to a predetermined coordinate system based on the calibration result obtained by the calibration means, and comparing the reliability of each 3D point cloud to integrate the measurement results of each 3D point cloud An original measuring device is known (see Patent Document 1).
このような三次元計測装置では、対象物が光沢を有する物体や半透明な物体である場合、3台以上の撮像手段を用いた位相シフト法を用いることで、対象物の光学特性によって三次元点群の計測結果の精度が低下してしまうことを抑制させていた。しかしながら、撮像手段の数を増やすことは、三次元計測装置の使用に関する費用を増大させてしまうことに加えて、3台以上の撮像手段を設置するために必要な空間を確保しなければならなくなる。 In such a three-dimensional measurement apparatus, when the target object is a glossy object or a translucent object, a three-dimensional measurement is performed depending on the optical characteristics of the target object by using a phase shift method using three or more imaging means. It has been suppressed that the accuracy of the measurement result of the point cloud is lowered. However, increasing the number of image pickup means increases the cost related to the use of the three-dimensional measuring apparatus, and in addition, it is necessary to secure a space necessary for installing three or more image pickup means. .
上記課題の少なくとも一つを解決するために本発明の一態様は、対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な前記撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、前記第1位置に投射された前記所定図形を含む前記撮像範囲が前記第1撮像部により撮像された第1撮像画像と、当該撮像範囲が前記第2撮像部により撮像された第2撮像画像と、前記第2位置に投射された前記所定図形を含む前記撮像範囲を前記第1撮像部により撮像された第3撮像画像と、当該撮像範囲を前記第2撮像部により撮像された第4撮像画像とに基づいて、前記第1撮像画像から検出された第1特徴点と、前記第2撮像画像から検出された第2特徴点とを対応付けた後、前記第1撮像部及び前記第2撮像部により撮像された画像に基づく三次元計測を行う、三次元計測装置である。
この構成により、三次元計測装置は、対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、第1位置に投射された所定図形を含む撮像範囲が第1撮像部により撮像された第1撮像画像と、当該撮像範囲が第2撮像部により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲を第1撮像部により撮像された第3撮像画像と、当該撮像範囲を第2撮像部により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部及び第2撮像部により撮像された画像に基づく三次元計測を行う。これにより、三次元計測装置は、対象物が光沢を有する物体や半透明な物体であっても、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
In order to solve at least one of the above problems, one embodiment of the present invention is an imaging range including an object, and the first position and the second position in the imaging range that can be imaged by the first imaging unit and the second imaging unit. A predetermined figure is projected on the position by the projection unit, the first imaging image in which the imaging range including the predetermined figure projected on the first position is captured by the first imaging unit, and the imaging range is the second A second captured image captured by the image capturing unit; a third captured image captured by the first image capturing unit including the imaging range including the predetermined figure projected on the second position; After associating the first feature point detected from the first captured image with the second feature point detected from the second captured image based on the fourth captured image captured by the two imaging units The first imaging unit and the second imaging unit Performing three-dimensional measurement based on the image captured by a three-dimensional measuring apparatus.
With this configuration, the three-dimensional measuring apparatus projects a predetermined figure to the first position and the second position in the imaging range including the target object and imageable by the first imaging unit and the second imaging unit by the projection unit. A first captured image in which an imaging range including a predetermined graphic projected on the first position is captured by the first imaging unit, a second captured image in which the imaging range is captured by the second imaging unit, and a second First imaging based on a third captured image in which an imaging range including a predetermined graphic projected at a position is captured by the first imaging unit and a fourth captured image in which the imaging range is captured by the second imaging unit. After associating the first feature point detected from the image with the second feature point detected from the second captured image, three-dimensional measurement based on the images captured by the first imaging unit and the second imaging unit is performed. Do. Thereby, even if a target object is a glossy object or a semi-transparent object, the three-dimensional measurement apparatus can suppress an error due to the optical characteristics of the target object and can accurately perform the three-dimensional measurement.
また、本発明の他の態様は、三次元計測装置において、前記第1撮像画像内における前記所定図形の位置と前記第3撮像画像内における前記所定図形の位置と差を表す第1ベクトルと、前記第2撮像画像内における前記所定図形の位置と前記第4撮像画像内における前記所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、前記第1特徴点と前記第2特徴点とを対応付ける、構成が用いられてもよい。
この構成により、三次元計測装置は、第1撮像画像内における所定図形の位置と第3撮像画像内における所定図形の位置と差を表す第1ベクトルと、第2撮像画像内における所定図形の位置と第4撮像画像内における所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置は、第1ベクトルと第2ベクトルとのうち少なくとも一方に基づいて、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
According to another aspect of the present invention, in the three-dimensional measurement apparatus, a first vector that represents a difference between a position of the predetermined graphic in the first captured image and a position of the predetermined graphic in the third captured image; Based on at least one of the position of the predetermined graphic in the second captured image and the second vector representing the difference between the position of the predetermined graphic in the fourth captured image and the second feature point A configuration for associating feature points may be used.
With this configuration, the three-dimensional measurement apparatus allows the first vector representing the difference between the position of the predetermined graphic in the first captured image and the position of the predetermined graphic in the third captured image, and the position of the predetermined graphic in the second captured image. The first feature point and the second feature point are associated with each other based on at least one of the position of the predetermined figure in the fourth captured image and the second vector representing the difference. Thereby, the three-dimensional measurement apparatus can suppress the error due to the optical characteristic of the object based on at least one of the first vector and the second vector, and can accurately perform the three-dimensional measurement.
また、本発明の他の態様は、三次元計測装置において、前記第1撮像部が設けられた位置と、前記第2撮像部が設けられた位置とのそれぞれから前記第1位置及び前記第2位置までの距離の変化と、前記第1ベクトルと前記第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、前記第1特徴点と前記第2特徴点とを対応付ける、構成が用いられてもよい。
この構成により、三次元計測装置は、第1撮像部が設けられた位置と、第2撮像部が設けられた位置とのそれぞれから第1位置及び第2位置までの距離の変化と、第1ベクトルと第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置は、対応情報に基づいて対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
According to another aspect of the present invention, in the three-dimensional measurement apparatus, the first position and the second position are respectively determined from a position where the first imaging unit is provided and a position where the second imaging unit is provided. Based on correspondence information stored in advance, which is correspondence information indicating a correspondence relationship between a change in distance to a position and a change in value based on at least one of the first vector and the second vector. A configuration in which a feature point is associated with the second feature point may be used.
With this configuration, the three-dimensional measurement apparatus has a change in distance from the position where the first imaging unit is provided and the position where the second imaging unit is provided to the first position and the second position, and the first The first feature point and the second feature point are associated with each other based on correspondence information that is a correspondence information that indicates a correspondence relationship between a value change based on at least one of the vector and the second vector and is stored in advance. Thereby, the three-dimensional measuring apparatus can suppress an error due to the optical characteristics of the object based on the correspondence information, and can accurately perform the three-dimensional measurement.
また、本発明の他の態様は、三次元計測装置において、対応付けた前記第1特徴点と前記第2特徴点とに基づいて前記対象物の三次元形状を表す三次元点群を生成する、構成が用いられてもよい。
この構成により、三次元計測装置は、対応付けた第1特徴点と第2特徴点とに基づいて対象物の三次元形状を表す三次元点群を生成する。これにより、三次元計測装置は、生成した三次元点群に基づいて、対象物の位置及び姿勢を精度よく検出することができる。
According to another aspect of the present invention, in the three-dimensional measurement device, a three-dimensional point group representing a three-dimensional shape of the object is generated based on the associated first feature point and the second feature point. A configuration may be used.
With this configuration, the three-dimensional measurement apparatus generates a three-dimensional point group representing the three-dimensional shape of the target object based on the associated first feature point and second feature point. Thereby, the three-dimensional measuring apparatus can detect the position and orientation of the object with high accuracy based on the generated three-dimensional point group.
また、本発明の他の態様は、三次元計測装置において、生成した前記三次元点群に基づいて前記対象物の位置及び姿勢を算出する、構成が用いられてもよい。
この構成により、三次元計測装置は、生成した三次元点群に基づいて対象物の位置及び姿勢を算出する。これにより、三次元計測装置は、精度よく算出した対象物の位置及び姿勢を他の装置に出力することができる。
Moreover, the structure which calculates the position and attitude | position of the said target object based on the produced | generated said three-dimensional point group may be used for the other aspect of this invention in a three-dimensional measuring device.
With this configuration, the three-dimensional measurement apparatus calculates the position and orientation of the object based on the generated three-dimensional point group. Thereby, the three-dimensional measuring apparatus can output the position and orientation of the target object calculated with high accuracy to another apparatus.
また、本発明の他の態様は、上記に記載の三次元計測装置が算出した前記対象物の位置及び姿勢に基づいて所定作業を行う、ロボットである。
この構成により、ロボットは、三次元計測装置が三次元計測を行った結果に基づいて所定作業を行う。これにより、ロボットは、高い精度で所定作業を行うことができる。
Another aspect of the present invention is a robot that performs a predetermined operation based on the position and orientation of the object calculated by the three-dimensional measurement apparatus described above.
With this configuration, the robot performs a predetermined operation based on the result of the three-dimensional measurement device performing the three-dimensional measurement. Thereby, the robot can perform a predetermined operation with high accuracy.
また、本発明の他の態様は、上記に記載のロボットに前記所定作業を行わせる、ロボット制御装置である。
この構成により、ロボット制御装置は、三次元計測装置が三次元計測を行った結果に基づいてロボットに所定作業を行わせる。これにより、ロボット制御装置は、高い精度で所定作業をロボットに行わせることができる。
Another aspect of the present invention is a robot control apparatus that causes the robot described above to perform the predetermined operation.
With this configuration, the robot control device causes the robot to perform a predetermined operation based on the result of the three-dimensional measurement performed by the three-dimensional measurement device. Thereby, the robot controller can cause the robot to perform a predetermined operation with high accuracy.
また、本発明の他の態様は、前記投射部と、前記第1撮像部と、前記第2撮像部と、上記に記載のロボットと、上記に記載のロボット制御装置と、を備えるロボットシステムである。
この構成により、ロボットシステムは、三次元計測装置が三次元計測を行った結果に基づいてロボットに所定作業を行わせる。これにより、ロボットシステムは、高い精度で所定作業をロボットに行わせることができる。
Another aspect of the present invention is a robot system including the projection unit, the first imaging unit, the second imaging unit, the robot described above, and the robot control device described above. is there.
With this configuration, the robot system causes the robot to perform a predetermined operation based on the result of the three-dimensional measurement performed by the three-dimensional measurement device. Accordingly, the robot system can cause the robot to perform a predetermined operation with high accuracy.
以上により、三次元計測装置は、対象物を含む撮像範囲であって第1撮像部及び第2撮像部により撮像可能な撮像範囲における第1位置及び第2位置に所定図形が投射部により投射され、第1位置に投射された所定図形を含む撮像範囲が第1撮像部により撮像された第1撮像画像と、当該撮像範囲が第2撮像部により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲を第1撮像部により撮像された第3撮像画像と、当該撮像範囲を第2撮像部により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部及び第2撮像部により撮像された画像に基づく三次元計測を行う。これにより、三次元計測装置は、対象物が光沢を有する物体や半透明な物体であっても、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
また、ロボットは、三次元計測装置が三次元計測を行った結果に基づいて所定作業を行う。これにより、ロボットは、高い精度で所定作業を行うことができる。
ロボット制御装置、及びロボットシステムは、三次元計測装置が三次元計測を行った結果に基づいてロボットに所定作業を行わせる。これにより、ロボット制御装置、及びロボットシステムは、高い精度で所定作業をロボットに行わせることができる。
As described above, in the three-dimensional measurement apparatus, the predetermined figure is projected by the projection unit at the first position and the second position in the imaging range that includes the target object and can be imaged by the first imaging unit and the second imaging unit. A first captured image in which an imaging range including a predetermined graphic projected on the first position is captured by the first imaging unit, a second captured image in which the imaging range is captured by the second imaging unit, and a second position The first captured image is based on a third captured image obtained by imaging the imaging range including the predetermined figure projected on the first imaging unit and a fourth captured image obtained by imaging the imaging range by the second imaging unit. After associating the first feature point detected from the second feature point detected from the second captured image, three-dimensional measurement is performed based on the images captured by the first imaging unit and the second imaging unit . Thereby, even if a target object is a glossy object or a semi-transparent object, the three-dimensional measurement apparatus can suppress an error due to the optical characteristics of the target object and can accurately perform the three-dimensional measurement.
Further, the robot performs a predetermined operation based on the result of the three-dimensional measurement device performing the three-dimensional measurement. Thereby, the robot can perform a predetermined operation with high accuracy.
The robot control device and the robot system cause the robot to perform a predetermined operation based on the result of the 3D measurement performed by the 3D measurement device. Thereby, the robot control device and the robot system can cause the robot to perform a predetermined operation with high accuracy.
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<三次元計測システムの構成>
まず、三次元計測システム1の構成について説明する。
図1は、実施形態に係る三次元計測システム1の構成の一例を示す図である。三次元計測システム1は、投射部5と、撮像部10と、三次元計測装置30を備える。
<Configuration of 3D measurement system>
First, the configuration of the three-
FIG. 1 is a diagram illustrating an example of a configuration of a three-
投射部5は、例えば、投射画像を投射するための液晶ライトバルブや投射レンズ、液晶駆動部、光源として超高圧水銀ランプやメタルハライドランプ等を備えるプロジェクターである。投射部5は、図1に示した作業台TBの上面に載置された対象物Oを含む範囲である投射範囲PAに投射画像を投射可能な位置に設置される。
The
作業台TBは、例えば、テーブル等の台である。なお、作業台TBは、テーブルに代えて、対象物Oを載置することが可能な台であれば、他の台であってもよい。 The work table TB is a table such as a table, for example. The work table TB may be another table as long as it is a table on which the object O can be placed instead of the table.
対象物Oは、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部材である。図1では、図の簡略化のため、対象物Oを直方体形状の物体として表している。なお、対象物Oは、産業用の部品や部材に代えて、日用品や生体等の他の物体であってもよい。また、対象物Oの形状は、直方体形状に代えて、他の形状であってもよい。 The object O is, for example, an industrial part or member such as a plate, screw, or bolt that is assembled to a product. In FIG. 1, the object O is represented as a rectangular parallelepiped object for simplification of the drawing. The object O may be other objects such as daily necessities and living bodies instead of industrial parts and members. Further, the shape of the object O may be another shape instead of the rectangular parallelepiped shape.
また、対象物Oは、例えば、投射部5により投射された光の意図しない反射や透過を発生させる光学特性を有する物体である。以下では、一例として、対象物Oが、当該光が投射される表面の少なくとも一部が半透明な物体である場合について説明する。なお、対象物Oは、半透明な物体に代えて、当該光が投射される表面の少なくとも一部に光沢を有する物体であってもよく、当該光学特性を有さない物体、すなわち、当該一部に光沢を有さない不透明な物体であって当該表面の全体が不透明な物体であってもよい。
The object O is an object having optical characteristics that cause unintentional reflection or transmission of light projected by the
投射部5は、ケーブルによって三次元計測装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、投射部5は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって三次元計測装置30と接続される構成であってもよい。
The
撮像部10は、第1撮像部11と、第2撮像部12とを備えたステレオカメラである。撮像部10は、図1に示した作業台TBの上面に載置された対象物Oを含む範囲である撮像範囲CAを、第1撮像部11と第2撮像部12との両方が撮像可能な位置に設置される。以下では、一例として、投射範囲PAの全体が撮像範囲CAの内側に含まれる場合について説明する。なお、撮像範囲CAは、これに代えて、投射範囲PAと部分的に重なる構成であってもよく、全体が投射範囲PAの内側に含まれる構成であってもよい。
The
第1撮像部11は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。
第2撮像部12は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。
The
The
第1撮像部11及び第2撮像部12は、ケーブルによって三次元計測装置30と通信可能に接続されている。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、第1撮像部11と第2撮像部12のいずれか一方又は両方は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって三次元計測装置30と接続される構成であってもよい。
The
三次元計測装置30は、例えば、ワークステーションやデスクトップPC(Personal Computer)、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA(Personal Digital Assistant)等の情報処理装置である。
The three-
三次元計測装置30は、投射部5に投射画像を投射範囲PAへ投射させる。三次元計測装置30は、投射画像が投射された投射範囲PAを含む撮像範囲CAを第1撮像部11及び第2撮像部12にステレオ撮像させる。三次元計測装置30は、第1撮像部11及び第2撮像部12がステレオ撮像した画像を第1撮像部11及び第2撮像部12のそれぞれから取得する。三次元計測装置30は、取得した画像に基づく三次元計測を行う。具体的には、三次元計測装置30は、取得した画像に基づく三次元計測として、当該画像に基づいて、対象物Oの三次元形状を表す三次元点群を生成する。より具体的には、三次元計測装置30は、当該画像に基づいて、当該画像に含まれる対象物Oの表面の各点の三次元位置(三次元座標)を検出する。三次元計測装置30は、検出した当該三次元位置に基づいて当該表面の三次元形状を表す点群である三次元点群を生成する。すなわち、三次元点群を構成する各点は、三次元位置を示す。当該三次元位置は、ワールド座標系WCにおける三次元位置であってもよく、ロボット座標系RCにおける三次元位置であってもよく、他の三次元座標系における三次元位置であってもよい。以下では、一例として、三次元計測装置30が当該画像に基づいて、当該画像に含まれる対象物Oの表面の各点のワールド座標系WCにおける三次元位置を検出する場合について説明する。なお、三次元計測装置30が当該画像から三次元点群を生成する方法は、既知の方法であってもよく、これから開発される方法であってもよい。三次元計測装置30は、生成した三次元点群に基づいて、対象物Oの位置及び姿勢を算出する。
The three-
<三次元計測装置が行う処理の概要>
以下、三次元計測装置30が行う処理の概要について説明する。なお、以下では、一例として、作業台TBの上面が、ワールド座標系WCにおけるXY平面と平行である場合について説明する。なお、当該上面は、当該XY平面と非平行である構成であってもよい。
<Outline of processing performed by 3D measuring device>
Hereinafter, an outline of processing performed by the three-
三次元計測装置30は、投射範囲PA内(すなわち、撮像範囲CA内)へ所定図形を含む投射画像を投射部5に投射させる。この際、三次元計測装置30は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。所定図形の予め決められた位置は、例えば、所定図形の図心の位置である。なお、所定図形の予め決められた位置は、これに代えて、所定図形に対応付けられた他の位置であってもよい。ここで、図2を参照し、所定図形について説明する。
The three-
図2は、所定図形の一例を示す図である。所定図形は、この一例において、ランダムドットパターンである。ランダムドットパターンは、所定形状の画素の塊であるドットが複数規則的に配置された画像であり、ドット毎に0又は255の輝度値がランダムに割り当てられた画像である。図2に示した例では、ドットの形状は、正方形状である。なお、ドットの形状は、正方形状に代えて、長方形状であってもよく、円形状であってもよく、楕円形状であってもよく、他の形状であってもよい。また、所定図形は、ランダムドットパターンに代えて、すべての画素の輝度値が一定の図形(輝度値が一様な図形)でなければ他の如何なる図形であってもよい。例えば、当該図形は、景色や人物が撮像された画像であってもよい。以下では、一例として、投射画像の全体が所定図形によって占められている場合について説明する。すなわち、以下では、投射画像が所定図形である場合について説明する。なお、投射画像は、投射画像の一部に所定図形を含む画像であってもよい。 FIG. 2 is a diagram illustrating an example of a predetermined figure. The predetermined figure is a random dot pattern in this example. The random dot pattern is an image in which a plurality of dots, which are clusters of pixels having a predetermined shape, are regularly arranged, and an image in which a luminance value of 0 or 255 is randomly assigned to each dot. In the example shown in FIG. 2, the dot shape is a square shape. The dot shape may be a rectangular shape instead of a square shape, a circular shape, an elliptical shape, or another shape. Further, the predetermined figure may be any other figure instead of the random dot pattern as long as the luminance values of all the pixels are not constant (figure having a uniform luminance value). For example, the figure may be an image obtained by capturing a scene or a person. Below, the case where the whole projection image is occupied by the predetermined figure as an example is demonstrated. That is, hereinafter, a case where the projection image is a predetermined graphic will be described. Note that the projection image may be an image including a predetermined graphic in a part of the projection image.
三次元計測装置30は、第1状態において、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる。第1状態は、投射範囲PA内に投射された所定図形の位置と第1位置とが投射範囲PA内において一致している状態のことである。三次元計測装置30は、このステレオ撮像によって第1撮像部11により撮像された撮像画像を第1撮像画像として第1撮像部11から取得する。また、三次元計測装置30は、当該ステレオ撮像によって第2撮像部12により撮像された撮像画像を第2撮像画像として第2撮像部12から取得する。
In the first state, the three-
また、三次元計測装置30は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第2位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。第2位置は、投射範囲PA内において第1位置と異なる位置である。ただし、第2位置のワールド座標系WCにおける高さは、第1位置のワールド座標系WCにおける高さとほぼ同じ高さでなければならない。第1位置のワールド座標系WCにおける高さは、第1位置のワールド座標系WCにおけるZ軸方向の位置のことであり、第2位置のワールド座標系WCにおける高さは、第2位置のワールド座標系WCにおけるZ軸方向の位置のことである。なお、作業台TBの上面が、ワールド座標系WCにおけるXY平面と非平行である場合、第1位置のワールド座標系WCにおける高さと第2位置のワールド座標系WCにおける高さとの差が所定範囲内に収まる(近似的に同じと見做せる)程度に、第1位置と第2位置とを近づけることにより、三次元計測装置30は、以下において説明する処理と同じ処理を行うことができる。
The three-
三次元計測装置30は、第2状態において、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる。第2状態は、投射範囲PA内に投射された所定図形の位置と第2位置とが投射範囲PA内において一致している状態のことである。三次元計測装置30は、このステレオ撮像によって第1撮像部11により撮像された撮像画像を第3撮像画像として第1撮像部11から取得する。また、三次元計測装置30は、当該ステレオ撮像によって第2撮像部12により撮像された撮像画像を第4撮像画像として第2撮像部12から取得する。
In the second state, the three-
また、三次元計測装置30は、取得した第1撮像画像及び第2撮像画像から特徴点を検出する。特徴点は、撮像画像内における特徴的な点のことである。三次元計測装置30は、SURF(Speeded Up Robust Features)、 SIFT(Scale-Invariant Feature Transform)等の既存のアルゴリズムによって第1撮像画像及び第2撮像画像から特徴点を検出する構成であってもよく、これから開発される方法によって第1撮像画像及び第2撮像画像から特徴点を検出する構成であってもよい。具体的には、三次元計測装置30は、取得した第1撮像画像に基づいて、第1撮像画像における1以上の特徴点である第1特徴点を検出する。また、三次元計測装置30は、取得した第2撮像画像に基づいて、第2撮像画像における1以上の特徴点である第2特徴点を検出する。
The three-
三次元計測装置30は、第1撮像画像〜第4撮像画像に基づいて、検出した第1特徴点と、検出した第2特徴点とを対応付ける。そして、三次元計測装置30は、対応付けられた第1特徴点及び第2特徴点と、第1撮像画像及び第2撮像画像とに基づく三次元計測を行う。これにより、三次元計測装置30は、対象物Oの位置及び姿勢を算出する。
The three-
すなわち、三次元計測装置30は、対象物Oを含む撮像範囲CAであって第1撮像部11及び第2撮像部12により撮像可能な撮像範囲CAにおける第1位置及び第2位置に所定図形が投射部5により投射され、第1位置に投射された所定図形を含む撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、当該撮像範囲CAが第2撮像部12により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲CAを第1撮像部11により撮像された第3撮像画像と、当該撮像範囲CAを第2撮像部12により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部11及び第2撮像部12により撮像された第1撮像画像及び第2撮像画像に基づく三次元計測を行う。これにより、三次元計測装置30は、対象物Oが光沢を有する物体や半透明な物体であっても、対象物Oの光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。以下では、三次元計測装置30が三次元計測を行う処理について詳しく説明する。
That is, the three-
<三次元計測装置のハードウェア構成>
以下、図3を参照し、三次元計測装置30のハードウェア構成について説明する。図3は、三次元計測装置30のハードウェア構成の一例を示す図である。
<Hardware configuration of 3D measuring device>
Hereinafter, the hardware configuration of the three-
三次元計測装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34と、表示部35を備える。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。また、三次元計測装置30は、通信部34を介して投射部5、撮像部10のそれぞれと通信を行う。
The three-
CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、三次元計測装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部32は、三次元計測装置30が処理する各種の情報、各種の画像、各種のプログラム等を格納する。
The
The
入力受付部33は、例えば、表示部35と一体に構成されたタッチパネルである。なお、入力受付部33は、キーボードやマウス、タッチパッド、その他の入力装置であってもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
The input receiving unit 33 is, for example, a touch panel configured integrally with the
The
The
<三次元計測装置の機能構成>
以下、図4を参照し、三次元計測装置30の機能構成について説明する。図4は、三次元計測装置30の機能構成の一例を示す図である。
<Functional configuration of 3D measuring device>
Hereinafter, the functional configuration of the three-
三次元計測装置30は、記憶部32と、制御部36を備える。
The three-
制御部36は、三次元計測装置30の全体を制御する。制御部36は、投射制御部361と、撮像制御部363と、画像取得部365と、特徴点検出部367と、対応付処理部369と、三次元点群生成部375と、位置姿勢算出部377を備える。制御部36が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
The
投射制御部361は、投射部5に投射画像を投射範囲PAへ投射させる。
撮像制御部363は、撮像部10に撮像範囲CAをステレオ撮像させる。具体的には、撮像制御部363は、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる。
The
The
画像取得部365は、撮像部10が撮像した撮像画像を撮像部10から取得する。具体的には、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像部11から取得する。また、画像取得部365は、第2撮像部12が撮像した撮像画像を第2撮像部12から取得する。
The
特徴点検出部367は、画像取得部365が取得した撮像画像に基づいて、当該撮像画像における1以上の特徴点を検出する。
対応付処理部369は、ある撮像画像に基づいて特徴点検出部367が検出した1以上の特徴点と、当該撮像画像と異なる他の撮像画像に基づいて特徴点検出部367が検出した1以上の特徴点とを対応付ける処理を行う。
The feature
The
三次元点群生成部375は、対応付処理部369による処理の結果と、画像取得部365が第1撮像部11から取得した撮像画像と、画像取得部365が第2撮像部12から取得した撮像画像とに基づいて、これらの撮像画像に含まれる対象物Oの三次元点群を生成する。
位置姿勢算出部377は、三次元点群生成部375が生成した三次元点群に基づいて、対象物Oのワールド座標系WCにおける位置及び姿勢を算出する。
The three-dimensional point
The position /
<三次元計測装置が三次元計測を行う処理>
以下、図5を参照し、三次元計測装置30が三次元計測を行う処理について説明する。図5は、三次元計測装置30が三次元計測を行う処理の流れの一例を示すフローチャートである。
<Process for 3D measurement by 3D measurement device>
Hereinafter, with reference to FIG. 5, the process in which the three-
投射制御部361は、投射部5に所定図形を含む投射画像を投射範囲PAへ投射させる(ステップS110)。具体的には、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。
The
次に、撮像制御部363は、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる(ステップS120)。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像画像として第1撮像部11から取得し、第2撮像部12が撮像した撮像画像を第2撮像画像として第2撮像部12から取得する(ステップS130)。
Next, the
次に、投射制御部361は、投射部5に所定図形を含む投射画像を投射範囲PAへ投射させる(ステップS140)。具体的には、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第2位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる。
Next, the
ステップS110において投射範囲PAに投射された投射画像と、ステップS140において投射範囲PAに投射された投射画像との違いは、投射画像内における所定図形の位置である。ここで、所定図形が投射画像の一部に含まれる場合であり、且つ所定図形の形状が三角形状の図形であった場合を例に挙げて説明する。ステップS110において投射範囲PAに投射された投射画像と、ステップS140において投射範囲PAに投射された投射画像とを比較した場合、投射範囲PA内では、所定図形が投射範囲PA内において第1位置から第2位置へと移動したように見える。これを実現する方法の一例は、画像内において所定図形の位置が互いに異なる2つの投射画像のうちの一方をステップS110において投射部5に投射範囲PAへ投射させ、他方をステップS140において投射部5に投射範囲PAへ投射させる方法である。なお、三次元計測装置30は、投射部5の光軸の方向を変化させる方法等の他の方法によって当該違いを実現する構成であってもよい。
The difference between the projection image projected on the projection range PA in step S110 and the projection image projected on the projection range PA in step S140 is the position of the predetermined figure in the projection image. Here, a case where the predetermined graphic is included in a part of the projection image and the shape of the predetermined graphic is a triangular graphic will be described as an example. When the projection image projected on the projection range PA in step S110 and the projection image projected on the projection range PA in step S140 are compared, the predetermined figure is within the projection range PA from the first position in the projection range PA. It looks like it has moved to the second position. An example of a method for realizing this is to project one of two projection images having different predetermined graphic positions in the image onto the projection range PA in step S110 and project the other to the
ステップS140の処理が行われた後、撮像制御部363は、第1撮像部11及び第2撮像部12に撮像範囲CAをステレオ撮像させる(ステップS150)。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第3撮像画像として第1撮像部11から取得し、第2撮像部12が撮像した撮像画像を第4撮像画像として第2撮像部12から取得する(ステップS160)。
After the process of step S140 is performed, the
次に、特徴点検出部367は、ステップS130において画像取得部365が取得した第1撮像画像に基づいて、第1撮像画像における1以上の特徴点である第1特徴点を検出するとともに、ステップS130において画像取得部365が取得した第2撮像画像に基づいて、第2撮像画像における1以上の特徴点である第2特徴点を検出する(ステップS170)。ここで、図6及び図7を参照し、第1撮像画像から検出された第1特徴点、及び第2撮像画像から検出された第2特徴点について説明する。
Next, the feature
図6は、第1特徴点が検出される前の第1撮像画像と、第2特徴点が検出される前の第2撮像画像とを例示する図である。図6に示した第1撮像画像P1は、第1特徴点が検出される前の第1撮像画像の一例である。第1撮像画像P1内における点のそれぞれは、輝度値が「255」のドットを示す。また、第1撮像画像P1内における当該点以外の部分は、輝度値が「0」のドットによって占められている部分である。また、図6に示した第2撮像画像P2は、第2特徴点が検出される前の第2撮像画像の一例である。第2撮像画像P2内における点のそれぞれは、輝度値が「255」のドットを示す。また、第2撮像画像P2内における当該点以外の部分は、輝度値が「0」のドットによって占められている部分である。ここで、図6に示した例では、図が煩雑になるのを避けるため、第1撮像画像P1及び第2撮像画像P2のそれぞれにおいて輝度値が「255」のドットの数を、輝度値が「0」のドットの数に比べて少なくして表している。 FIG. 6 is a diagram illustrating a first captured image before the first feature point is detected and a second captured image before the second feature point is detected. The first captured image P1 illustrated in FIG. 6 is an example of the first captured image before the first feature point is detected. Each of the points in the first captured image P1 indicates a dot having a luminance value of “255”. In addition, the portion other than the point in the first captured image P1 is a portion occupied by dots having a luminance value of “0”. Further, the second captured image P2 illustrated in FIG. 6 is an example of the second captured image before the second feature point is detected. Each of the points in the second captured image P2 indicates a dot having a luminance value of “255”. In addition, the part other than the point in the second captured image P2 is a part occupied by dots having a luminance value of “0”. Here, in the example shown in FIG. 6, in order to avoid the figure from becoming complicated, the number of dots having a luminance value of “255” in each of the first captured image P1 and the second captured image P2 is set. The number of dots is smaller than the number of “0” dots.
特徴点検出部367は、図7に示したように、第1撮像画像P1から第1特徴点を検出し、第2撮像画像P2から第2特徴点を検出する。図7は、第1特徴点が検出された後の第1撮像画像と、第2特徴点が検出された後の第2撮像画像とを例示する図である。図7に示した第1撮像画像P11は、第1特徴点が検出された後の第1撮像画像の一例である。第1撮像画像P11内における点のうちハッチングされた点のそれぞれは、第1撮像画像P1から特徴点検出部367が検出した第1特徴点である。また、図7に示した第2撮像画像P21は、第2特徴点が検出された後の第2撮像画像の一例である。第2撮像画像P21内における点のうちハッチングされた点のそれぞれは、第2撮像画像P2から特徴点検出部367が検出した第2特徴点である。
As shown in FIG. 7, the feature
ステップS170の処理が行われた後、対応付処理部369は、第1対応付処理を行う(ステップS180)。ここで、ステップS180の第1対応付処理について説明する。対応付処理部369は、第1対応付処理において、例えば、第1特徴点のそれぞれ毎に、第1特徴点に対応する第2特徴点の候補であってエピポーラ幾何を満たす1以上の第2特徴点の候補を検出する。以下では、説明の便宜上、第2特徴点の候補を第2特徴点候補と称して説明する。対応付処理部369が第2特徴点候補を検出する方法は、既知の方法であってもよく、これから開発される方法であってもよい。対応付処理部369は、第1特徴点のそれぞれ毎に、第1特徴点と、第1特徴点に対応する1以上の第2特徴点候補とを対応付ける。
After the process of step S170 is performed, the
また、対応付処理部369は、ある第1特徴点に対応する第2特徴点候補が2以上ある場合、当該第1特徴点と、当該2以上の第2特徴点候補のそれぞれとに基づくワールド座標系WCにおけるZ軸方向の位置を算出する。当該位置を算出する方法は、例えば、三角測量法であるが、これに限られず、他の方法であってもよい。そして、対応付処理部369は、ある第1特徴点と、当該2以上の第2特徴点候補のうちのある第2特徴点候補と、当該第1特徴点と当該第2特徴点候補とに基づいて算出された当該Z軸方向の位置とを対応付ける。
In addition, when there are two or more second feature point candidates corresponding to a certain first feature point, the
ステップS180の処理が行われた後、対応付処理部369は、第1撮像画像と、第3撮像画像とに基づいて、第1撮像画像に含まれる所定図形の第1撮像画像上における位置から、第3撮像画像に含まれる所定図形の第3撮像画像上における位置までの軌跡を表す第1ベクトルをオプティカルフローとして算出する(ステップS190)。ここで、ステップS190の処理について説明する。
After the process of step S180 is performed, the
前述した通り、ステップS110において投射範囲PAに投射された所定図形の投射範囲PA内における位置(すなわち、第1位置)と、ステップS140において投射範囲PAに投射された所定図形の投射範囲PA内における位置(すなわち、第2位置)とは、異なる位置である。このため、第1状態において撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、第2状態において撮像範囲CAが第1撮像部11により撮像された第3撮像画像とを比較した場合、これらの撮像画像に含まれる所定図形は、撮像画像に含まれる投射範囲PA内の第1位置から撮像画像に含まれる投射範囲PA内の第2位置まで移動したように見える。
As described above, the position (that is, the first position) of the predetermined graphic projected on the projection range PA in step S110 and the projection within the projection range PA of the predetermined graphic projected on the projection range PA in step S140. The position (that is, the second position) is a different position. Therefore, the first captured image in which the imaging range CA is captured by the
そこで、対応付処理部369は、第1撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置を第1検出位置として検出する。また、対応付処理部369は、第3撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置である第3検出位置を検出する。対応付処理部369は、検出した第1検出位置及び第3検出位置に基づいて、撮像部座標系CCにおける第1検出位置と撮像部座標系CCにおける第3検出位置との差を表す第1ベクトルをオプティカルフローとして算出する。
Therefore, the
このようなオプティカルフローの大きさは、図1に示したように第1撮像部11及び第2撮像部12のワールド座標系WCにおける位置が固定されている場合、投射範囲PA内における第1位置のワールド座標系WCにおける高さの変化に応じて変化する。このようなオプティカルフローの大きさと当該高さとの関係を利用することにより、対応付処理部369は、後述するステップS210において、第1特徴点毎に、第1特徴点に対応する第2特徴点を、第1特徴点に対応する2以上の第2特徴点候補の中から特定することができる。以下では、説明の便宜上、当該高さを、対象高さと称して説明する。
The magnitude of such an optical flow is the first position in the projection range PA when the positions of the
ここで、オプティカルフローの大きさは、この一例において、オプティカルフローのノルムによって表す。なお、オプティカルフローの大きさは、これに代えて、オプティカルフローに基づく他の値によって表す構成であってもよい。 Here, the magnitude of the optical flow is represented by the norm of the optical flow in this example. Instead of this, the size of the optical flow may be represented by another value based on the optical flow.
なお、ステップS190において、対応付処理部369は、第2撮像画像と、第4撮像画像とに基づいて、オプティカルフローを算出する構成であってもよい。この場合、対応付処理部369は、第2撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置を第2検出位置として検出する。また、対応付処理部369は、第4撮像画像に含まれる所定画像の予め決められた位置の撮像部座標系CCにおける位置である第4検出位置を検出する。対応付処理部369は、検出した第2検出位置及び第4検出位置に基づいて、撮像部座標系CCにおける第2検出位置と第4検出位置との差を表す第2ベクトルをオプティカルフローとして算出する。
In step S190, the
また、ステップS190において、対応付処理部369は、第1撮像画像と、第2撮像画像と、第3撮像画像と、第4撮像画像とに基づいて、オプティカルフローを算出する構成であってもよい。この場合、対応付処理部369は、第1ベクトルと、第2ベクトルとを算出する。そして、対応付処理部369は、第1ベクトルと第2ベクトルとの平均をオプティカルフローとして算出する。
Further, in step S190, the
ステップS190の処理が行われた後、対応付処理部369は、記憶部32に予め記憶された対応情報を記憶部32から読み出す(ステップS200)。対応情報は、対象高さと、各対象高さに応じたオプティカルフローの大きさとが対応付けられた情報である。例えば、対応付処理部369は、ある対象高さに応じたオプティカルフローの大きさを特定したい場合、対応情報に基づいて当該対象高さに応じたオプティカルフローの大きさを特定することができる。三次元計測装置30が対応情報を生成する処理については、後述する。
After the process of step S190 is performed, the
次に、対応付処理部369は、ステップS190において算出されたオプティカルフローと、ステップS200において記憶部32から読み出した対応情報とに基づいて、第1特徴点のそれぞれ毎に第2対応付処理を行う(ステップS210)。ある第1特徴点に対する第2対応付処理は、当該第1特徴点に対応する第2特徴点を、当該第1特徴点に対応付けられた第2特徴点候補の中から特定し、特定した当該第2特徴点と当該第1特徴点とを対応付ける処理のことである。ただし、第2対応付処理において、対応付処理部369は、ある第1特徴点に対応付けられた第2特徴点候補が1つの場合、当該第2特徴点候補を当該第1特徴点に対応する第2特徴点として特定する。ここで、ステップS210の処理について説明する。
Next, the
前述した通り、第1撮像部11及び第2撮像部12のワールド座標系WCにおける位置が固定されている場合、投射範囲PA内における第1位置及び第2位置のワールド座標系WCにおける高さの変化に応じて変化する。これはすなわち、対応情報が予め導出されている場合、対応付処理部369が、対応情報とステップS190において算出されたオプティカルフローとに基づいて、第1撮像画像に含まれる投射範囲PA内において所定図形が位置している面のワールド座標系WCにおける高さを特定することができることを示している。当該高さは、ワールド座標系WCにおけるZ軸方向の位置のことである。そこで、対応付処理部369は、ステップS190において算出されたオプティカルフローと、ステップS200において記憶部32から読み出した対応情報とに基づいて、当該面(例えば、対象物Oの上面)のワールド座標系WCにおける高さを特定する。対応付処理部369は、第1撮像画像に含まれる当該面内に含まれる第1特徴点のそれぞれ毎に、以下の処理を行う。対応付処理部369は、ある第1特徴点に対する当該処理において、当該第1特徴点と、当該第1特徴点に対応付けられた第2特徴点候補のそれぞれとに基づく三次元位置を三角測量法によって算出する。対応付処理部369は、算出した三次元位置のうち、ワールド座標系WCにおける高さが、当該面のワールド座標系WCにおける高さとほぼ一致する(最も近い)三次元位置を特定する。対応付処理部369は、特定した三次元位置を算出するために用いた第2特徴点候補を、当該三次元位置を算出するために用いた第1特徴点に対応する第2特徴点として特定する。対応付処理部369は、特定した当該第1特徴点と当該第2特徴点とを対応付ける。対応付処理部369は、このような第2対応付処理を、第1特徴点のそれぞれ毎に行う。これにより、対応付処理部369は、第1特徴点と第2特徴点とを精度よく対応付けることができる。
As described above, when the positions of the
ステップS210の処理が行われた後、三次元点群生成部375は、ステップS210における第2対応付処理の結果として互いに対応付けられた第1特徴点及び第2特徴点とに基づいて、第1撮像画像に含まれる対象物Oの三次元点群を生成する(ステップS220)。当該三次元点群を生成する方法は、既知の方法であってもよく、これから開発される方法であってもよい。なお、上記のステップS220の処理は、三次元計測の一例である。次に、位置姿勢算出部377は、ステップS220において生成された対象物Oの三次元点群に基づいて、対象物Oのワールド座標系WCにおける位置及び姿勢を算出し(ステップS230)、処理を終了する。位置姿勢算出部377が当該三次元点群に基づいて対象物Oの位置及び姿勢を算出する方法は、既知の方法であってもよく、これから開発される方法であってもよい。
After the process of step S210 is performed, the three-dimensional point
このように、三次元計測装置30は、対象物Oを含む撮像範囲CAであって第1撮像部11及び第2撮像部12により撮像可能な撮像範囲CAにおける第1位置及び第2位置に所定図形が投射部5により投射され、第1位置に投射された所定図形を含む撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、当該撮像範囲CAが第2撮像部12により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲CAを第1撮像部11により撮像された第3撮像画像と、当該撮像範囲CAを第2撮像部12により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部11及び第2撮像部12により撮像された第1撮像画像及び第2撮像画像に基づく三次元計測を行う。これにより、三次元計測装置30は、対象物Oが光沢を有する物体や半透明な物体であっても、対象物Oの光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
As described above, the three-
<三次元計測装置が対応情報を生成する処理>
以下、図8〜図11を参照し、三次元計測装置30が対応情報を生成する処理について説明する。図8は、三次元計測装置30が対応情報を生成する処理の流れの一例を示すフローチャートである。
<Process in which 3D measuring device generates correspondence information>
Hereinafter, with reference to FIGS. 8 to 11, a process in which the three-
対応付処理部369は、記憶部32に予め記憶された対象高さ情報を記憶部32から読み出す。対応高さ情報は、ユーザーにより選択された複数の対象高さを示す情報である。以下では、説明の便宜上、対象高さをZの値によって表す。すなわち、Z=0は、対象高さが基準となる高さであることを表す。また、Z=nは、対象高さが基準となる高さから所定高さのn倍分だけ高い高さであることを表す。ここで、nは、0を除く実数であれば、如何なる数であってもよい。
The
また、以下では、一例として、ユーザーによりZ=0、2、4、6、8の5つの対象高さが選択された場合について説明する。すなわち対象高さ情報は、Z=0、2、4、6、8の5つの対象高さのそれぞれを示す。 In the following, a case where five target heights Z = 0, 2, 4, 6, and 8 are selected by the user will be described as an example. That is, the target height information indicates each of the five target heights Z = 0, 2, 4, 6, and 8.
対応付処理部369は、記憶部32から読み出した対象高さ情報が示す対象高さ毎に、ステップS320〜ステップS410の処理を繰り返し行う(ステップS310)。すなわち、対応付処理部369は、Z=0、2、4、6、8の5つの対象高さのそれぞれ毎に、当該処理を繰り返し行う。
The
対応付処理部369は、ステップS310において選択された対象高さに基づいて、ユーザーが作業台TBの上面のワールド座標系WCにおける高さを対象高さと一致させるまで待機する(ステップS320)。例えば、作業台TBの上面のワールド座標系WCにおける高さを対象高さと一致させる作業が終了したことを示す操作をユーザーから対応付処理部369が受け付けた場合、投射制御部361は、ステップS330に遷移する。なお、作業台TBの上面のワールド座標系WCにおける高さを変更する機構部を作業台TBが備えている場合、対応付処理部369は、当該機構部を制御し、当該作業を当該機構部に行わせる構成であってもよい。この場合、投射制御部361は、対応付処理部369が当該処理を終了させた場合にステップS330に遷移する。
The
そして、ステップS330において、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる(ステップS330)。
In step S330, the
次に、撮像制御部363は、第1撮像部11と第2撮像部12の少なくとも一方に撮像範囲CAを撮像させる(ステップS340)。以下では、一例として、ステップS340において、撮像制御部363が第1撮像部11に撮像範囲CAを撮像させる場合について説明する。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像部11から取得する(ステップS350)。
Next, the
次に、投射制御部361は、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第2位置と投射範囲PA内において一致するように投射画像を投射範囲PAへ投射部5に投射させる(ステップS370)。
Next, the
次に、撮像制御部363は、ステップS340において撮像範囲CAを撮像した撮像部と同じ撮像部(この一例において、第1撮像部11)に撮像範囲CAを撮像させる(ステップS380)。次に、画像取得部365は、第1撮像部11が撮像した撮像画像を第1撮像部11から取得する(ステップS390)。
Next, the
次に、対応付処理部369は、ステップS350において画像取得部365が取得した撮像画像に含まれる所定図形の当該撮像画像上における位置から、ステップS390において画像取得部365が取得した撮像画像に含まれる所定図形の第2撮像画像上における位置までの軌跡を表すベクトルをオプティカルフローとして算出する(ステップS410)。そして、対応付処理部369は、算出したオプティカルフローにステップS310において選択された対象高さを対応付ける。
Next, the
ここで、図9〜図12を参照し、ステップS310〜ステップS410の処理について説明する。図9は、対象高さがZ=0の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。図10は、対象高さがZ=2の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。図11は、対象高さがZ=4の場合において、投射範囲PA内に投射された所定図形の予め決められた位置が、投射範囲PA内において予め決められた第1位置と投射範囲PA内において一致している様子の一例を示す図である。図9〜図11において、投射画像に含まれる所定図形を明確に示すため、所定図形を矢印ARによって表している。 Here, with reference to FIG. 9 to FIG. 12, processing in steps S <b> 310 to S <b> 410 will be described. FIG. 9 shows that when the target height is Z = 0, the predetermined position of the predetermined figure projected within the projection range PA is the first position determined within the projection range PA and within the projection range PA. It is a figure which shows an example of a mode that it corresponds in. FIG. 10 shows that when the target height is Z = 2, the predetermined position of the predetermined figure projected within the projection range PA is the first position determined within the projection range PA and within the projection range PA. It is a figure which shows an example of a mode that it corresponds in. FIG. 11 shows that when the target height is Z = 4, the predetermined position of the predetermined figure projected within the projection range PA is the first position determined within the projection range PA and within the projection range PA. It is a figure which shows an example of a mode that it corresponds in. 9 to 11, the predetermined figure is represented by an arrow AR in order to clearly show the predetermined figure included in the projection image.
三次元計測装置30は、例えば、1回目のステップS320〜ステップS410の処理を、作業台TBの上面のワールド座標系WCにおける高さが図9に示した高さと一致している状態において行う。三次元計測装置30は、2回目のステップS320〜ステップS410の処理を、作業台TBの上面のワールド座標系WCにおける高さが図10に示した高さと一致している状態において行う。そして、三次元計測装置30は、3回目のステップS320〜ステップS410の処理を、作業台TBの上面のワールド座標系WCにおける高さが図11に示した高さと一致している状態において行う。図9〜図11のそれぞれを比較することにより、作業台TBの上面のワールド座標系WCにおける高さが高くなるほど、第1撮像部11及び第2撮像部12のそれぞれと当該第1位置(及び第2位置)との間の距離が長くなる。これにより、作業台TBの上面のワールド座標系WCにおける高さが高くなるほど、ステップS350において画像取得部365が取得した撮像画像に含まれる所定図形の当該撮像画像上における位置から、ステップS390において画像取得部365が取得した撮像画像に含まれる所定図形の第2撮像画像上における位置までの距離は、長くなる。その結果、当該高さが高くなるほど、オプティカルフローの大きさが大きくなる。
For example, the three-
ステップS310〜ステップS410の繰り返し処理が行われた後、対応付処理部369は、例えば、当該繰り返し処理によって算出されたオプティカルフローのそれぞれに基づいて、オプティカルフローの大きさの変化と、各オプティカルフローに対応付けられた対象高さの変化との関係を表す関数を対応情報として線形補完によって生成(導出)する(ステップS420)。なお、対応付処理部369は、当該関数に代えて、当該関係を表すテーブル等の他の情報を対応情報として生成する構成であってもよい。また、対応付処理部369は、線形補完に代えて、他の統計手法によって対応情報を生成する構成であってもよい。ここで、図12を参照し、当該関数について説明する。
After the repetitive processing of Steps S310 to S410 is performed, the
図12は、対応情報の一例を示す図である。図12に示したグラフの縦軸は、オプティカルフローの大きさを示す。また、当該グラフの横軸は、対象高さZの値を示す。当該グラフにプロットされた点は、ステップS310において選択可能な対象高さのそれぞれに応じたオプティカルフローの大きさを表す点である。これらの点に基づいて、対応付処理部369は、線形補完を行うことにより、オプティカルフローの大きさの変化と、各オプティカルフローに対応付けられた対象高さの変化との関係を表す関数を対応情報として生成する。当該グラフにプロットされた点のそれぞれを繋ぐ線は、当該関数を表す線である。
FIG. 12 is a diagram illustrating an example of correspondence information. The vertical axis of the graph shown in FIG. 12 indicates the magnitude of the optical flow. The horizontal axis of the graph indicates the value of the target height Z. The points plotted in the graph are points representing the size of the optical flow corresponding to each of the target heights that can be selected in step S310. Based on these points, the
対応情報を生成した後、対応付処理部369は、生成した対応情報を記憶部32に記憶する。そして、対応付処理部369は、処理を終了する。
このように、三次元計測装置30は、ステップS310〜ステップS420の処理によって、対応情報を生成する。これにより、三次元計測装置30は、図5に示したフローチャートの処理を精度よく行うことができる。
After generating the correspondence information, the
As described above, the three-
<実施形態の変形例>
以下、図13を参照し、実施形態の変形例について説明する。なお、実施形態の変形例では、実施形態と同様な構成部に対して同じ符号を付して説明を省略する。
<Modification of Embodiment>
Hereinafter, a modification of the embodiment will be described with reference to FIG. In addition, in the modification of embodiment, the same code | symbol is attached | subjected with respect to the structure part similar to embodiment, and description is abbreviate | omitted.
図13は、実施形態の変形例に係るロボットシステム2の構成の一例を示す図である。ロボットシステム2は、撮像部10と、ロボット20と、ロボット制御装置50を備える。また、ロボット制御装置50は、三次元計測装置30を備える。より具体的には、ロボット制御装置50は、三次元計測装置30が備える各機能部を備える。
FIG. 13 is a diagram illustrating an example of a configuration of a
ロボット20は、アームAと、アームAを支持する支持台Bを備える単腕ロボットである。単腕ロボットは、この一例におけるアームAのような1本のアーム(腕)を備えるロボットである。なお、ロボット20は、単腕ロボットに代えて、複腕ロボットであってもよい。複腕ロボットは、2本以上のアーム(例えば、2本以上のアームA)を備えるロボットである。なお、複腕ロボットのうち、2本のアームを備えるロボットは、双腕ロボットとも称される。すなわち、ロボット20は、2本のアームを備える双腕ロボットであってもよく、3本以上のアーム(例えば、3本以上のアームA)を備える複腕ロボットであってもよい。また、ロボット20は、スカラロボットや、円筒型ロボット等の他のロボットであってもよい。
The
アームAは、エンドエフェクターEと、マニピュレーターMを備える。
エンドエフェクターEは、この一例において、物体を把持可能な指部を備えるエンドエフェクターである。なお、エンドエフェクターEは、当該指部を備えるエンドエフェクターに代えて、空気の吸引や磁力、治具等によって物体を持ち上げることが可能なエンドエフェクターや、他のエンドエフェクターであってもよい。
The arm A includes an end effector E and a manipulator M.
In this example, the end effector E is an end effector including a finger portion that can grip an object. The end effector E may be an end effector capable of lifting an object by air suction, a magnetic force, a jig or the like, or another end effector, instead of the end effector including the finger portion.
エンドエフェクターEは、ケーブルによってロボット制御装置50と通信可能に接続されている。これにより、エンドエフェクターEは、ロボット制御装置50から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、エンドエフェクターEは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置50と接続される構成であってもよい。
The end effector E is communicably connected to the
マニピュレーターMは、6つの関節を備える。また、当該6つの関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、マニピュレーターMを備えるアームAは、6軸垂直多関節型のアームである。アームAは、支持台Bと、エンドエフェクターEと、マニピュレーターMと、マニピュレーターMが備える6つの関節それぞれのアクチュエーターとによる連携した動作によって6軸の自由度の動作を行う。なお、アームAは、5軸以下の自由度で動作する構成であってもよく、7軸以上の自由度で動作する構成であってもよい。 The manipulator M includes six joints. Each of the six joints includes an actuator (not shown). That is, the arm A including the manipulator M is a 6-axis vertical articulated arm. The arm A performs an operation with six degrees of freedom by a coordinated operation by the support base B, the end effector E, the manipulator M, and the actuators of each of the six joints included in the manipulator M. The arm A may be configured to operate with a degree of freedom of 5 axes or less, or may be configured to operate with a degree of freedom of 7 axes or more.
マニピュレーターMが備える6つの(関節に備えられた)アクチュエーターはそれぞれ、ケーブルによってロボット制御装置50と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置50から取得される制御信号に基づいて、マニピュレーターMを動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、マニピュレーターMが備える6つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置50と接続される構成であってもよい。
Each of the six actuators (provided at the joints) included in the manipulator M is communicably connected to the
ロボット制御装置50は、この一例において、ロボットを制御する装置である。ロボット制御装置50は、予め入力された動作プログラムに基づいて制御信号を生成する。ロボット制御装置50は、生成した制御信号をロボット20に送信し、ロボット20に所定の作業を行わせる。所定の作業は、この一例において、ロボット20がアームAを動作させ、作業台TBの上面に載置された対象物Oを把持し、把持した対象物Oを図示しない給材領域に配置する作業である。なお、所定の作業は、これに代えて、他の作業であってもよい。
In this example, the
ロボット制御装置50は、所定の作業をロボット20に行わせる際、対象物Oを含む撮像範囲CAであって第1撮像部11及び第2撮像部12により撮像可能な撮像範囲CAにおける第1位置及び第2位置に所定図形が投射部5により投射され、第1位置に投射された所定図形を含む撮像範囲CAが第1撮像部11により撮像された第1撮像画像と、当該撮像範囲CAが第2撮像部12により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲CAを第1撮像部11により撮像された第3撮像画像と、当該撮像範囲CAを第2撮像部12により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部11及び第2撮像部12により撮像された第1撮像画像及び第2撮像画像に基づく三次元計測を行う。この三次元計測により、ロボット制御装置50は、対象物Oの三次元点群を生成する。ロボット制御装置50は、生成した当該三次元点群に基づいて、対象物Oの位置及び姿勢を算出する。そして、ロボット制御装置50は、算出した対象物Oの位置及び姿勢に基づいて、ロボット20に所定の作業を行わせる。なお、ロボット制御装置50が対象物Oの三次元計測を行うための処理は、図5に示したフローチャートの処理の説明においてワールド座標系WCをロボット座標系RCに読み替えた場合の処理と同様の処理であるため説明を省略する。
When the
ここで、ロボット制御装置50は、所定の作業をロボット20に行わせる前に、前述の対応情報を予め生成する。ロボット制御装置50が対応情報を生成する処理は、図8のフローチャートの処理の説明においてワールド座標系WCをロボット座標系RCに読み替えた場合の処理と同様の処理であるため説明を省略する。
Here, the
このように、ロボット制御装置50は、実施形態において説明した三次元計測装置30を備え、三次元計測装置30が算出した対象物Oの位置及び姿勢に基づいて、ロボット20に所定の作業を行わせる。これにより、ロボット制御装置50は、高い精度で所定の作業をロボット20に行わせることができる。
As described above, the
なお、ロボットシステム2において、ロボット制御装置50と三次元計測装置30とは、別体であってもよい。この場合、ロボット制御装置50は、三次元計測装置30から三次元計測装置30が算出した対象物Oの位置及び姿勢を取得し、取得した対象物Oの位置及び姿勢に基づいてロボット20に所定の作業を行わせる。
In the
以上のように、三次元計測装置30は、対象物(この一例において、対象物O)を含む撮像範囲(この一例において、撮像範囲CA)であって第1撮像部(この一例において、第1撮像部11)及び第2撮像部(この一例において、第2撮像部12)により撮像可能な撮像範囲における第1位置及び第2位置に所定図形が投射部(この一例において、投射部5)により投射され、第1位置に投射された所定図形を含む撮像範囲が第1撮像部により撮像された第1撮像画像と、当該撮像範囲が第2撮像部により撮像された第2撮像画像と、第2位置に投射された所定図形を含む撮像範囲を第1撮像部により撮像された第3撮像画像と、当該撮像範囲を第2撮像部により撮像された第4撮像画像とに基づいて、第1撮像画像から検出された第1特徴点と、第2撮像画像から検出された第2特徴点とを対応付けた後、第1撮像部及び第2撮像部により撮像された画像に基づく三次元計測を行う。これにより、三次元計測装置30は、対象物が光沢を有する物体や半透明な物体であっても、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
As described above, the three-
また、三次元計測装置30は、第1撮像画像内における所定図形の位置と第3撮像画像内における所定図形の位置と差を表す第1ベクトルと、第2撮像画像内における所定図形の位置と第4撮像画像内における所定図形の位置と差を表す第2ベクトルとのうち少なくとも一方に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置30は、第1ベクトルと第2ベクトルとのうち少なくとも一方に基づいて、対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
The three-
また、三次元計測装置30は、第1撮像部が設けられた位置と、第2撮像部が設けられた位置とのそれぞれから第1位置及び第2位置までの距離の変化と、第1ベクトルと第2ベクトルとの少なくとも一方に基づく値の変化との対応関係を示す対応情報であって予め記憶された対応情報に基づいて、第1特徴点と第2特徴点とを対応付ける。これにより、三次元計測装置30は、対応情報に基づいて対象物の光学特性による誤差を抑制し、三次元計測を精度よく行うことができる。
Further, the three-
また、三次元計測装置30は、対応付けた第1特徴点と第2特徴点とに基づいて対象物の三次元形状を表す三次元点群を生成する。これにより、三次元計測装置30は、生成した三次元点群に基づいて、対象物の位置及び姿勢を精度よく検出することができる。
In addition, the three-
また、三次元計測装置30は、生成した三次元点群に基づいて対象物の位置及び姿勢を算出する。これにより、三次元計測装置30は、精度よく算出した対象物の位置及び姿勢を他の装置(この一例において、ロボット制御装置50)に出力することができる。
In addition, the three-
また、ロボット20は、三次元計測装置30が三次元計測を行った結果に基づいて所定作業(この一例において、所定の作業)を行う。これにより、ロボット20は、高い精度で所定作業を行うことができる。
Further, the
また、ロボット制御装置50は、三次元計測装置30が三次元計測を行った結果に基づいてロボット20に所定作業を行わせる。これにより、ロボット制御装置50は、高い精度で所定作業をロボットに行わせることができる。
Further, the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
また、以上に説明した装置(例えば、三次元計測装置30、ロボット制御装置50)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
Further, a program for realizing the function of an arbitrary component in the above-described apparatuses (for example, the three-
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1…三次元計測システム、2…ロボットシステム、10…撮像部、11…第1撮像部、12…第2撮像部、20…ロボット、30…三次元計測装置、31…CPU、32…記憶部、33…入力受付部、34…通信部、35…表示部、36…制御部、50…ロボット制御装置、361…投射制御部、363…撮像制御部、365…画像取得部、367…特徴点検出部、369…対応付処理部、375…三次元点群生成部、377…位置姿勢算出部
DESCRIPTION OF
Claims (8)
三次元計測装置。 A predetermined figure is projected by the projection unit to the first position and the second position in the imaging range that includes the target object and can be imaged by the first imaging unit and the second imaging unit, and is projected to the first position. In addition, a first captured image in which the imaging range including the predetermined figure is captured by the first imaging unit, a second captured image in which the imaging range is captured by the second imaging unit, and the second position are projected. Based on a third captured image obtained by imaging the imaging range including the predetermined figure by the first imaging unit and a fourth captured image obtained by imaging the imaging range by the second imaging unit. After associating the first feature point detected from one captured image with the second feature point detected from the second captured image, the image captured by the first image capturing unit and the second image capturing unit Based on 3D measurement,
Three-dimensional measuring device.
請求項1に記載の三次元計測装置。 A first vector representing a difference between a position of the predetermined graphic in the first captured image and a position of the predetermined graphic in the third captured image; a position of the predetermined graphic in the second captured image; Associating the first feature point with the second feature point based on at least one of the position of the predetermined figure in the captured image and the second vector representing the difference;
The three-dimensional measuring apparatus according to claim 1.
請求項2に記載の三次元計測装置。 Changes in distance from the position where the first imaging unit is provided and the position where the second imaging unit is provided to the first position and the second position, the first vector, and the second Correspondence information indicating a correspondence relationship with a change in value based on at least one of the vectors and associating the first feature point with the second feature point based on correspondence information stored in advance.
The three-dimensional measuring apparatus according to claim 2.
請求項1から3のうちいずれか一項に記載の三次元計測装置。 Generating a three-dimensional point group representing a three-dimensional shape of the object based on the first feature point and the second feature point associated with each other;
The three-dimensional measuring apparatus according to any one of claims 1 to 3.
請求項4に記載の三次元計測装置。 Calculating the position and orientation of the object based on the generated three-dimensional point cloud;
The three-dimensional measuring apparatus according to claim 4.
ロボット。 A predetermined operation is performed based on the position and orientation of the object calculated by the three-dimensional measurement apparatus according to claim 5.
robot.
ロボット制御装置。 Making the robot according to claim 6 perform the predetermined work;
Robot control device.
前記第1撮像部と、
前記第2撮像部と、
請求項6に記載のロボットと、
請求項7に記載のロボット制御装置と、
を備えるロボットシステム。 The projection unit;
The first imaging unit;
The second imaging unit;
A robot according to claim 6;
A robot controller according to claim 7;
A robot system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016148165A JP2018017610A (en) | 2016-07-28 | 2016-07-28 | Three-dimensional measuring device, robot, robot controlling device, and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016148165A JP2018017610A (en) | 2016-07-28 | 2016-07-28 | Three-dimensional measuring device, robot, robot controlling device, and robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018017610A true JP2018017610A (en) | 2018-02-01 |
Family
ID=61081279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016148165A Pending JP2018017610A (en) | 2016-07-28 | 2016-07-28 | Three-dimensional measuring device, robot, robot controlling device, and robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018017610A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110303474A (en) * | 2018-03-27 | 2019-10-08 | 发那科株式会社 | Use the robot system of the teaching of image procossing amendment robot |
CN115014204A (en) * | 2022-07-29 | 2022-09-06 | 武汉精立电子技术有限公司 | Geometric center positioning measurement method and system for near-to-eye display equipment |
CN118244566A (en) * | 2024-05-28 | 2024-06-25 | 浙江方圆检测集团股份有限公司 | Portable trademark morphology detection platform |
-
2016
- 2016-07-28 JP JP2016148165A patent/JP2018017610A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110303474A (en) * | 2018-03-27 | 2019-10-08 | 发那科株式会社 | Use the robot system of the teaching of image procossing amendment robot |
CN115014204A (en) * | 2022-07-29 | 2022-09-06 | 武汉精立电子技术有限公司 | Geometric center positioning measurement method and system for near-to-eye display equipment |
CN115014204B (en) * | 2022-07-29 | 2022-11-04 | 武汉精立电子技术有限公司 | Method and system for positioning and measuring geometric center of near-to-eye display device |
CN118244566A (en) * | 2024-05-28 | 2024-06-25 | 浙江方圆检测集团股份有限公司 | Portable trademark morphology detection platform |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106945035B (en) | Robot control apparatus, robot system, and control method for robot control apparatus | |
CN105269578B (en) | Pointing device and robot system | |
US9652660B2 (en) | Control system, robot system, and control method | |
JP2018051704A (en) | Robot control device, robot, and robot system | |
JP2017170571A (en) | Robot, robot control apparatus, and robot system | |
JP2013215866A (en) | Robot system, robot system calibration method, calibration device, and digital camera | |
KR20140008262A (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
JP6885856B2 (en) | Robot system and calibration method | |
JP6772630B2 (en) | 3D measuring device and 3D object recognition method | |
US20180215044A1 (en) | Image processing device, robot control device, and robot | |
JP2018017610A (en) | Three-dimensional measuring device, robot, robot controlling device, and robot system | |
JP2017219365A (en) | Position and posture detection device, robot controller, and robot | |
CN109323668B (en) | Three-dimensional shape measurement device, robot system, and three-dimensional shape measurement method | |
JP6488571B2 (en) | Teaching apparatus and robot system | |
JP2018001333A (en) | Calibration board, robot and detection method | |
JP2017219359A (en) | Shape measuring device, robot controller, and robot | |
JP2017202549A (en) | Robot control device, robot, and robot system | |
JP2018034243A (en) | Robot, robot control device, and robot system | |
JP2020091126A (en) | Measurement device, system, display method, and program | |
US11478936B2 (en) | Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor | |
WO2019176450A1 (en) | Information processing device, information processing method, and program | |
JP2020123049A (en) | Dimension unit setting method, information processing device, and robot system | |
JP2016013590A (en) | Teaching device, and robot system | |
JP2018001321A (en) | Robot, robot control device and robot system | |
JP2015226954A (en) | Robot, control method of the same and control unit of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |