JP6578671B2 - ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE - Google Patents
ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE Download PDFInfo
- Publication number
- JP6578671B2 JP6578671B2 JP2015034917A JP2015034917A JP6578671B2 JP 6578671 B2 JP6578671 B2 JP 6578671B2 JP 2015034917 A JP2015034917 A JP 2015034917A JP 2015034917 A JP2015034917 A JP 2015034917A JP 6578671 B2 JP6578671 B2 JP 6578671B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- imaging information
- hnd1
- hand
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000003384 imaging method Methods 0.000 claims description 92
- 238000012937 correction Methods 0.000 claims description 19
- 210000000078 claw Anatomy 0.000 claims description 12
- 239000003550 marker Substances 0.000 claims description 5
- 101100451306 Caenorhabditis elegans hnd-1 gene Proteins 0.000 description 123
- 238000012790 confirmation Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 15
- 238000009434 installation Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 8
- XYDVHKCVOMGRSY-UHFFFAOYSA-N 4-(4-benzylphenyl)-1,3-thiazol-2-amine Chemical compound S1C(N)=NC(C=2C=CC(CC=3C=CC=CC=3)=CC=2)=C1 XYDVHKCVOMGRSY-UHFFFAOYSA-N 0.000 description 5
- 101000928034 Homo sapiens Proteasomal ubiquitin receptor ADRM1 Proteins 0.000 description 5
- 102100036915 Proteasomal ubiquitin receptor ADRM1 Human genes 0.000 description 5
- 101001050286 Homo sapiens Jupiter microtubule associated homolog 1 Proteins 0.000 description 4
- 102100023133 Jupiter microtubule associated homolog 1 Human genes 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボット、ロボットの制御方法、及びロボットの制御装置に関する。 The present invention relates to a robot, a robot control method, and a robot control apparatus.
ロボットが組立作業を行う際に、把持している物体の位置姿勢が期待した位置姿勢からずれていると、組立作業に悪影響を及ぼすことが多い。ずれを検出する手段として、把持している物体を撮像部で撮像し、把持している把持部と把持物との位置姿勢の関係を算出することが有効であるが、その基準となるロボット座標系と撮像部座標系とのずれは場所によって異なるため、ずれ量も均一ではなくなり、一つの補正量では期待する精度がでないおそれがある。そのため、把持物把持後も微妙にずれ、把持物を組付けることができないおそれがある。 When the robot performs assembly work, if the position and orientation of the object being gripped deviate from the expected position and orientation, the assembly work is often adversely affected. As a means for detecting the deviation, it is effective to capture the object being grasped by the imaging unit and calculate the position / orientation relationship between the grasping grasping part and the grasped object. Since the deviation between the system and the imaging unit coordinate system differs depending on the location, the deviation amount is not uniform, and there is a possibility that the expected accuracy is not achieved with one correction amount. Therefore, there is a possibility that the gripped object may be slightly displaced even after the gripped object is gripped and the gripped object cannot be assembled.
例えば、位置ずれ量をデータベースに保存し、動作時にその値を使う多関節ロボットのツール位置補正方法が開示されている(例えば、特許文献1参照)。 For example, a tool position correction method for an articulated robot that stores the amount of positional deviation in a database and uses the value during operation is disclosed (for example, see Patent Document 1).
しかしながら、特許文献1に記載のツール位置補正方法では、位置ずれ量を計測する場合に撮像部から把持部が見える状態となっているが、双腕ロボットなど撮像部の配置によっては、必ずしもそのような状況となるとは限らないおそれがある。
However, in the tool position correction method described in
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]本適用例に係るロボットは、把持部を有するロボットであって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づき動作することを特徴とする。 [Application Example 1] A robot according to this application example is a robot having a gripping unit, and is different from the first imaging information of the gripping unit that does not grip the gripping object at the first point and the first point. Operating based on second imaging information of the gripping part that does not grip the gripping object at a second point and third imaging information of the gripping object gripped by the gripping part at the first point. Features.
本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点(例えば、確認位置)と第2の点(例えば、目標位置)との位置で各撮像情報を算出するので、これによって、組立時(目標位置)のずれを低減することができる。したがって、高精度の組立を可能とするロボットを提供することができる。 According to this application example, the relationship between the gripping part and the gripped object gripped by the gripping part is determined at each of the positions of the first point (for example, the confirmation position) and the second point (for example, the target position). Since the imaging information is calculated, it is possible to reduce deviation during assembly (target position). Therefore, it is possible to provide a robot that enables highly accurate assembly.
[適用例2]上記適用例に記載のロボットは、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報は、位置姿勢情報であることが好ましい。 Application Example 2 In the robot according to the application example, it is preferable that the first imaging information, the second imaging information, and the third imaging information are position and orientation information.
本適用例によれば、各撮像情報が位置姿勢情報であるため、把持部と把持物との位置姿勢を容易に確認することができる。 According to this application example, since each piece of imaging information is position / orientation information, it is possible to easily confirm the position / orientation between the grasping unit and the grasped object.
[適用例3]上記適用例に記載のロボットは、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することが好ましい。 Application Example 3 The robot according to the application example compares the first imaging information, the second imaging information, and the third imaging information with each expected value that is set in advance, and determines the result of the comparison. Accordingly, it is preferable to further include a fourth control unit that calculates each correction amount for correcting the shift amount.
本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。 According to this application example, each piece of imaging information is corrected at the positions of the first point and the second point, so that it is possible to reduce deviation during assembly.
[適用例4]上記適用例に記載のロボットは、撮像部を有し、前記把持部は、第1方向と第2方向とに並んで配置され、前記把持物を把持する先端部と、前記先端部に対して前記第1方向及び前記第2方向のそれぞれに直交する第3方向の位置に配置された基端部とを有する複数の爪部を有し、前記第1の点において、前記撮像部で撮像される前記把持部の姿勢は、前記爪部の前記先端部側の前記第3方向の位置に前記撮像部が配置されていることが好ましい。 Application Example 4 The robot according to the application example described above includes an imaging unit, the gripping unit is arranged in a first direction and a second direction, and a tip part that grips the gripped object; A plurality of claw portions having a base end portion disposed at a position in a third direction orthogonal to each of the first direction and the second direction with respect to a distal end portion, and at the first point, As for the posture of the gripping part imaged by the imaging part, it is preferable that the imaging part is arranged at a position in the third direction on the tip side of the claw part.
本適用例によれば、撮像部の撮像方向に把持物の裏面(把持部や爪部と重ならない面)を見せることができる。これにより、撮像部と把持物との間には遮蔽物がなく、把持部自体で把持物を隠すことが少なくなる。その結果、把持物の裏側の輪郭形状を撮像することができる。 According to this application example, it is possible to show the back surface of the gripped object (the surface that does not overlap the gripping part or the claw part) in the imaging direction of the imaging unit. Thereby, there is no shielding object between the imaging unit and the gripping object, and the gripping object itself is less likely to be hidden. As a result, the contour shape on the back side of the grasped object can be imaged.
[適用例5]上記適用例に記載のロボットは、前記撮像部は、複数台設けられていることが好ましい。 Application Example 5 In the robot according to the application example described above, it is preferable that a plurality of the imaging units are provided.
本適用例によれば、複数の撮像部を有することで、撮像部による画像の解像度を上げることができ、精度の良い画像を作成することができる。これにより、位置精度の高い位置姿勢を得ることができる。 According to this application example, by having a plurality of imaging units, it is possible to increase the resolution of an image by the imaging unit, and to create an accurate image. Thereby, a position and orientation with high positional accuracy can be obtained.
[適用例6]上記適用例に記載のロボットは、前記撮像部は、ステレオカメラであることが好ましい。 Application Example 6 In the robot according to the application example, it is preferable that the imaging unit is a stereo camera.
本適用例によれば、撮像部と把持物との間には遮蔽物がなく、把持部自体で把持物を隠すことが少なくなる。 According to this application example, there is no shielding object between the imaging unit and the gripping object, and the gripping object itself is less likely to be hidden.
[適用例7]上記適用例に記載のロボットは、前記第2撮像情報は、前記把持部の形状又は前記把持部に設けられたマーカーの画像を用いていることが好ましい。 Application Example 7 In the robot according to the application example described above, it is preferable that the second imaging information uses a shape of the grip portion or an image of a marker provided on the grip portion.
本適用例によれば、第2撮像情報の算出を容易に行うことができる。 According to this application example, it is possible to easily calculate the second imaging information.
[適用例8]本適用例に係るロボットの制御方法は、把持部を有するロボットを制御するロボットの制御方法であって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点と異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づきロボットを制御することを特徴とする。 Application Example 8 A robot control method according to this application example is a robot control method for controlling a robot having a gripping unit, and the first imaging information of the gripping unit that does not grip a gripping object at a first point. Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point, and third imaging of the gripping object gripped by the gripping part at the first point The robot is controlled based on the information.
本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点と第2の点との位置で各撮像情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボットを制御するロボットの制御方法を提供することができる。 According to this application example, the imaging information is calculated based on the positions of the first point and the second point regarding the relationship between the gripping part and the gripped object gripped by the gripping part. The deviation can be reduced. Therefore, it is possible to provide a robot control method for controlling a robot that enables highly accurate assembly.
[適用例9]上記適用例に記載のロボットの制御方法は、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出することをさらに有することが好ましい。 Application Example 9 In the robot control method according to the application example described above, the first imaging information, the second imaging information, and the third imaging information are compared with preset expected values, and the comparison is performed. It is preferable to further calculate each correction amount for correcting the shift amount according to the result.
本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。 According to this application example, each piece of imaging information is corrected at the positions of the first point and the second point, so that it is possible to reduce deviation during assembly.
[適用例10]本適用例に係るロボットの制御装置は、把持部を有するロボットを制御するロボットの制御装置であって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づきロボットを制御することを特徴とする。 Application Example 10 A robot control device according to this application example is a robot control device that controls a robot having a gripping portion, and the first imaging information of the gripping portion that does not grip a gripping object at a first point. And second imaging information of the gripper that does not grip the gripping object at a second point different from the first point, and a third of the gripped object gripped by the gripping part at the first point The robot is controlled based on the imaging information.
本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点と第2の点との位置で各撮像情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボットを制御するロボットの制御装置を提供することができる。 According to this application example, the imaging information is calculated based on the positions of the first point and the second point regarding the relationship between the gripping part and the gripped object gripped by the gripping part. The deviation can be reduced. Therefore, it is possible to provide a robot control apparatus that controls a robot that enables highly accurate assembly.
[適用例11]上記適用例に記載のロボットの制御装置は、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することが好ましい。 Application Example 11 The robot control device according to the application example compares the first imaging information, the second imaging information, and the third imaging information with preset expected values, and performs the comparison. It is preferable to further include a fourth control unit that calculates each correction amount for correcting the shift amount according to the result.
本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。 According to this application example, each piece of imaging information is corrected at the positions of the first point and the second point, so that it is possible to reduce deviation during assembly.
(第1実施形態)
以下、本発明を具体化した実施形態について図面に従って説明する。なお、使用する図面は、説明する部分が認識可能な状態となるように、適宜拡大又は縮小して表示している。
図1は、本実施形態に係るロボットの利用状況の一例を示す図である。
本実施形態に係るロボット2は、カメラ(撮像部)10と、制御装置12とを備えている。撮像部10は、ロボット2に搭載されている。カメラ10は、把持された物体(把持物)OBJを撮像する(図7参照)。カメラ10は、ハンド(把持部)HND1に把持された物体OBJの位置姿勢が変更されることにより撮像する。
(First embodiment)
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the drawings. Note that the drawings to be used are appropriately enlarged or reduced so that the part to be described can be recognized.
FIG. 1 is a diagram illustrating an example of a usage status of a robot according to the present embodiment.
The
カメラ10は、複数台設けられていてもよい。これによれば、複数のカメラ10を有することで、カメラ10による画像の解像度を上げることができ、精度の良い画像を作成することができる。これにより、位置精度の高い位置姿勢(3次元位置姿勢)を得ることができる。
A plurality of
カメラ10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、カメラ10は、例えば、2台のカメラによって構成されるステレオカメラであるが、3台以上のカメラによって構成されているものとしてもよいし、1台のカメラにより二次元画像を撮像するものとしてもよい。またカメラは、可動型であり、上下、左右に可動する。これによれば、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。
The
カメラ10は、例えばケーブルによって制御装置12と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、カメラ10と制御装置12とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。物体OBJは、設置面M上に予め設置されている。「設置面M」とは、例えば、テーブル上の面等である。カメラ10は、その物体OBJを撮像可能な位置に設置される。カメラ10は、物体OBJを撮像し、撮像した物体OBJの撮像画像を、通信により制御装置12へ出力する。
The
ロボット2は、例えば、図1に示したように、ハンドHND1と、ハンドHND2と、力センサー14と、アーム部ARM1と、アーム部ARM2と、図示しない複数のアクチュエーターとを、ロボットの基軸の左右の腕に備えた双腕ロボットである。ロボットの基軸は、回転軸を有し回転する。ロボット2の各腕は、6軸垂直多関節型となっており、一方の腕が支持台とアーム部ARM1と把持部HND1とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができ、他方の腕が支持台とアーム部ARM2とハンドHND2とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット2の各腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、ハンドHND1及びアーム部ARM1を備えた腕によって行われるロボット2の動作について説明するが、ハンドHND2及びアーム部ARM2を備えた腕によって同様の動作が行われてもよい。ハンドHND1は、物体OBJを把持する。なお、「ハンドHND1」は、特許請求の範囲における「把持部」の一例である。ロボット2は、例えばケーブルによって制御装置12と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット2と制御装置12とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、図1に示したロボット2は、双腕のロボットであるが、単腕のロボットとして実施されてもよい。
For example, as shown in FIG. 1, the
ロボット2のハンドHND1は、物体OBJを把持又は挟持可能な爪部52を備える(図4参照)。力センサー14は、ロボット2のハンドHND1とアーム部ARM1との間に備えられており、ハンドHND1に作用する力やモーメントを検出する。力センサー14は、検出した力やモーメントを示す情報を、通信により制御装置12へ出力する。力センサー14により検出された力やモーメントを示す情報は、例えば、ロボット制御部16によるロボット2のインピーダンス制御等に用いられる。
The hand HND1 of the
ロボット2は、物体OBJの三次元位置及び姿勢に基づいた制御信号を制御装置12から取得し、取得した制御信号に基づいて、物体OBJに対して所定の作業を行う。所定の作業とは、例えば、ロボット2のハンドHND1により物体OBJを把持し、把持された物体OBJを現在設置されている位置から、他の位置へと移動させることや、移動させた後に別の装置に組み付けを行うこと等の作業である。
The
カメラ10は、物体OBJを把持したハンドHND1以外に設置されていてもよい。これによれば、物体OBJを把持したときに、物体OBJがカメラ10との接近した位置関係により、物体OBJの一部形状しか撮像ができないことを回避できる。
The
制御装置12は、カメラ10で撮像した画像を画像処理する。制御装置12は、物体OBJの位置姿勢を算出する。制御装置12は、ロボット2が所定の作業を行うように制御する。より具体的には、制御装置12は、カメラ10により撮像された物体OBJの撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。そして、制御装置12は、導出された物体OBJの三次元位置及び姿勢に基づいて、ロボット2にハンドHND1で物体OBJを把持させる。その後、制御装置12は、把持させた物体OBJに対して所定の作業を行うように、ロボット2を制御する。
The
次に、図2を参照することで、制御装置12のハードウェア構成について説明する。
図2は、本実施形態に係る制御装置12のハードウェア構成の一例を示す図である。制御装置12は、例えば、CPU(Central Processing Unit)20と、記憶部22と、入力受付部24と、通信部26とを備え、通信部26を介してカメラ10等と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU20は、記憶部22に格納された各種プログラムを実行する。記憶部22は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、制御装置12が処理する各種情報や画像、プログラムを格納する。なお、記憶部22は、制御装置12に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
Next, the hardware configuration of the
FIG. 2 is a diagram illustrating an example of a hardware configuration of the
入力受付部24は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部24は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部26は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
The
次に、図3を参照することで、制御装置12の機能構成について説明する。
図3は、本実施形態に係る制御装置12の機能構成の一例を示す図である。制御装置12は、例えば、画像取得部30と、三次元位置姿勢導出部32と、ロボット制御部16とを備える。これらの機能部のうち一部又は全部は、例えば、CPU20が、記憶部22に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
Next, the functional configuration of the
FIG. 3 is a diagram illustrating an example of a functional configuration of the
画像取得部30は、カメラ10により撮像された撮像画像を取得し、取得した撮像画像を三次元位置姿勢導出部32に出力する。なお、画像取得部30は、取得した撮像画像を記憶部22に記憶し、三次元位置姿勢導出部32が記憶部22から撮像画像を読み込むものとしてもよい。三次元位置姿勢導出部32は、画像取得部30から取得した撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。そして、三次元位置姿勢導出部32は、導出した物体OBJの三次元位置及び姿勢をロボット制御部16へ出力する。
The
ロボット制御部16は、三次元位置姿勢導出部32から取得した物体OBJの三次元位置及び姿勢に基づいて、ロボット2がハンドHND1によって物体OBJを把持するように、ロボット2を制御する。
Based on the three-dimensional position and orientation of the object OBJ acquired from the three-dimensional position and
ロボット制御部16は、登録手段と、把持手段と、移動手段と、補正手段と、組み付け手段と、を備えている。
登録手段は、物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を登録する(図10(A)参照)。
把持手段は、ハンドHND1で物体OBJを把持する。
移動手段は、物体OBJを把持した状態で、物体OBJの輪郭形状をカメラ10で撮像可能な位置に移動させる(図11参照)。
補正手段は、物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を補正する(図10(B)参照)。
組み付け手段は、物体OBJを組み付け面MSに組み付ける(図10(B)参照)。
The
The registration unit registers the target position of the hand HND1 so that the position and orientation of the object OBJ is assembled to the assembly surface MS (see FIG. 10A).
The gripping means grips the object OBJ with the hand HND1.
The moving means moves the contour shape of the object OBJ to a position where it can be imaged by the
The correcting unit corrects the target position of the hand HND1 so that the position and orientation of the object OBJ are assembled to the assembly surface MS (see FIG. 10B).
The assembling means assembles the object OBJ on the assembling surface MS (see FIG. 10B).
ロボット制御部16は、第1制御部と、第2制御部と、第3制御部と、第4制御部とを備えている。
第1制御部は、ハンドHND1の移動経路上に設定した確認位置(第1の点)で、カメラ10で撮像された、物体OBJを把持しないハンドHND1の画像を用いて位置姿勢情報(第1撮像情報)を算出する。
第2制御部は、移動経路上の確認位置と異なる位置に設定した目標位置(第2の点)で、カメラ10で撮像された、物体OBJを把持しないハンドHND1の画像を用いて位置姿勢情報(第2撮像情報)を算出する。
第3制御部は、確認位置で、カメラ10で撮像された、ハンドHND1に把持された物体OBJの画像を用いて位置姿勢情報(第3撮像情報)を算出する。
The
The first control unit uses the image of the hand HND1 that is captured by the
The second control unit uses the image of the hand HND1 that is captured by the
The third control unit calculates position / orientation information (third imaging information) using the image of the object OBJ captured by the
第4制御部は、各位置姿勢情報を予め設定されている各期待値と比較し、比較の結果に応じてずれ量を補正する各補正量を算出する。これによれば、確認位置と目標位置とで各位置姿勢情報を補正するので、これによって、組立時のずれを低減することができる。なお、補正量のデータベースをハンドHND1の移動経路(稼動範囲)にて取得してもよい。これによれば、誤差が少なくなり、物体OBJの把持後も、把持誤差を加味して組立が可能である。 The fourth control unit compares each position and orientation information with each expected value set in advance, and calculates each correction amount for correcting the shift amount according to the comparison result. According to this, since each position and orientation information is corrected by the confirmation position and the target position, it is possible to reduce deviation during assembly. Note that the correction amount database may be acquired from the movement route (operating range) of the hand HND1. According to this, the error is reduced, and the assembly can be performed in consideration of the gripping error even after gripping the object OBJ.
図4は、本実施形態に係るハンドHND1による物体OBJの把持方法の一例を説明する図である。図4の上段図は、ハンドHND1と設置面M上に設置された物体OBJとの間の位置関係を、設置面Mに対して真横から見た断面図である。また、図4の下段図は、ハンドHND1と設置面M上に設置された物体OBJとの間の位置関係を、設置面Mに対して真上(例えば、物体OBJが設置された面側)から見た図である。なお、設置面Mは、物体OBJが設置された面であれば、テーブル面のように鉛直方向に対して直交する面である必要はなく、例えば、壁面等でもよい。 FIG. 4 is a diagram for explaining an example of a method of gripping the object OBJ by the hand HND1 according to the present embodiment. 4 is a cross-sectional view of the positional relationship between the hand HND1 and the object OBJ installed on the installation surface M as viewed from the side with respect to the installation surface M. 4 shows the positional relationship between the hand HND1 and the object OBJ installed on the installation surface M directly above the installation surface M (for example, the surface side on which the object OBJ is installed). It is the figure seen from. The installation surface M need not be a surface orthogonal to the vertical direction like the table surface as long as the object OBJ is installed, and may be a wall surface, for example.
ハンドHND1は、図4に示すように、第1方向(x)と第2方向(y)とに並んで配置され、物体OBJを把持する先端部54と、先端部54に対して第1方向(x)及び第2方向(y)のそれぞれに直交する第3方向(z)の位置に配置された基端部56とを有する複数の爪部52を備えている。
ここで、図4を参照することにより、ハンドHND1による物体OBJの把持方法について説明する。
As shown in FIG. 4, the hand HND1 is arranged side by side in the first direction (x) and the second direction (y), and the
Here, a method of gripping the object OBJ by the hand HND1 will be described with reference to FIG.
まず、ロボット制御部16は、物体OBJの三次元位置及び姿勢に基づいて、ロボット2のハンドHND1を、設置面M上において図4の下段図で示した位置まで移動させる。ここで、図4の上下段図の座標軸は、設置面Mと物体OBJとの間の位置関係を示すための座標軸であって、ロボット座標系や撮像画像上の座標軸ではない。物体OBJが設置面M上に設置されている場合、図4の下段図で示したハンドHND1の位置は、物体OBJの真上である。そして、ロボット制御部16は、ハンドHND1を、図4の上段図の矢印が示す方向(z方向)に向けて移動させることで、物体OBJをハンドHND1によって把持できる場所まで移動させる。
First, the
ロボット制御部16は、ハンドHND1が物体OBJを把持した後、所定の作業を行うようにロボット2を制御する。
The
(事前準備)
図5は、本実施形態に係る確認位置でのハンドHND1を示す図である。図6は、本実施形態に係る目標位置でのハンドHND1を示す図である。
最初に、把持する物体OBJを確認する確認位置に、物体OBJを把持していない状態でハンドHND1を移動させ、ハンドHND1の位置姿勢情報(第1撮像情報)を取得する。これにより、把持する物体OBJを確認する位置におけるハンドHND1の位置姿勢情報を取得することができる。位置姿勢情報は、例えば3次元位置姿勢情報である。ハンドHND1の位置姿勢情報の確認では、図5に示すように、ハンドHND1の掌の位置姿勢を取得する。ハンドHND1の位置姿勢情報の確認は、図5の矢印Aに示す部分を計測してもよい。ハンドHND1を移動させる位置は、例えば、後述するカメラ10の光軸の交点と、カメラ10間の基線を結ぶ直線上が考えられる。順運動学で求めたハンドHND1の位置姿勢情報とカメラ座標系におけるハンドHND1の位置姿勢情報との関係を知ることができる。
(Advance preparation)
FIG. 5 is a diagram showing the hand HND1 at the confirmation position according to the present embodiment. FIG. 6 is a diagram illustrating the hand HND1 at the target position according to the present embodiment.
First, the hand HND1 is moved to a confirmation position where the object OBJ to be grasped is not grasped, and the position / orientation information (first imaging information) of the hand HND1 is acquired. Thereby, the position and orientation information of the hand HND1 at the position where the object OBJ to be grasped is confirmed can be acquired. The position / orientation information is, for example, three-dimensional position / orientation information. In the confirmation of the position and orientation information of the hand HND1, the position and orientation of the palm of the hand HND1 are acquired as shown in FIG. The position and orientation information of the hand HND1 may be confirmed by measuring the part indicated by the arrow A in FIG. The position where the hand HND1 is moved may be, for example, on a straight line connecting an intersection of optical axes of the
次に、組み付け面MS付近の目標位置にハンドHND1を移動させ、ハンドHND1の位置姿勢情報(第2撮像情報)を取得する。ハンドHND1の位置姿勢情報の確認は、図6の矢印Bに示す部分を計測してもよい。また、組立を行う位置では、頭部のステレオカメラから、アームの遮蔽などにより、ハンドHND1を観測することが困難となる場合がある。そのため、図6に示すように、治具34の一部がカメラ10から観測可能となるような治具を利用する。例えば、治具34の一部にマーカー36を貼り、マーカー36をカメラ10で計測する。この場合、治具34の2つのマーカー36から直線を算出する。2方向で治具34を持たせ、2本の直線の交点を求めることにより、それをハンドHND1の位置とする。2直線から面が構成できるので、その面の方向をハンドHND1の掌の方向とすることができる。先と同様に、順運動学で求めたハンドHND1の位置姿勢情報とカメラ座標系におけるハンドHND1の位置姿勢情報との関係を知ることができる。これによれば、ハンドHND1の位置姿勢情報の算出を容易に行うことができる。
Next, the hand HND1 is moved to a target position near the assembly surface MS, and position and orientation information (second imaging information) of the hand HND1 is acquired. The position and orientation information of the hand HND1 may be confirmed by measuring the part indicated by the arrow B in FIG. In addition, at the assembly position, it may be difficult to observe the hand HND1 from the stereo camera on the head due to arm shielding or the like. Therefore, as shown in FIG. 6, a jig is used so that a part of the
(実際の動作時)
図7は、本実施形態に係る確認位置でのハンドHND1を示す図である。
物体OBJを把持した状態で、物体OBJを確認する確認位置にハンドHND1を移動させ、把持している物体OBJの位置姿勢情報(第3撮像情報)を取得する。これにより、カメラ座標系において、ハンドHND1の位置姿勢情報と把持している物体OBJの位置姿勢情報との関係を取得することができる。ハンドHND1の位置姿勢情報の確認では、図7に示すように、ハンドHND1の掌の位置姿勢を取得する。
(During actual operation)
FIG. 7 is a diagram showing the hand HND1 at the confirmation position according to the present embodiment.
While holding the object OBJ, the hand HND1 is moved to a confirmation position for checking the object OBJ, and position / orientation information (third imaging information) of the gripping object OBJ is acquired. Thereby, in the camera coordinate system, the relationship between the position and orientation information of the hand HND1 and the position and orientation information of the grasped object OBJ can be acquired. In the confirmation of the position and orientation information of the hand HND1, as shown in FIG. 7, the palm position and orientation of the hand HND1 are acquired.
さらに、事前準備で求めておいた順運動学で求めたハンドHND1の位置姿勢情報との関係を用いて、位置姿勢情報の補正を行う。なお、ロボットの繰り返し精度があると仮定している。 Further, the position and orientation information is corrected using the relationship with the position and orientation information of the hand HND1 obtained by forward kinematics obtained in advance preparation. It is assumed that there is robot repeatability.
次に、目標位置にハンドHND1の手先を移動させる。移動量は補正量を考慮して設定する。移動させた先は、事前準備で算出した補正量を考慮した位置姿勢となる。 Next, the hand of the hand HND1 is moved to the target position. The movement amount is set in consideration of the correction amount. The moved position is a position and orientation in consideration of the correction amount calculated in advance preparation.
なお、確認位置において、カメラ10で撮像されるハンドHND1の姿勢は、爪部52の先端部54側の第3方向(z)の位置にカメラ10が配置されていることが好ましい。これによれば、カメラ10の撮像方向に物体OBJの裏面(ハンドHND1や爪部52と重ならない面)を見せることができる。これにより、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。その結果、物体OBJの裏側の輪郭形状を撮像することができる。
Note that, at the confirmation position, the posture of the hand HND1 imaged by the
(実施例)
実施例として、ネジ締めプレートをネジ締めベースに組み込む作業を挙げる。
図8は、本実施形態に係るロボットのロボット制御部により実行される事前処理の流れの一例を示すフローチャートである。図9は、本実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャートである。図10は、本実施形態に係るハンドHND1の位置姿勢を示す図である。図10(A)はハンドHND1の目標位置を示す図、図10(B)はハンドHND1の位置姿勢の補正を示す図である。なお、物体OBJはネジ締めプレートであり、組み付け面MSはネジ締めベースの組み付け面である。また、Wはワールド座標であり、Tは座標変換を示している。
(Example)
As an embodiment, an operation of assembling a screw fastening plate into a screw fastening base will be described.
FIG. 8 is a flowchart illustrating an example of a flow of pre-processing executed by the robot control unit of the robot according to the present embodiment. FIG. 9 is a flowchart illustrating an example of the flow of the assembly process executed by the robot control unit of the robot according to the present embodiment. FIG. 10 is a diagram illustrating the position and orientation of the hand HND1 according to the present embodiment. FIG. 10A is a diagram illustrating a target position of the hand HND1, and FIG. 10B is a diagram illustrating correction of the position and orientation of the hand HND1. The object OBJ is a screw tightening plate, and the assembly surface MS is an assembly surface of the screw tightening base. W represents world coordinates, and T represents coordinate conversion.
以下、図8を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。以下では、ロボット2のハンドHND1は、ロボット制御部16により物体OBJの真上まで移動しているものとして説明する。
Hereinafter, a process performed when the
まず、図8に示すように、ステップS10では、把持する物体OBJを確認する確認位置にハンドHND1を移動する。 First, as shown in FIG. 8, in step S10, the hand HND1 is moved to a confirmation position for confirming the object OBJ to be grasped.
次に、ステップS20では、ハンドHND1の確認位置(第1の点)の位置姿勢情報(第1撮像情報)を取得する。図10(B)に、WTHND1´としてその作業を示している。これによれば、第1撮像情報が位置姿勢情報であるため、ハンドHND1の位置姿勢を容易に確認することができる。 Next, in step S20, position and orientation information (first imaging information) of the confirmation position (first point) of the hand HND1 is acquired. FIG. 10B shows the work as W THND1 ′ . According to this, since the first imaging information is position and orientation information, the position and orientation of the hand HND1 can be easily confirmed.
次に、ステップS30では、ハンドHND1の確認位置の位置姿勢情報を事前位置姿勢1として登録する。
Next, in step S30, the position and orientation information of the confirmation position of the hand HND1 is registered as the prior position and
次に、ステップS40では、把持する物体OBJを組付ける目標位置付近にハンドHND1を移動する。 Next, in step S40, the hand HND1 is moved near the target position where the object OBJ to be grasped is assembled.
次に、ステップS50では、ハンドHND1の目標位置(第2の点)の位置姿勢情報(第2撮像情報)を取得する。図10(B)に、WTHND1としてその作業を示している。これによれば、第2撮像情報が位置姿勢情報であるため、ハンドHND1の位置姿勢を容易に確認することができる。 Next, in step S50, position and orientation information (second imaging information) of the target position (second point) of the hand HND1 is acquired. FIG. 10B shows the work as W THND1 . According to this, since the second imaging information is position and orientation information, the position and orientation of the hand HND1 can be easily confirmed.
次に、ステップS60では、ハンドHND1の目標位置の位置姿勢情報を事前位置姿勢2として登録する。
Next, in step S60, the position and orientation information of the target position of the hand HND1 is registered as the prior position and
以下、図9を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。以下では、ロボット2のハンドHND1は、ロボット制御部16により物体OBJの真上まで移動しているものとして説明する。
Hereinafter, a process performed when the
まず、図9に示すように、ステップS110では、物体OBJの登録を行う。具体的には、組み付け面MSに対する物体OBJの位置姿勢を指定する。図10(B)に、MSTOBJとしてその作業を示している。ワールド座標Wでの組み付け面MSの位置姿勢を指定する。図10(B)に、WTMSとしてその作業を示している。ワールド座標Wでの物体OBJの位置姿勢を算出する。例えば、WTOBJ=WTMS MSTOBJとしてその作業を表すことができる。物体OBJの確認位置の位置姿勢情報を取得する。例えば、図10(B)に、WTOBJ´としてその作業を示している。 First, as shown in FIG. 9, in step S110, registration of the object OBJ is performed. Specifically, the position and orientation of the object OBJ with respect to the assembly surface MS is designated. FIG. 10B shows the work as MS T OBJ . The position and orientation of the assembly surface MS at the world coordinate W is designated. In FIG. 10 (B), shows the work as W T MS. The position and orientation of the object OBJ at the world coordinates W are calculated. For example, it is possible to represent the work as W T OBJ = W T MS MS T OBJ. The position and orientation information of the confirmation position of the object OBJ is acquired. For example, FIG. 10B shows the work as W T OBJ ′ .
次に、ステップS120では、物体OBJを把持する。 Next, in step S120, the object OBJ is gripped.
次に、ステップS130では、把持している物体OBJを確認する確認位置にハンドHND1を移動する。 Next, in step S130, the hand HND1 is moved to a confirmation position for confirming the grasped object OBJ.
次に、ステップS140では、把持している物体OBJの位置姿勢情報(第3撮像情報)を取得する。これによれば、第3撮像情報が位置姿勢情報であるため、物体OBJの位置姿勢を容易に確認することができる。 Next, in step S140, position / orientation information (third imaging information) of the grasped object OBJ is acquired. According to this, since the third imaging information is the position and orientation information, the position and orientation of the object OBJ can be easily confirmed.
次に、ステップS150では、ハンドHND1の位置姿勢をハンドHND1の事前位置姿勢1を用いて補正する。ハンドHND1の事前位置姿勢1を用いてハンドHND1の確認位置の補正量を算出する。図10(B)に、THND1´としてその作業を示している。ハンドHND1の確認位置を補正する。例えば、THND1´ WTHND1´としてその作業を表すことができる。
Next, in step S150, the position and orientation of the hand HND1 are corrected using the prior position and
次に、ステップS160では、ハンドHND1の位置姿勢と把持している物体OBJの位置姿勢との関係を算出する。 Next, in step S160, the relationship between the position and orientation of the hand HND1 and the position and orientation of the grasped object OBJ is calculated.
次に、ステップS170では、把持している物体OBJを目標位置に移動させるハンドHND1の位置を算出する。物体OBJを目標位置に移動する変換を算出する。例えば、WTOBJ´=TWTOBJ 、 T=WTOBJ´ WTOBJ -1としてその作業を表すことができる。ハンドHND1の目標位置を算出する。例えば、WTHND1=TTHND1´ WTHND1´としてその作業を表すことができる。 Next, in step S170, the position of the hand HND1 that moves the grasped object OBJ to the target position is calculated. A conversion for moving the object OBJ to the target position is calculated. For example, it is possible to W T OBJ' = T W T OBJ , as T = W T OBJ' W T OBJ -1 representing that task. The target position of the hand HND1 is calculated. For example, it is possible to represent the work as W T HND1 = TT HND1' W T HND1'.
次に、ステップS180では、ハンドHND1の位置姿勢をハンドHND1の事前位置姿勢2を用いて補正する。ハンドHND1の事前位置姿勢2を用いてハンドHND1の目標位置の補正量を算出する。図10(B)に、THND1としてその作業を示している。ハンドHND1の目標位置を補正する。例えば、THND1 WTHND1としてその作業を表すことができる。
Next, in step S180, the position and orientation of the hand HND1 are corrected using the prior position and
次に、ステップS190では、ハンドHND1を補正した目標位置に移動する。 Next, in step S190, the hand HND1 is moved to the corrected target position.
次に、ステップS200では、組み付け動作を行う。これによれば、より理想に近い位置に、ネジ締めプレートを移動させることができる。 Next, in step S200, an assembling operation is performed. According to this, the screw fastening plate can be moved to a position closer to the ideal.
以上説明したように、本実施形態に係るロボット2は、ハンドHND1とハンドHND1が把持している物体OBJとの関係を、確認位置と目標位置とで各位置姿勢情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボット2、ロボット2の制御方法、及びロボット2の制御装置12を提供することができる。
As described above, the
(第2実施形態)
本実施形態のロボット2は、把持した物体OBJを一旦カメラ10の撮像領域に、物体OBJの位置姿勢を変えて、撮像する点が、第1実施形態と異なっている。以下、第1実施形態と同じ構成部材には同一符号を付し、ここではそれらの説明を省略又は簡略化する。
(Second Embodiment)
The
図11は、本実施形態に係るハンドHND1の移動位置を示す図である。
複数台のカメラ10は、2台のカメラ10から構成されてもよい。ハンドHND1に把持された物体OBJは、2台のカメラ10の光軸40の交点42から2台のカメラ10の位置を結ぶ直線48上におろした垂線44上にあってもよい。
FIG. 11 is a diagram illustrating a movement position of the hand HND1 according to the present embodiment.
The plurality of
また、ハンドHND1に把持された物体OBJの重心46は、2台のカメラ10の光軸40の交点42から2台のカメラ10の位置を結ぶ直線48上におろした垂線44上にあってもよい。
Further, the center of
さらに、物体OBJを把持したハンドHND1の爪部52の開閉方向は、2台のカメラ10の光軸40の交点42と、2台のカメラ10の位置とを含む平面50の法線方向であってもよい。これらによれば、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。
Further, the opening / closing direction of the
以下、図12を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。
図12は、本実施形態に係るロボット2のロボット制御部16により実行される組み付け処理の流れの一例を示すフローチャートである。
Hereinafter, with reference to FIG. 12, a process performed by the
FIG. 12 is a flowchart showing an example of the flow of the assembling process executed by the
まず、図12に示すように、ステップS210では、登録工程として物体OBJを組み付け面MSに組み付ける位置姿勢となるように、図10(A)に示すように、ハンドHND1の目標位置を記憶部22に登録する。
First, as shown in FIG. 12, in step S210, as shown in FIG. 10A, the target position of the hand HND1 is stored in the
次に、ステップS220では、物体OBJと設置面Mとを検出するためのデータを記憶部22に登録する。又は、設置面Mに対する物体OBJの3次元位置姿勢を記憶部22に登録する。
Next, in step S <b> 220, data for detecting the object OBJ and the installation surface M is registered in the
次に、ステップS230では、設置面M、物体OBJの3次元位置姿勢を記憶部22より取得する。
Next, in step S230, the installation surface M and the three-dimensional position and orientation of the object OBJ are acquired from the
次に、ステップS240では、把持工程としてハンドHND1で物体OBJを把持する。そして、把持している物体OBJをカメラ10で観測可能となる位置姿勢を算出する。
Next, in step S240, the object OBJ is gripped by the hand HND1 as a gripping process. Then, the position and orientation at which the grasped object OBJ can be observed with the
次に、ステップS250では、移動工程として物体OBJを把持した状態で、物体OBJをカメラ10で撮像可能な位置に移動させる。そして、把持している物体OBJを、カメラ10の前に移動させ、把持している物体OBJの3次元位置姿勢を検出する。
Next, in step S250, the object OBJ is moved to a position where it can be imaged by the
次に、ステップS260では、物体OBJの3次元位置姿勢をカメラ10より取得する。
Next, in step S260, the three-dimensional position and orientation of the object OBJ are acquired from the
次に、ステップS270では、物体OBJを把持しているハンドHND1の位置姿勢を記憶部22より取得する。
Next, in step S270, the position and orientation of the hand HND1 holding the object OBJ is acquired from the
次に、ステップS280では、物体OBJとハンドHND1の3次元位置姿勢の関係(設定値からのズレ)を取得する。 Next, in step S280, the relationship (the deviation from the set value) between the three-dimensional position and orientation of the object OBJ and the hand HND1 is acquired.
次に、ステップS290では、組み付け面MSの3次元位置姿勢を記憶部22より取得する。
Next, in step S290, the three-dimensional position and orientation of the assembly surface MS are acquired from the
次に、ステップS300では、補正工程として物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を補正する。設定値からのズレを補正したハンドHND1の目標位置を算出する。把持している物体OBJが目標位置となるように、ハンドHND1の位置姿勢を変化させる。 Next, in step S300, the target position of the hand HND1 is corrected so that the position and orientation of the object OBJ are assembled to the assembly surface MS as a correction process. A target position of the hand HND1 in which the deviation from the set value is corrected is calculated. The position and orientation of the hand HND1 are changed so that the grasped object OBJ becomes the target position.
次に、ステップS310では、組み付け工程として物体OBJを組み付け面MSに組み付ける。物体OBJのハンドHND1に対する傾き(ズレ)をハンドHND1の位置姿勢の補正を行うことで、図10(B)に示すように、組み付ける際、物体OBJの組み付け面MSに対する傾きを最小限にすることができる。そして、終了する。 Next, in step S310, the object OBJ is assembled to the assembly surface MS as an assembly process. By correcting the position and orientation of the hand HND1 with respect to the inclination (displacement) of the object OBJ with respect to the hand HND1, as shown in FIG. 10B, the inclination of the object OBJ with respect to the assembly surface MS is minimized. Can do. And it ends.
以上説明したように、本実施形態に係るロボット2は、把持した物体OBJを一旦カメラ10の撮像領域に、物体OBJの位置姿勢を変えて、撮像する。これにより、撮影する際、物体OBJのロボット2のハンドHND1で隠れる量をできるだけ少ない状態で撮像することができる。そして、物体OBJのカメラ座標をワールド座標に変換することで、物体OBJとハンドHND1との位置関係を把握することができる。その結果、ロボット2の物体OBJ把持状態において、物体OBJとハンドHND1との位置ズレを補正して、誤差の少ない組み付けを行うことができる。
As described above, the
ハンドHND1とカメラ10との位置姿勢の関係やカメラ10の視線方向が既知である場合に、ロボットが把持している物体OBJの状態を確認するためには、カメラ10の視線に入るように、物体OBJを移動させればよい。その際、カメラ10と物体OBJとの間にはできるだけ遮蔽物が少なく、ハンドHND1自体で物体OBJを隠すことが少ない方が望ましい。
When the relationship between the position and orientation of the hand HND1 and the
また、検出した物体OBJの位置姿勢とハンドHND1の位置姿勢との関係を比較することで、その関係がデータベースに登録されている期待されている関係からずれているかどうかを検出することができる。
さらに、撮像部も頭、腰の回転で移動可能にしたので、無理な姿勢を取ることなく、対象物を撮像できるようになり、対象物の位置、姿勢を正確に取得することができるようになる。
Further, by comparing the relationship between the detected position and orientation of the object OBJ and the position and orientation of the hand HND1, it is possible to detect whether or not the relationship deviates from the expected relationship registered in the database.
In addition, since the imaging unit can also be moved by rotating the head and waist, the object can be imaged without taking an unreasonable posture so that the position and posture of the object can be accurately acquired. Become.
なお、実施形態は上記に限定されず、以下のような形態で実施することもできる。
上記した実施形態において、ハンドHND1の爪部52の開閉方向と、撮像部10の光軸40の交点42と、2つのカメラ10位置とを含む平面50の法線が一致することに限定されず、例えば、把持状態によっては、両者のなす角が略90度となるようにしてもよい。
In addition, embodiment is not limited above, It can also implement with the following forms.
In the embodiment described above, the opening / closing direction of the
また、検出される物体OBJの形状は既知であるので、物体OBJの一部の画像から物体OBJとハンドHND1との3次元位置姿勢の関係(設定値からのズレ)を取得してもよい。 Further, since the shape of the detected object OBJ is known, the relationship between the three-dimensional position and orientation (deviation from the set value) between the object OBJ and the hand HND1 may be acquired from a partial image of the object OBJ.
さらに、カメラ10の光軸40の交点42の算出は、光軸40同士が交わることは稀であることから、中点法などで算出してもよい。
Furthermore, the
また、ビジュアルサーボと組み合わせることにより、ビジュアルサーボの動作開始位置が安定するので高精度の組立が期待できる。 In addition, when combined with the visual servo, the visual servo operation start position is stabilized, so high-precision assembly can be expected.
以上、ロボット2、ロボット2の制御方法、及びロボット2の制御装置12について、図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に他の任意の構成物が付加されていてもよい。
The
2…ロボット 10…カメラ(撮像部) 12…制御装置 14…力センサー 16…ロボット制御部 20…CPU 22…記憶部 24…入力受付部 26…通信部 30…画像取得部 32…三次元位置姿勢導出部 34…治具 36…マーカー 40…光軸 42…交点 44…垂線 46…重心 48…直線 50…平面 52…爪部 54…先端部 56…基端部 ARM1,ARM2…アーム部 Bus…バス HND1,HND2…ハンド(把持部) M…設置面 MS…組み付け面 OBJ…物体(把持物)。
DESCRIPTION OF
Claims (8)
第1の点における把持物を把持しない前記把持部の第1撮像情報と、
前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
に基づいて動作し、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている期待値と比較し、比較の結果に応じてずれ量を補正する補正量を算出する第4制御部を有することを特徴とするロボット。 A robot having a gripping portion,
First imaging information of the gripper that does not grip the gripping object at the first point;
Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point;
Third imaging information of the grasped object grasped by the grasping unit at the first point;
It operates based on the,
A fourth control unit that compares the first imaging information, the second imaging information, and the third imaging information with a preset expected value and calculates a correction amount that corrects the shift amount according to the comparison result. robot, characterized in that it comprises a.
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報は、位置姿勢情報であることを特徴とするロボット。 The robot according to claim 1, wherein
The robot according to claim 1, wherein the first imaging information, the second imaging information, and the third imaging information are position and orientation information.
撮像部を有し、
前記把持部は、第1方向と第2方向とに並んで配置され、前記把持物を把持する先端部と、前記先端部に対して前記第1方向及び前記第2方向のそれぞれに直交する第3方向の位置に配置された基端部とを有する複数の爪部を有し、
前記第1の点において、前記撮像部で撮像される前記把持部の姿勢は、前記爪部の前記先端部側の前記第3方向の位置に前記撮像部が配置されていることを特徴とするロボット。 The robot according to claim 1 or 2 ,
Having an imaging unit,
The grip portion is arranged side by side in a first direction and a second direction, and a distal end portion that grips the gripped object and a first portion that is orthogonal to the first direction and the second direction with respect to the distal end portion. A plurality of claw portions having a base end portion disposed at a position in three directions;
In the first point, the posture of the gripping part imaged by the imaging part is characterized in that the imaging part is arranged at a position in the third direction on the tip side of the claw part. robot.
前記撮像部は、複数台設けられていることを特徴とするロボット。 The robot according to claim 3 , wherein
A robot characterized in that a plurality of the imaging units are provided.
前記撮像部は、ステレオカメラであることを特徴とするロボット。 The robot according to claim 3 or 4 ,
The robot according to claim 1, wherein the imaging unit is a stereo camera.
前記第2撮像情報は、前記把持部の形状又は前記把持部に設けられたマーカーの画像を用いていることを特徴とするロボット。 The robot according to any one of claims 1 to 5 ,
The robot according to claim 2, wherein the second imaging information uses a shape of the gripper or an image of a marker provided on the gripper.
第1の点における把持物を把持しない前記把持部の第1撮像情報と、
前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
に基づいてロボットを制御し、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている期待値と比較し、比較の結果に応じてずれ量を補正する補正量を算出することを特徴とするロボットの制御方法。 A robot control method for controlling a robot having a gripping part,
First imaging information of the gripper that does not grip the gripping object at the first point;
Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point;
Third imaging information of the grasped object grasped by the grasping unit at the first point;
To control the robot based on the,
Comparing the first imaging information, the second imaging information, and the third imaging information with preset expected values, and calculating a correction amount for correcting a shift amount according to a comparison result. To control the robot.
第1の点における把持物を把持しない前記把持部の第1撮像情報と、
前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
に基づいてロボットを制御し、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている期待値と比較し、比較の結果に応じてずれ量を補正する補正量を算出する第4制御部を有することを特徴とするロボットの制御装置。 A robot control device for controlling a robot having a gripping portion,
First imaging information of the gripper that does not grip the gripping object at the first point;
Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point;
Third imaging information of the grasped object grasped by the grasping unit at the first point;
To control the robot based on the,
A fourth control unit that compares the first imaging information, the second imaging information, and the third imaging information with a preset expected value and calculates a correction amount that corrects the shift amount according to the comparison result. control apparatus for a robot, characterized in that it comprises a.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015034917A JP6578671B2 (en) | 2015-02-25 | 2015-02-25 | ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE |
CN201510272306.7A CN105313127A (en) | 2014-06-02 | 2015-05-25 | Robot, control method of robot, and control device of robot |
US14/725,421 US9586321B2 (en) | 2014-06-02 | 2015-05-29 | Robot, control method of robot, and control device of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015034917A JP6578671B2 (en) | 2015-02-25 | 2015-02-25 | ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016155194A JP2016155194A (en) | 2016-09-01 |
JP6578671B2 true JP6578671B2 (en) | 2019-09-25 |
Family
ID=56824612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015034917A Expired - Fee Related JP6578671B2 (en) | 2014-06-02 | 2015-02-25 | ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6578671B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4134209A1 (en) * | 2021-08-13 | 2023-02-15 | Kabushiki Kaisha Toshiba | Robot hand, handling system, robot hand control device, method for controlling robot hand, program, and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201800863D0 (en) * | 2018-01-19 | 2018-03-07 | Ocado Innovation Ltd | A grasping affordance for use in a robot system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0197590A (en) * | 1987-10-09 | 1989-04-17 | Daihatsu Motor Co Ltd | Detector for quantity of gravity positional displacement of robot |
JP4289619B2 (en) * | 2004-09-15 | 2009-07-01 | 富士フイルム株式会社 | Tool position correction method for articulated robots |
-
2015
- 2015-02-25 JP JP2015034917A patent/JP6578671B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4134209A1 (en) * | 2021-08-13 | 2023-02-15 | Kabushiki Kaisha Toshiba | Robot hand, handling system, robot hand control device, method for controlling robot hand, program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2016155194A (en) | 2016-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6966582B2 (en) | Systems and methods for automatic hand-eye calibration of vision systems for robot motion | |
US9586321B2 (en) | Robot, control method of robot, and control device of robot | |
JP6468741B2 (en) | Robot system and robot system calibration method | |
US10099380B2 (en) | Robot, robot control device, and robot system | |
CN109227532B (en) | Robot control device and system thereof, robot and camera correction method | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP2016185572A (en) | Robot, robot control device, and robot system | |
JP6572262B2 (en) | Teaching position correcting device and teaching position correcting method | |
JP4837116B2 (en) | Robot system with visual sensor | |
US9884425B2 (en) | Robot, robot control device, and robotic system | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP6661028B2 (en) | Work position correction method | |
JP6885856B2 (en) | Robot system and calibration method | |
CN106476015B (en) | Robot, control device, and robot system | |
JP6578671B2 (en) | ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE | |
KR20070122271A (en) | System for controlling position of robot and method for controlling thereof | |
JP2013082041A (en) | Robot | |
JP2013013987A (en) | Robot system | |
WO2023013740A1 (en) | Robot control device, robot control system, and robot control method | |
JP2016120558A (en) | Robot and robot system | |
JP2015226954A (en) | Robot, control method of the same and control unit of the same | |
JP2016203282A (en) | Robot with mechanism for changing end effector attitude | |
CN114945450A (en) | Robot system | |
WO2022124232A1 (en) | Image processing system and image processing method | |
WO2023013739A1 (en) | Robot control device, robot control system, and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171218 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180905 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6578671 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |