JP6578671B2 - ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE - Google Patents

ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE Download PDF

Info

Publication number
JP6578671B2
JP6578671B2 JP2015034917A JP2015034917A JP6578671B2 JP 6578671 B2 JP6578671 B2 JP 6578671B2 JP 2015034917 A JP2015034917 A JP 2015034917A JP 2015034917 A JP2015034917 A JP 2015034917A JP 6578671 B2 JP6578671 B2 JP 6578671B2
Authority
JP
Japan
Prior art keywords
robot
imaging information
hnd1
hand
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015034917A
Other languages
Japanese (ja)
Other versions
JP2016155194A (en
Inventor
丸山 健一
健一 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015034917A priority Critical patent/JP6578671B2/en
Priority to CN201510272306.7A priority patent/CN105313127A/en
Priority to US14/725,421 priority patent/US9586321B2/en
Publication of JP2016155194A publication Critical patent/JP2016155194A/en
Application granted granted Critical
Publication of JP6578671B2 publication Critical patent/JP6578671B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットの制御方法、及びロボットの制御装置に関する。   The present invention relates to a robot, a robot control method, and a robot control apparatus.

ロボットが組立作業を行う際に、把持している物体の位置姿勢が期待した位置姿勢からずれていると、組立作業に悪影響を及ぼすことが多い。ずれを検出する手段として、把持している物体を撮像部で撮像し、把持している把持部と把持物との位置姿勢の関係を算出することが有効であるが、その基準となるロボット座標系と撮像部座標系とのずれは場所によって異なるため、ずれ量も均一ではなくなり、一つの補正量では期待する精度がでないおそれがある。そのため、把持物把持後も微妙にずれ、把持物を組付けることができないおそれがある。   When the robot performs assembly work, if the position and orientation of the object being gripped deviate from the expected position and orientation, the assembly work is often adversely affected. As a means for detecting the deviation, it is effective to capture the object being grasped by the imaging unit and calculate the position / orientation relationship between the grasping grasping part and the grasped object. Since the deviation between the system and the imaging unit coordinate system differs depending on the location, the deviation amount is not uniform, and there is a possibility that the expected accuracy is not achieved with one correction amount. Therefore, there is a possibility that the gripped object may be slightly displaced even after the gripped object is gripped and the gripped object cannot be assembled.

例えば、位置ずれ量をデータベースに保存し、動作時にその値を使う多関節ロボットのツール位置補正方法が開示されている(例えば、特許文献1参照)。   For example, a tool position correction method for an articulated robot that stores the amount of positional deviation in a database and uses the value during operation is disclosed (for example, see Patent Document 1).

特開2006−82171号公報JP 2006-82171 A

しかしながら、特許文献1に記載のツール位置補正方法では、位置ずれ量を計測する場合に撮像部から把持部が見える状態となっているが、双腕ロボットなど撮像部の配置によっては、必ずしもそのような状況となるとは限らないおそれがある。   However, in the tool position correction method described in Patent Document 1, when the amount of displacement is measured, the gripping unit is visible from the imaging unit. However, depending on the arrangement of the imaging unit such as a double-arm robot, this is not necessarily the case. There is a risk that the situation will not always be correct.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]本適用例に係るロボットは、把持部を有するロボットであって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づき動作することを特徴とする。   [Application Example 1] A robot according to this application example is a robot having a gripping unit, and is different from the first imaging information of the gripping unit that does not grip the gripping object at the first point and the first point. Operating based on second imaging information of the gripping part that does not grip the gripping object at a second point and third imaging information of the gripping object gripped by the gripping part at the first point. Features.

本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点(例えば、確認位置)と第2の点(例えば、目標位置)との位置で各撮像情報を算出するので、これによって、組立時(目標位置)のずれを低減することができる。したがって、高精度の組立を可能とするロボットを提供することができる。   According to this application example, the relationship between the gripping part and the gripped object gripped by the gripping part is determined at each of the positions of the first point (for example, the confirmation position) and the second point (for example, the target position). Since the imaging information is calculated, it is possible to reduce deviation during assembly (target position). Therefore, it is possible to provide a robot that enables highly accurate assembly.

[適用例2]上記適用例に記載のロボットは、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報は、位置姿勢情報であることが好ましい。   Application Example 2 In the robot according to the application example, it is preferable that the first imaging information, the second imaging information, and the third imaging information are position and orientation information.

本適用例によれば、各撮像情報が位置姿勢情報であるため、把持部と把持物との位置姿勢を容易に確認することができる。   According to this application example, since each piece of imaging information is position / orientation information, it is possible to easily confirm the position / orientation between the grasping unit and the grasped object.

[適用例3]上記適用例に記載のロボットは、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することが好ましい。   Application Example 3 The robot according to the application example compares the first imaging information, the second imaging information, and the third imaging information with each expected value that is set in advance, and determines the result of the comparison. Accordingly, it is preferable to further include a fourth control unit that calculates each correction amount for correcting the shift amount.

本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。   According to this application example, each piece of imaging information is corrected at the positions of the first point and the second point, so that it is possible to reduce deviation during assembly.

[適用例4]上記適用例に記載のロボットは、撮像部を有し、前記把持部は、第1方向と第2方向とに並んで配置され、前記把持物を把持する先端部と、前記先端部に対して前記第1方向及び前記第2方向のそれぞれに直交する第3方向の位置に配置された基端部とを有する複数の爪部を有し、前記第1の点において、前記撮像部で撮像される前記把持部の姿勢は、前記爪部の前記先端部側の前記第3方向の位置に前記撮像部が配置されていることが好ましい。   Application Example 4 The robot according to the application example described above includes an imaging unit, the gripping unit is arranged in a first direction and a second direction, and a tip part that grips the gripped object; A plurality of claw portions having a base end portion disposed at a position in a third direction orthogonal to each of the first direction and the second direction with respect to a distal end portion, and at the first point, As for the posture of the gripping part imaged by the imaging part, it is preferable that the imaging part is arranged at a position in the third direction on the tip side of the claw part.

本適用例によれば、撮像部の撮像方向に把持物の裏面(把持部や爪部と重ならない面)を見せることができる。これにより、撮像部と把持物との間には遮蔽物がなく、把持部自体で把持物を隠すことが少なくなる。その結果、把持物の裏側の輪郭形状を撮像することができる。   According to this application example, it is possible to show the back surface of the gripped object (the surface that does not overlap the gripping part or the claw part) in the imaging direction of the imaging unit. Thereby, there is no shielding object between the imaging unit and the gripping object, and the gripping object itself is less likely to be hidden. As a result, the contour shape on the back side of the grasped object can be imaged.

[適用例5]上記適用例に記載のロボットは、前記撮像部は、複数台設けられていることが好ましい。   Application Example 5 In the robot according to the application example described above, it is preferable that a plurality of the imaging units are provided.

本適用例によれば、複数の撮像部を有することで、撮像部による画像の解像度を上げることができ、精度の良い画像を作成することができる。これにより、位置精度の高い位置姿勢を得ることができる。   According to this application example, by having a plurality of imaging units, it is possible to increase the resolution of an image by the imaging unit, and to create an accurate image. Thereby, a position and orientation with high positional accuracy can be obtained.

[適用例6]上記適用例に記載のロボットは、前記撮像部は、ステレオカメラであることが好ましい。   Application Example 6 In the robot according to the application example, it is preferable that the imaging unit is a stereo camera.

本適用例によれば、撮像部と把持物との間には遮蔽物がなく、把持部自体で把持物を隠すことが少なくなる。   According to this application example, there is no shielding object between the imaging unit and the gripping object, and the gripping object itself is less likely to be hidden.

[適用例7]上記適用例に記載のロボットは、前記第2撮像情報は、前記把持部の形状又は前記把持部に設けられたマーカーの画像を用いていることが好ましい。   Application Example 7 In the robot according to the application example described above, it is preferable that the second imaging information uses a shape of the grip portion or an image of a marker provided on the grip portion.

本適用例によれば、第2撮像情報の算出を容易に行うことができる。   According to this application example, it is possible to easily calculate the second imaging information.

[適用例8]本適用例に係るロボットの制御方法は、把持部を有するロボットを制御するロボットの制御方法であって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点と異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づきロボットを制御することを特徴とする。   Application Example 8 A robot control method according to this application example is a robot control method for controlling a robot having a gripping unit, and the first imaging information of the gripping unit that does not grip a gripping object at a first point. Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point, and third imaging of the gripping object gripped by the gripping part at the first point The robot is controlled based on the information.

本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点と第2の点との位置で各撮像情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボットを制御するロボットの制御方法を提供することができる。   According to this application example, the imaging information is calculated based on the positions of the first point and the second point regarding the relationship between the gripping part and the gripped object gripped by the gripping part. The deviation can be reduced. Therefore, it is possible to provide a robot control method for controlling a robot that enables highly accurate assembly.

[適用例9]上記適用例に記載のロボットの制御方法は、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出することをさらに有することが好ましい。   Application Example 9 In the robot control method according to the application example described above, the first imaging information, the second imaging information, and the third imaging information are compared with preset expected values, and the comparison is performed. It is preferable to further calculate each correction amount for correcting the shift amount according to the result.

本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。   According to this application example, each piece of imaging information is corrected at the positions of the first point and the second point, so that it is possible to reduce deviation during assembly.

[適用例10]本適用例に係るロボットの制御装置は、把持部を有するロボットを制御するロボットの制御装置であって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づきロボットを制御することを特徴とする。   Application Example 10 A robot control device according to this application example is a robot control device that controls a robot having a gripping portion, and the first imaging information of the gripping portion that does not grip a gripping object at a first point. And second imaging information of the gripper that does not grip the gripping object at a second point different from the first point, and a third of the gripped object gripped by the gripping part at the first point The robot is controlled based on the imaging information.

本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点と第2の点との位置で各撮像情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボットを制御するロボットの制御装置を提供することができる。   According to this application example, the imaging information is calculated based on the positions of the first point and the second point regarding the relationship between the gripping part and the gripped object gripped by the gripping part. The deviation can be reduced. Therefore, it is possible to provide a robot control apparatus that controls a robot that enables highly accurate assembly.

[適用例11]上記適用例に記載のロボットの制御装置は、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することが好ましい。   Application Example 11 The robot control device according to the application example compares the first imaging information, the second imaging information, and the third imaging information with preset expected values, and performs the comparison. It is preferable to further include a fourth control unit that calculates each correction amount for correcting the shift amount according to the result.

本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。   According to this application example, each piece of imaging information is corrected at the positions of the first point and the second point, so that it is possible to reduce deviation during assembly.

第1実施形態に係るロボットの利用状況の一例を示す図。The figure which shows an example of the utilization condition of the robot which concerns on 1st Embodiment. 第1実施形態に係る制御装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the control apparatus which concerns on 1st Embodiment. 第1実施形態に係る制御装置の機能構成の一例を示す図。The figure which shows an example of a function structure of the control apparatus which concerns on 1st Embodiment. 第1実施形態に係るハンドによる物体の把持方法の一例を説明する図。The figure explaining an example of the holding method of the object by the hand which concerns on 1st Embodiment. 第1実施形態に係る確認位置でのハンドを示す図。The figure which shows the hand in the confirmation position which concerns on 1st Embodiment. 第1実施形態に係る目標位置でのハンドを示す図。The figure which shows the hand in the target position which concerns on 1st Embodiment. 第1実施形態に係る確認位置でのハンドを示す図。The figure which shows the hand in the confirmation position which concerns on 1st Embodiment. 第1実施形態に係るロボットのロボット制御部により実行される事前処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the pre-processing performed by the robot control part of the robot which concerns on 1st Embodiment. 第1実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the assembly | attachment process performed by the robot control part of the robot which concerns on 1st Embodiment. 第1実施形態に係るハンドの位置姿勢を示す図。(A)はハンドの目標位置を示す図、(B)はハンドの位置姿勢の補正を示す図。The figure which shows the position and orientation of the hand which concerns on 1st Embodiment. (A) is a figure which shows the target position of a hand, (B) is a figure which shows correction | amendment of the position and orientation of a hand. 第2実施形態に係るハンドの移動位置を示す図。The figure which shows the movement position of the hand which concerns on 2nd Embodiment. 第2実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the assembly | attachment process performed by the robot control part of the robot which concerns on 2nd Embodiment.

(第1実施形態)
以下、本発明を具体化した実施形態について図面に従って説明する。なお、使用する図面は、説明する部分が認識可能な状態となるように、適宜拡大又は縮小して表示している。
図1は、本実施形態に係るロボットの利用状況の一例を示す図である。
本実施形態に係るロボット2は、カメラ(撮像部)10と、制御装置12とを備えている。撮像部10は、ロボット2に搭載されている。カメラ10は、把持された物体(把持物)OBJを撮像する(図7参照)。カメラ10は、ハンド(把持部)HND1に把持された物体OBJの位置姿勢が変更されることにより撮像する。
(First embodiment)
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the drawings. Note that the drawings to be used are appropriately enlarged or reduced so that the part to be described can be recognized.
FIG. 1 is a diagram illustrating an example of a usage status of a robot according to the present embodiment.
The robot 2 according to the present embodiment includes a camera (imaging unit) 10 and a control device 12. The imaging unit 10 is mounted on the robot 2. The camera 10 images the grasped object (gripping object) OBJ (see FIG. 7). The camera 10 captures an image by changing the position and orientation of the object OBJ gripped by the hand (grip unit) HND1.

カメラ10は、複数台設けられていてもよい。これによれば、複数のカメラ10を有することで、カメラ10による画像の解像度を上げることができ、精度の良い画像を作成することができる。これにより、位置精度の高い位置姿勢(3次元位置姿勢)を得ることができる。   A plurality of cameras 10 may be provided. According to this, by having a plurality of cameras 10, the resolution of the image by the cameras 10 can be increased, and an image with high accuracy can be created. Thereby, a position and orientation (three-dimensional position and orientation) with high position accuracy can be obtained.

カメラ10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、カメラ10は、例えば、2台のカメラによって構成されるステレオカメラであるが、3台以上のカメラによって構成されているものとしてもよいし、1台のカメラにより二次元画像を撮像するものとしてもよい。またカメラは、可動型であり、上下、左右に可動する。これによれば、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。   The camera 10 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an image sensor that converts collected light into an electrical signal. The camera 10 is, for example, a stereo camera composed of two cameras, but may be composed of three or more cameras, or one camera captures a two-dimensional image. It is good. The camera is movable and can be moved vertically and horizontally. According to this, there is no shielding object between the camera 10 and the object OBJ, and it is less likely that the object OBJ is hidden by the hand HND1 itself.

カメラ10は、例えばケーブルによって制御装置12と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、カメラ10と制御装置12とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。物体OBJは、設置面M上に予め設置されている。「設置面M」とは、例えば、テーブル上の面等である。カメラ10は、その物体OBJを撮像可能な位置に設置される。カメラ10は、物体OBJを撮像し、撮像した物体OBJの撮像画像を、通信により制御装置12へ出力する。   The camera 10 is communicably connected to the control device 12 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. Note that the camera 10 and the control device 12 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). The object OBJ is previously installed on the installation surface M. The “installation surface M” is, for example, a surface on a table. The camera 10 is installed at a position where the object OBJ can be imaged. The camera 10 images the object OBJ and outputs a captured image of the captured object OBJ to the control device 12 through communication.

ロボット2は、例えば、図1に示したように、ハンドHND1と、ハンドHND2と、力センサー14と、アーム部ARM1と、アーム部ARM2と、図示しない複数のアクチュエーターとを、ロボットの基軸の左右の腕に備えた双腕ロボットである。ロボットの基軸は、回転軸を有し回転する。ロボット2の各腕は、6軸垂直多関節型となっており、一方の腕が支持台とアーム部ARM1と把持部HND1とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができ、他方の腕が支持台とアーム部ARM2とハンドHND2とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット2の各腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、ハンドHND1及びアーム部ARM1を備えた腕によって行われるロボット2の動作について説明するが、ハンドHND2及びアーム部ARM2を備えた腕によって同様の動作が行われてもよい。ハンドHND1は、物体OBJを把持する。なお、「ハンドHND1」は、特許請求の範囲における「把持部」の一例である。ロボット2は、例えばケーブルによって制御装置12と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット2と制御装置12とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、図1に示したロボット2は、双腕のロボットであるが、単腕のロボットとして実施されてもよい。   For example, as shown in FIG. 1, the robot 2 includes a hand HND1, a hand HND2, a force sensor 14, an arm part ARM1, an arm part ARM2, and a plurality of actuators (not shown). It is a double-armed robot equipped on the arm. The base axis of the robot has a rotation axis and rotates. Each arm of the robot 2 is a 6-axis vertical articulated type, and one arm performs an operation with 6 axes of freedom by an operation in which a support base, an arm part ARM1, and a gripping part HND1 are linked by an actuator. The other arm is a support base, the arm part ARM2, and the hand HND2 can be operated in a 6-axis degree of freedom by an operation in which the actuators cooperate with each other. Each arm of the robot 2 may operate with 5 degrees of freedom (5 axes) or less, or may operate with 7 degrees of freedom (7 axes) or more. Hereinafter, the operation of the robot 2 performed by the arm including the hand HND1 and the arm unit ARM1 will be described. However, the same operation may be performed by the arm including the hand HND2 and the arm unit ARM2. The hand HND1 holds the object OBJ. The “hand HND1” is an example of the “gripping part” in the claims. The robot 2 is communicably connected to the control device 12 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The robot 2 and the control device 12 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). The robot 2 shown in FIG. 1 is a dual-arm robot, but may be implemented as a single-arm robot.

ロボット2のハンドHND1は、物体OBJを把持又は挟持可能な爪部52を備える(図4参照)。力センサー14は、ロボット2のハンドHND1とアーム部ARM1との間に備えられており、ハンドHND1に作用する力やモーメントを検出する。力センサー14は、検出した力やモーメントを示す情報を、通信により制御装置12へ出力する。力センサー14により検出された力やモーメントを示す情報は、例えば、ロボット制御部16によるロボット2のインピーダンス制御等に用いられる。   The hand HND1 of the robot 2 includes a claw portion 52 that can hold or clamp the object OBJ (see FIG. 4). The force sensor 14 is provided between the hand HND1 of the robot 2 and the arm part ARM1, and detects a force and a moment acting on the hand HND1. The force sensor 14 outputs information indicating the detected force and moment to the control device 12 by communication. Information indicating the force and moment detected by the force sensor 14 is used, for example, for impedance control of the robot 2 by the robot control unit 16.

ロボット2は、物体OBJの三次元位置及び姿勢に基づいた制御信号を制御装置12から取得し、取得した制御信号に基づいて、物体OBJに対して所定の作業を行う。所定の作業とは、例えば、ロボット2のハンドHND1により物体OBJを把持し、把持された物体OBJを現在設置されている位置から、他の位置へと移動させることや、移動させた後に別の装置に組み付けを行うこと等の作業である。   The robot 2 acquires a control signal based on the three-dimensional position and orientation of the object OBJ from the control device 12, and performs a predetermined operation on the object OBJ based on the acquired control signal. The predetermined work refers to, for example, holding the object OBJ with the hand HND1 of the robot 2 and moving the gripped object OBJ from the currently installed position to another position, For example, assembling the device.

カメラ10は、物体OBJを把持したハンドHND1以外に設置されていてもよい。これによれば、物体OBJを把持したときに、物体OBJがカメラ10との接近した位置関係により、物体OBJの一部形状しか撮像ができないことを回避できる。   The camera 10 may be installed other than the hand HND1 that holds the object OBJ. According to this, when the object OBJ is gripped, it is possible to avoid that only a partial shape of the object OBJ can be captured due to the positional relationship of the object OBJ with the camera 10.

制御装置12は、カメラ10で撮像した画像を画像処理する。制御装置12は、物体OBJの位置姿勢を算出する。制御装置12は、ロボット2が所定の作業を行うように制御する。より具体的には、制御装置12は、カメラ10により撮像された物体OBJの撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。そして、制御装置12は、導出された物体OBJの三次元位置及び姿勢に基づいて、ロボット2にハンドHND1で物体OBJを把持させる。その後、制御装置12は、把持させた物体OBJに対して所定の作業を行うように、ロボット2を制御する。   The control device 12 performs image processing on an image captured by the camera 10. The control device 12 calculates the position and orientation of the object OBJ. The control device 12 controls the robot 2 to perform a predetermined work. More specifically, the control device 12 derives the three-dimensional position and orientation of the object OBJ based on the captured image of the object OBJ captured by the camera 10. Then, the control device 12 causes the robot 2 to grip the object OBJ with the hand HND1 based on the derived three-dimensional position and posture of the object OBJ. Thereafter, the control device 12 controls the robot 2 so as to perform a predetermined operation on the grasped object OBJ.

次に、図2を参照することで、制御装置12のハードウェア構成について説明する。
図2は、本実施形態に係る制御装置12のハードウェア構成の一例を示す図である。制御装置12は、例えば、CPU(Central Processing Unit)20と、記憶部22と、入力受付部24と、通信部26とを備え、通信部26を介してカメラ10等と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU20は、記憶部22に格納された各種プログラムを実行する。記憶部22は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、制御装置12が処理する各種情報や画像、プログラムを格納する。なお、記憶部22は、制御装置12に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
Next, the hardware configuration of the control device 12 will be described with reference to FIG.
FIG. 2 is a diagram illustrating an example of a hardware configuration of the control device 12 according to the present embodiment. The control device 12 includes, for example, a CPU (Central Processing Unit) 20, a storage unit 22, an input reception unit 24, and a communication unit 26, and communicates with the camera 10 and the like via the communication unit 26. These components are connected to each other via a bus Bus so that they can communicate with each other. The CPU 20 executes various programs stored in the storage unit 22. The storage unit 22 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. Various information, images, and programs processed by the control device 12 are stored. The storage unit 22 may be an external storage device connected via a digital input / output port such as a USB instead of the one built in the control device 12.

入力受付部24は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部24は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部26は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。   The input receiving unit 24 is, for example, a keyboard, mouse, touch pad, or other input device. The input receiving unit 24 may function as a display unit, and may be configured as a touch panel. The communication unit 26 includes, for example, a digital input / output port such as USB, an Ethernet (registered trademark) port, and the like.

次に、図3を参照することで、制御装置12の機能構成について説明する。
図3は、本実施形態に係る制御装置12の機能構成の一例を示す図である。制御装置12は、例えば、画像取得部30と、三次元位置姿勢導出部32と、ロボット制御部16とを備える。これらの機能部のうち一部又は全部は、例えば、CPU20が、記憶部22に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
Next, the functional configuration of the control device 12 will be described with reference to FIG.
FIG. 3 is a diagram illustrating an example of a functional configuration of the control device 12 according to the present embodiment. The control device 12 includes, for example, an image acquisition unit 30, a three-dimensional position / orientation derivation unit 32, and a robot control unit 16. Some or all of these functional units are realized by, for example, the CPU 20 executing various programs stored in the storage unit 22. Some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

画像取得部30は、カメラ10により撮像された撮像画像を取得し、取得した撮像画像を三次元位置姿勢導出部32に出力する。なお、画像取得部30は、取得した撮像画像を記憶部22に記憶し、三次元位置姿勢導出部32が記憶部22から撮像画像を読み込むものとしてもよい。三次元位置姿勢導出部32は、画像取得部30から取得した撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。そして、三次元位置姿勢導出部32は、導出した物体OBJの三次元位置及び姿勢をロボット制御部16へ出力する。   The image acquisition unit 30 acquires a captured image captured by the camera 10 and outputs the acquired captured image to the three-dimensional position / orientation deriving unit 32. Note that the image acquisition unit 30 may store the acquired captured image in the storage unit 22, and the three-dimensional position and orientation deriving unit 32 may read the captured image from the storage unit 22. The three-dimensional position / orientation deriving unit 32 derives the three-dimensional position and orientation of the object OBJ based on the captured image acquired from the image acquisition unit 30. Then, the 3D position / orientation deriving unit 32 outputs the derived 3D position and orientation of the object OBJ to the robot control unit 16.

ロボット制御部16は、三次元位置姿勢導出部32から取得した物体OBJの三次元位置及び姿勢に基づいて、ロボット2がハンドHND1によって物体OBJを把持するように、ロボット2を制御する。   Based on the three-dimensional position and orientation of the object OBJ acquired from the three-dimensional position and orientation deriving unit 32, the robot control unit 16 controls the robot 2 so that the robot 2 grips the object OBJ with the hand HND1.

ロボット制御部16は、登録手段と、把持手段と、移動手段と、補正手段と、組み付け手段と、を備えている。
登録手段は、物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を登録する(図10(A)参照)。
把持手段は、ハンドHND1で物体OBJを把持する。
移動手段は、物体OBJを把持した状態で、物体OBJの輪郭形状をカメラ10で撮像可能な位置に移動させる(図11参照)。
補正手段は、物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を補正する(図10(B)参照)。
組み付け手段は、物体OBJを組み付け面MSに組み付ける(図10(B)参照)。
The robot control unit 16 includes registration means, gripping means, moving means, correction means, and assembling means.
The registration unit registers the target position of the hand HND1 so that the position and orientation of the object OBJ is assembled to the assembly surface MS (see FIG. 10A).
The gripping means grips the object OBJ with the hand HND1.
The moving means moves the contour shape of the object OBJ to a position where it can be imaged by the camera 10 while holding the object OBJ (see FIG. 11).
The correcting unit corrects the target position of the hand HND1 so that the position and orientation of the object OBJ are assembled to the assembly surface MS (see FIG. 10B).
The assembling means assembles the object OBJ on the assembling surface MS (see FIG. 10B).

ロボット制御部16は、第1制御部と、第2制御部と、第3制御部と、第4制御部とを備えている。
第1制御部は、ハンドHND1の移動経路上に設定した確認位置(第1の点)で、カメラ10で撮像された、物体OBJを把持しないハンドHND1の画像を用いて位置姿勢情報(第1撮像情報)を算出する。
第2制御部は、移動経路上の確認位置と異なる位置に設定した目標位置(第2の点)で、カメラ10で撮像された、物体OBJを把持しないハンドHND1の画像を用いて位置姿勢情報(第2撮像情報)を算出する。
第3制御部は、確認位置で、カメラ10で撮像された、ハンドHND1に把持された物体OBJの画像を用いて位置姿勢情報(第3撮像情報)を算出する。
The robot control unit 16 includes a first control unit, a second control unit, a third control unit, and a fourth control unit.
The first control unit uses the image of the hand HND1 that is captured by the camera 10 and does not hold the object OBJ at the confirmation position (first point) set on the movement path of the hand HND1 (first position). Imaging information) is calculated.
The second control unit uses the image of the hand HND1 that is captured by the camera 10 and does not hold the object OBJ at the target position (second point) set to a position different from the confirmation position on the movement path. (Second imaging information) is calculated.
The third control unit calculates position / orientation information (third imaging information) using the image of the object OBJ captured by the camera 10 at the confirmation position and held by the hand HND1.

第4制御部は、各位置姿勢情報を予め設定されている各期待値と比較し、比較の結果に応じてずれ量を補正する各補正量を算出する。これによれば、確認位置と目標位置とで各位置姿勢情報を補正するので、これによって、組立時のずれを低減することができる。なお、補正量のデータベースをハンドHND1の移動経路(稼動範囲)にて取得してもよい。これによれば、誤差が少なくなり、物体OBJの把持後も、把持誤差を加味して組立が可能である。   The fourth control unit compares each position and orientation information with each expected value set in advance, and calculates each correction amount for correcting the shift amount according to the comparison result. According to this, since each position and orientation information is corrected by the confirmation position and the target position, it is possible to reduce deviation during assembly. Note that the correction amount database may be acquired from the movement route (operating range) of the hand HND1. According to this, the error is reduced, and the assembly can be performed in consideration of the gripping error even after gripping the object OBJ.

図4は、本実施形態に係るハンドHND1による物体OBJの把持方法の一例を説明する図である。図4の上段図は、ハンドHND1と設置面M上に設置された物体OBJとの間の位置関係を、設置面Mに対して真横から見た断面図である。また、図4の下段図は、ハンドHND1と設置面M上に設置された物体OBJとの間の位置関係を、設置面Mに対して真上(例えば、物体OBJが設置された面側)から見た図である。なお、設置面Mは、物体OBJが設置された面であれば、テーブル面のように鉛直方向に対して直交する面である必要はなく、例えば、壁面等でもよい。   FIG. 4 is a diagram for explaining an example of a method of gripping the object OBJ by the hand HND1 according to the present embodiment. 4 is a cross-sectional view of the positional relationship between the hand HND1 and the object OBJ installed on the installation surface M as viewed from the side with respect to the installation surface M. 4 shows the positional relationship between the hand HND1 and the object OBJ installed on the installation surface M directly above the installation surface M (for example, the surface side on which the object OBJ is installed). It is the figure seen from. The installation surface M need not be a surface orthogonal to the vertical direction like the table surface as long as the object OBJ is installed, and may be a wall surface, for example.

ハンドHND1は、図4に示すように、第1方向(x)と第2方向(y)とに並んで配置され、物体OBJを把持する先端部54と、先端部54に対して第1方向(x)及び第2方向(y)のそれぞれに直交する第3方向(z)の位置に配置された基端部56とを有する複数の爪部52を備えている。
ここで、図4を参照することにより、ハンドHND1による物体OBJの把持方法について説明する。
As shown in FIG. 4, the hand HND1 is arranged side by side in the first direction (x) and the second direction (y), and the tip portion 54 that grips the object OBJ, and the first direction with respect to the tip portion 54 A plurality of claw portions 52 having a base end portion 56 disposed at a position in a third direction (z) orthogonal to each of (x) and the second direction (y) is provided.
Here, a method of gripping the object OBJ by the hand HND1 will be described with reference to FIG.

まず、ロボット制御部16は、物体OBJの三次元位置及び姿勢に基づいて、ロボット2のハンドHND1を、設置面M上において図4の下段図で示した位置まで移動させる。ここで、図4の上下段図の座標軸は、設置面Mと物体OBJとの間の位置関係を示すための座標軸であって、ロボット座標系や撮像画像上の座標軸ではない。物体OBJが設置面M上に設置されている場合、図4の下段図で示したハンドHND1の位置は、物体OBJの真上である。そして、ロボット制御部16は、ハンドHND1を、図4の上段図の矢印が示す方向(z方向)に向けて移動させることで、物体OBJをハンドHND1によって把持できる場所まで移動させる。   First, the robot control unit 16 moves the hand HND1 of the robot 2 to the position shown in the lower diagram of FIG. 4 on the installation surface M based on the three-dimensional position and posture of the object OBJ. Here, the coordinate axes in the upper and lower stage diagrams of FIG. 4 are coordinate axes for indicating the positional relationship between the installation surface M and the object OBJ, and are not coordinate axes on the robot coordinate system or the captured image. When the object OBJ is installed on the installation surface M, the position of the hand HND1 shown in the lower diagram of FIG. 4 is directly above the object OBJ. Then, the robot control unit 16 moves the hand HND1 in a direction (z direction) indicated by an arrow in the upper diagram of FIG. 4 to move the object OBJ to a place where the hand HND1 can be gripped.

ロボット制御部16は、ハンドHND1が物体OBJを把持した後、所定の作業を行うようにロボット2を制御する。   The robot control unit 16 controls the robot 2 to perform a predetermined operation after the hand HND1 grips the object OBJ.

(事前準備)
図5は、本実施形態に係る確認位置でのハンドHND1を示す図である。図6は、本実施形態に係る目標位置でのハンドHND1を示す図である。
最初に、把持する物体OBJを確認する確認位置に、物体OBJを把持していない状態でハンドHND1を移動させ、ハンドHND1の位置姿勢情報(第1撮像情報)を取得する。これにより、把持する物体OBJを確認する位置におけるハンドHND1の位置姿勢情報を取得することができる。位置姿勢情報は、例えば3次元位置姿勢情報である。ハンドHND1の位置姿勢情報の確認では、図5に示すように、ハンドHND1の掌の位置姿勢を取得する。ハンドHND1の位置姿勢情報の確認は、図5の矢印Aに示す部分を計測してもよい。ハンドHND1を移動させる位置は、例えば、後述するカメラ10の光軸の交点と、カメラ10間の基線を結ぶ直線上が考えられる。順運動学で求めたハンドHND1の位置姿勢情報とカメラ座標系におけるハンドHND1の位置姿勢情報との関係を知ることができる。
(Advance preparation)
FIG. 5 is a diagram showing the hand HND1 at the confirmation position according to the present embodiment. FIG. 6 is a diagram illustrating the hand HND1 at the target position according to the present embodiment.
First, the hand HND1 is moved to a confirmation position where the object OBJ to be grasped is not grasped, and the position / orientation information (first imaging information) of the hand HND1 is acquired. Thereby, the position and orientation information of the hand HND1 at the position where the object OBJ to be grasped is confirmed can be acquired. The position / orientation information is, for example, three-dimensional position / orientation information. In the confirmation of the position and orientation information of the hand HND1, the position and orientation of the palm of the hand HND1 are acquired as shown in FIG. The position and orientation information of the hand HND1 may be confirmed by measuring the part indicated by the arrow A in FIG. The position where the hand HND1 is moved may be, for example, on a straight line connecting an intersection of optical axes of the camera 10 to be described later and a base line between the cameras 10. It is possible to know the relationship between the position and orientation information of the hand HND1 obtained by forward kinematics and the position and orientation information of the hand HND1 in the camera coordinate system.

次に、組み付け面MS付近の目標位置にハンドHND1を移動させ、ハンドHND1の位置姿勢情報(第2撮像情報)を取得する。ハンドHND1の位置姿勢情報の確認は、図6の矢印Bに示す部分を計測してもよい。また、組立を行う位置では、頭部のステレオカメラから、アームの遮蔽などにより、ハンドHND1を観測することが困難となる場合がある。そのため、図6に示すように、治具34の一部がカメラ10から観測可能となるような治具を利用する。例えば、治具34の一部にマーカー36を貼り、マーカー36をカメラ10で計測する。この場合、治具34の2つのマーカー36から直線を算出する。2方向で治具34を持たせ、2本の直線の交点を求めることにより、それをハンドHND1の位置とする。2直線から面が構成できるので、その面の方向をハンドHND1の掌の方向とすることができる。先と同様に、順運動学で求めたハンドHND1の位置姿勢情報とカメラ座標系におけるハンドHND1の位置姿勢情報との関係を知ることができる。これによれば、ハンドHND1の位置姿勢情報の算出を容易に行うことができる。   Next, the hand HND1 is moved to a target position near the assembly surface MS, and position and orientation information (second imaging information) of the hand HND1 is acquired. The position and orientation information of the hand HND1 may be confirmed by measuring the part indicated by the arrow B in FIG. In addition, at the assembly position, it may be difficult to observe the hand HND1 from the stereo camera on the head due to arm shielding or the like. Therefore, as shown in FIG. 6, a jig is used so that a part of the jig 34 can be observed from the camera 10. For example, the marker 36 is attached to a part of the jig 34 and the marker 36 is measured by the camera 10. In this case, a straight line is calculated from the two markers 36 of the jig 34. By holding the jig 34 in two directions and finding the intersection of two straight lines, it is set as the position of the hand HND1. Since the surface can be formed from two straight lines, the direction of the surface can be the palm direction of the hand HND1. Similarly to the above, it is possible to know the relationship between the position and orientation information of the hand HND1 obtained by forward kinematics and the position and orientation information of the hand HND1 in the camera coordinate system. According to this, it is possible to easily calculate the position and orientation information of the hand HND1.

(実際の動作時)
図7は、本実施形態に係る確認位置でのハンドHND1を示す図である。
物体OBJを把持した状態で、物体OBJを確認する確認位置にハンドHND1を移動させ、把持している物体OBJの位置姿勢情報(第3撮像情報)を取得する。これにより、カメラ座標系において、ハンドHND1の位置姿勢情報と把持している物体OBJの位置姿勢情報との関係を取得することができる。ハンドHND1の位置姿勢情報の確認では、図7に示すように、ハンドHND1の掌の位置姿勢を取得する。
(During actual operation)
FIG. 7 is a diagram showing the hand HND1 at the confirmation position according to the present embodiment.
While holding the object OBJ, the hand HND1 is moved to a confirmation position for checking the object OBJ, and position / orientation information (third imaging information) of the gripping object OBJ is acquired. Thereby, in the camera coordinate system, the relationship between the position and orientation information of the hand HND1 and the position and orientation information of the grasped object OBJ can be acquired. In the confirmation of the position and orientation information of the hand HND1, as shown in FIG. 7, the palm position and orientation of the hand HND1 are acquired.

さらに、事前準備で求めておいた順運動学で求めたハンドHND1の位置姿勢情報との関係を用いて、位置姿勢情報の補正を行う。なお、ロボットの繰り返し精度があると仮定している。   Further, the position and orientation information is corrected using the relationship with the position and orientation information of the hand HND1 obtained by forward kinematics obtained in advance preparation. It is assumed that there is robot repeatability.

次に、目標位置にハンドHND1の手先を移動させる。移動量は補正量を考慮して設定する。移動させた先は、事前準備で算出した補正量を考慮した位置姿勢となる。   Next, the hand of the hand HND1 is moved to the target position. The movement amount is set in consideration of the correction amount. The moved position is a position and orientation in consideration of the correction amount calculated in advance preparation.

なお、確認位置において、カメラ10で撮像されるハンドHND1の姿勢は、爪部52の先端部54側の第3方向(z)の位置にカメラ10が配置されていることが好ましい。これによれば、カメラ10の撮像方向に物体OBJの裏面(ハンドHND1や爪部52と重ならない面)を見せることができる。これにより、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。その結果、物体OBJの裏側の輪郭形状を撮像することができる。   Note that, at the confirmation position, the posture of the hand HND1 imaged by the camera 10 is preferably such that the camera 10 is disposed at a position in the third direction (z) on the distal end portion 54 side of the claw portion 52. According to this, it is possible to show the back surface of the object OBJ (the surface that does not overlap the hand HND1 or the claw portion 52) in the imaging direction of the camera 10. Thereby, there is no obstruction between the camera 10 and the object OBJ, and it is less likely that the object OBJ is hidden by the hand HND1 itself. As a result, the contour shape on the back side of the object OBJ can be imaged.

(実施例)
実施例として、ネジ締めプレートをネジ締めベースに組み込む作業を挙げる。
図8は、本実施形態に係るロボットのロボット制御部により実行される事前処理の流れの一例を示すフローチャートである。図9は、本実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャートである。図10は、本実施形態に係るハンドHND1の位置姿勢を示す図である。図10(A)はハンドHND1の目標位置を示す図、図10(B)はハンドHND1の位置姿勢の補正を示す図である。なお、物体OBJはネジ締めプレートであり、組み付け面MSはネジ締めベースの組み付け面である。また、Wはワールド座標であり、Tは座標変換を示している。
(Example)
As an embodiment, an operation of assembling a screw fastening plate into a screw fastening base will be described.
FIG. 8 is a flowchart illustrating an example of a flow of pre-processing executed by the robot control unit of the robot according to the present embodiment. FIG. 9 is a flowchart illustrating an example of the flow of the assembly process executed by the robot control unit of the robot according to the present embodiment. FIG. 10 is a diagram illustrating the position and orientation of the hand HND1 according to the present embodiment. FIG. 10A is a diagram illustrating a target position of the hand HND1, and FIG. 10B is a diagram illustrating correction of the position and orientation of the hand HND1. The object OBJ is a screw tightening plate, and the assembly surface MS is an assembly surface of the screw tightening base. W represents world coordinates, and T represents coordinate conversion.

以下、図8を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。以下では、ロボット2のハンドHND1は、ロボット制御部16により物体OBJの真上まで移動しているものとして説明する。   Hereinafter, a process performed when the robot control unit 16 assembles the object OBJ on the robot 2 on the assembly surface MS will be described with reference to FIG. In the following description, it is assumed that the hand HND1 of the robot 2 is moved to the position just above the object OBJ by the robot control unit 16.

まず、図8に示すように、ステップS10では、把持する物体OBJを確認する確認位置にハンドHND1を移動する。   First, as shown in FIG. 8, in step S10, the hand HND1 is moved to a confirmation position for confirming the object OBJ to be grasped.

次に、ステップS20では、ハンドHND1の確認位置(第1の点)の位置姿勢情報(第1撮像情報)を取得する。図10(B)に、WHND1´としてその作業を示している。これによれば、第1撮像情報が位置姿勢情報であるため、ハンドHND1の位置姿勢を容易に確認することができる。 Next, in step S20, position and orientation information (first imaging information) of the confirmation position (first point) of the hand HND1 is acquired. FIG. 10B shows the work as W THND1 ′ . According to this, since the first imaging information is position and orientation information, the position and orientation of the hand HND1 can be easily confirmed.

次に、ステップS30では、ハンドHND1の確認位置の位置姿勢情報を事前位置姿勢1として登録する。   Next, in step S30, the position and orientation information of the confirmation position of the hand HND1 is registered as the prior position and orientation 1.

次に、ステップS40では、把持する物体OBJを組付ける目標位置付近にハンドHND1を移動する。   Next, in step S40, the hand HND1 is moved near the target position where the object OBJ to be grasped is assembled.

次に、ステップS50では、ハンドHND1の目標位置(第2の点)の位置姿勢情報(第2撮像情報)を取得する。図10(B)に、WHND1としてその作業を示している。これによれば、第2撮像情報が位置姿勢情報であるため、ハンドHND1の位置姿勢を容易に確認することができる。 Next, in step S50, position and orientation information (second imaging information) of the target position (second point) of the hand HND1 is acquired. FIG. 10B shows the work as W THND1 . According to this, since the second imaging information is position and orientation information, the position and orientation of the hand HND1 can be easily confirmed.

次に、ステップS60では、ハンドHND1の目標位置の位置姿勢情報を事前位置姿勢2として登録する。   Next, in step S60, the position and orientation information of the target position of the hand HND1 is registered as the prior position and orientation 2.

以下、図9を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。以下では、ロボット2のハンドHND1は、ロボット制御部16により物体OBJの真上まで移動しているものとして説明する。   Hereinafter, a process performed when the robot control unit 16 assembles the object OBJ on the robot 2 on the assembly surface MS will be described with reference to FIG. 9. In the following description, it is assumed that the hand HND1 of the robot 2 is moved to the position just above the object OBJ by the robot control unit 16.

まず、図9に示すように、ステップS110では、物体OBJの登録を行う。具体的には、組み付け面MSに対する物体OBJの位置姿勢を指定する。図10(B)に、MSOBJとしてその作業を示している。ワールド座標Wでの組み付け面MSの位置姿勢を指定する。図10(B)に、WMSとしてその作業を示している。ワールド座標Wでの物体OBJの位置姿勢を算出する。例えば、WOBJWMS MSOBJとしてその作業を表すことができる。物体OBJの確認位置の位置姿勢情報を取得する。例えば、図10(B)に、WOBJ´としてその作業を示している。 First, as shown in FIG. 9, in step S110, registration of the object OBJ is performed. Specifically, the position and orientation of the object OBJ with respect to the assembly surface MS is designated. FIG. 10B shows the work as MS T OBJ . The position and orientation of the assembly surface MS at the world coordinate W is designated. In FIG. 10 (B), shows the work as W T MS. The position and orientation of the object OBJ at the world coordinates W are calculated. For example, it is possible to represent the work as W T OBJ = W T MS MS T OBJ. The position and orientation information of the confirmation position of the object OBJ is acquired. For example, FIG. 10B shows the work as W T OBJ ′ .

次に、ステップS120では、物体OBJを把持する。   Next, in step S120, the object OBJ is gripped.

次に、ステップS130では、把持している物体OBJを確認する確認位置にハンドHND1を移動する。   Next, in step S130, the hand HND1 is moved to a confirmation position for confirming the grasped object OBJ.

次に、ステップS140では、把持している物体OBJの位置姿勢情報(第3撮像情報)を取得する。これによれば、第3撮像情報が位置姿勢情報であるため、物体OBJの位置姿勢を容易に確認することができる。   Next, in step S140, position / orientation information (third imaging information) of the grasped object OBJ is acquired. According to this, since the third imaging information is the position and orientation information, the position and orientation of the object OBJ can be easily confirmed.

次に、ステップS150では、ハンドHND1の位置姿勢をハンドHND1の事前位置姿勢1を用いて補正する。ハンドHND1の事前位置姿勢1を用いてハンドHND1の確認位置の補正量を算出する。図10(B)に、THND1´としてその作業を示している。ハンドHND1の確認位置を補正する。例えば、THND1´ WHND1´としてその作業を表すことができる。 Next, in step S150, the position and orientation of the hand HND1 are corrected using the prior position and orientation 1 of the hand HND1. The correction amount of the confirmation position of the hand HND1 is calculated using the prior position and orientation 1 of the hand HND1. FIG. 10B shows the operation as T HND1 ′ . The confirmation position of the hand HND1 is corrected. For example, the operation can be expressed as T HND1 ′ W T HND1 ′ .

次に、ステップS160では、ハンドHND1の位置姿勢と把持している物体OBJの位置姿勢との関係を算出する。   Next, in step S160, the relationship between the position and orientation of the hand HND1 and the position and orientation of the grasped object OBJ is calculated.

次に、ステップS170では、把持している物体OBJを目標位置に移動させるハンドHND1の位置を算出する。物体OBJを目標位置に移動する変換を算出する。例えば、WOBJ´=TWOBJ 、 T=WOBJ´ WOBJ -1としてその作業を表すことができる。ハンドHND1の目標位置を算出する。例えば、WHND1=TTHND1´ WHND1´としてその作業を表すことができる。 Next, in step S170, the position of the hand HND1 that moves the grasped object OBJ to the target position is calculated. A conversion for moving the object OBJ to the target position is calculated. For example, it is possible to W T OBJ' = T W T OBJ , as T = W T OBJ' W T OBJ -1 representing that task. The target position of the hand HND1 is calculated. For example, it is possible to represent the work as W T HND1 = TT HND1' W T HND1'.

次に、ステップS180では、ハンドHND1の位置姿勢をハンドHND1の事前位置姿勢2を用いて補正する。ハンドHND1の事前位置姿勢2を用いてハンドHND1の目標位置の補正量を算出する。図10(B)に、THND1としてその作業を示している。ハンドHND1の目標位置を補正する。例えば、THND1 WHND1としてその作業を表すことができる。 Next, in step S180, the position and orientation of the hand HND1 are corrected using the prior position and orientation 2 of the hand HND1. The correction amount of the target position of the hand HND1 is calculated using the prior position and orientation 2 of the hand HND1. FIG. 10B shows the work as THND1 . The target position of the hand HND1 is corrected. For example, the work can be expressed as T HND1 W T HND1 .

次に、ステップS190では、ハンドHND1を補正した目標位置に移動する。   Next, in step S190, the hand HND1 is moved to the corrected target position.

次に、ステップS200では、組み付け動作を行う。これによれば、より理想に近い位置に、ネジ締めプレートを移動させることができる。   Next, in step S200, an assembling operation is performed. According to this, the screw fastening plate can be moved to a position closer to the ideal.

以上説明したように、本実施形態に係るロボット2は、ハンドHND1とハンドHND1が把持している物体OBJとの関係を、確認位置と目標位置とで各位置姿勢情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボット2、ロボット2の制御方法、及びロボット2の制御装置12を提供することができる。   As described above, the robot 2 according to the present embodiment calculates the position and orientation information of the relationship between the hand HND1 and the object OBJ held by the hand HND1 based on the confirmation position and the target position. , It is possible to reduce the deviation during assembly. Therefore, it is possible to provide the robot 2, the control method for the robot 2, and the control device 12 for the robot 2 that enable highly accurate assembly.

(第2実施形態)
本実施形態のロボット2は、把持した物体OBJを一旦カメラ10の撮像領域に、物体OBJの位置姿勢を変えて、撮像する点が、第1実施形態と異なっている。以下、第1実施形態と同じ構成部材には同一符号を付し、ここではそれらの説明を省略又は簡略化する。
(Second Embodiment)
The robot 2 of the present embodiment is different from the first embodiment in that the object OBJ that has been gripped is imaged by temporarily changing the position and orientation of the object OBJ to the imaging region of the camera 10. Hereinafter, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted or simplified here.

図11は、本実施形態に係るハンドHND1の移動位置を示す図である。
複数台のカメラ10は、2台のカメラ10から構成されてもよい。ハンドHND1に把持された物体OBJは、2台のカメラ10の光軸40の交点42から2台のカメラ10の位置を結ぶ直線48上におろした垂線44上にあってもよい。
FIG. 11 is a diagram illustrating a movement position of the hand HND1 according to the present embodiment.
The plurality of cameras 10 may be composed of two cameras 10. The object OBJ held by the hand HND1 may be on a vertical line 44 that is lowered on a straight line 48 connecting the positions of the two cameras 10 from the intersection 42 of the optical axes 40 of the two cameras 10.

また、ハンドHND1に把持された物体OBJの重心46は、2台のカメラ10の光軸40の交点42から2台のカメラ10の位置を結ぶ直線48上におろした垂線44上にあってもよい。   Further, the center of gravity 46 of the object OBJ gripped by the hand HND1 may be on a vertical line 44 drawn on a straight line 48 connecting the positions of the two cameras 10 from the intersection 42 of the optical axes 40 of the two cameras 10. Good.

さらに、物体OBJを把持したハンドHND1の爪部52の開閉方向は、2台のカメラ10の光軸40の交点42と、2台のカメラ10の位置とを含む平面50の法線方向であってもよい。これらによれば、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。   Further, the opening / closing direction of the claw portion 52 of the hand HND1 that holds the object OBJ is the normal direction of the plane 50 including the intersection 42 of the optical axes 40 of the two cameras 10 and the positions of the two cameras 10. May be. According to these, there is no shielding object between the camera 10 and the object OBJ, and it is less likely that the object OBJ is hidden by the hand HND1 itself.

以下、図12を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。
図12は、本実施形態に係るロボット2のロボット制御部16により実行される組み付け処理の流れの一例を示すフローチャートである。
Hereinafter, with reference to FIG. 12, a process performed by the robot control unit 16 when the object OBJ is assembled to the robot 2 on the assembly surface MS will be described.
FIG. 12 is a flowchart showing an example of the flow of the assembling process executed by the robot control unit 16 of the robot 2 according to this embodiment.

まず、図12に示すように、ステップS210では、登録工程として物体OBJを組み付け面MSに組み付ける位置姿勢となるように、図10(A)に示すように、ハンドHND1の目標位置を記憶部22に登録する。   First, as shown in FIG. 12, in step S210, as shown in FIG. 10A, the target position of the hand HND1 is stored in the storage unit 22 so as to be in a position / posture for assembling the object OBJ on the assembling surface MS as a registration process. Register with.

次に、ステップS220では、物体OBJと設置面Mとを検出するためのデータを記憶部22に登録する。又は、設置面Mに対する物体OBJの3次元位置姿勢を記憶部22に登録する。   Next, in step S <b> 220, data for detecting the object OBJ and the installation surface M is registered in the storage unit 22. Alternatively, the three-dimensional position and orientation of the object OBJ with respect to the installation surface M is registered in the storage unit 22.

次に、ステップS230では、設置面M、物体OBJの3次元位置姿勢を記憶部22より取得する。   Next, in step S230, the installation surface M and the three-dimensional position and orientation of the object OBJ are acquired from the storage unit 22.

次に、ステップS240では、把持工程としてハンドHND1で物体OBJを把持する。そして、把持している物体OBJをカメラ10で観測可能となる位置姿勢を算出する。   Next, in step S240, the object OBJ is gripped by the hand HND1 as a gripping process. Then, the position and orientation at which the grasped object OBJ can be observed with the camera 10 are calculated.

次に、ステップS250では、移動工程として物体OBJを把持した状態で、物体OBJをカメラ10で撮像可能な位置に移動させる。そして、把持している物体OBJを、カメラ10の前に移動させ、把持している物体OBJの3次元位置姿勢を検出する。   Next, in step S250, the object OBJ is moved to a position where it can be imaged by the camera 10 while the object OBJ is held as a moving process. Then, the gripping object OBJ is moved in front of the camera 10 to detect the three-dimensional position and orientation of the gripping object OBJ.

次に、ステップS260では、物体OBJの3次元位置姿勢をカメラ10より取得する。   Next, in step S260, the three-dimensional position and orientation of the object OBJ are acquired from the camera 10.

次に、ステップS270では、物体OBJを把持しているハンドHND1の位置姿勢を記憶部22より取得する。   Next, in step S270, the position and orientation of the hand HND1 holding the object OBJ is acquired from the storage unit 22.

次に、ステップS280では、物体OBJとハンドHND1の3次元位置姿勢の関係(設定値からのズレ)を取得する。   Next, in step S280, the relationship (the deviation from the set value) between the three-dimensional position and orientation of the object OBJ and the hand HND1 is acquired.

次に、ステップS290では、組み付け面MSの3次元位置姿勢を記憶部22より取得する。   Next, in step S290, the three-dimensional position and orientation of the assembly surface MS are acquired from the storage unit 22.

次に、ステップS300では、補正工程として物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を補正する。設定値からのズレを補正したハンドHND1の目標位置を算出する。把持している物体OBJが目標位置となるように、ハンドHND1の位置姿勢を変化させる。   Next, in step S300, the target position of the hand HND1 is corrected so that the position and orientation of the object OBJ are assembled to the assembly surface MS as a correction process. A target position of the hand HND1 in which the deviation from the set value is corrected is calculated. The position and orientation of the hand HND1 are changed so that the grasped object OBJ becomes the target position.

次に、ステップS310では、組み付け工程として物体OBJを組み付け面MSに組み付ける。物体OBJのハンドHND1に対する傾き(ズレ)をハンドHND1の位置姿勢の補正を行うことで、図10(B)に示すように、組み付ける際、物体OBJの組み付け面MSに対する傾きを最小限にすることができる。そして、終了する。   Next, in step S310, the object OBJ is assembled to the assembly surface MS as an assembly process. By correcting the position and orientation of the hand HND1 with respect to the inclination (displacement) of the object OBJ with respect to the hand HND1, as shown in FIG. 10B, the inclination of the object OBJ with respect to the assembly surface MS is minimized. Can do. And it ends.

以上説明したように、本実施形態に係るロボット2は、把持した物体OBJを一旦カメラ10の撮像領域に、物体OBJの位置姿勢を変えて、撮像する。これにより、撮影する際、物体OBJのロボット2のハンドHND1で隠れる量をできるだけ少ない状態で撮像することができる。そして、物体OBJのカメラ座標をワールド座標に変換することで、物体OBJとハンドHND1との位置関係を把握することができる。その結果、ロボット2の物体OBJ把持状態において、物体OBJとハンドHND1との位置ズレを補正して、誤差の少ない組み付けを行うことができる。   As described above, the robot 2 according to the present embodiment images the grasped object OBJ once in the imaging area of the camera 10 while changing the position and orientation of the object OBJ. Thereby, when photographing, it is possible to capture an image with the amount of the object OBJ hidden by the hand HND1 of the robot 2 as small as possible. Then, by converting the camera coordinates of the object OBJ into world coordinates, the positional relationship between the object OBJ and the hand HND1 can be grasped. As a result, when the robot 2 is gripping the object OBJ, it is possible to correct the positional deviation between the object OBJ and the hand HND1 and to perform assembly with little error.

ハンドHND1とカメラ10との位置姿勢の関係やカメラ10の視線方向が既知である場合に、ロボットが把持している物体OBJの状態を確認するためには、カメラ10の視線に入るように、物体OBJを移動させればよい。その際、カメラ10と物体OBJとの間にはできるだけ遮蔽物が少なく、ハンドHND1自体で物体OBJを隠すことが少ない方が望ましい。   When the relationship between the position and orientation of the hand HND1 and the camera 10 and the line-of-sight direction of the camera 10 are known, in order to check the state of the object OBJ held by the robot, the line of sight of the camera 10 is entered. The object OBJ may be moved. At this time, it is desirable that there are as few shields as possible between the camera 10 and the object OBJ, and it is preferable that the hand HND1 itself hides the object OBJ.

また、検出した物体OBJの位置姿勢とハンドHND1の位置姿勢との関係を比較することで、その関係がデータベースに登録されている期待されている関係からずれているかどうかを検出することができる。
さらに、撮像部も頭、腰の回転で移動可能にしたので、無理な姿勢を取ることなく、対象物を撮像できるようになり、対象物の位置、姿勢を正確に取得することができるようになる。
Further, by comparing the relationship between the detected position and orientation of the object OBJ and the position and orientation of the hand HND1, it is possible to detect whether or not the relationship deviates from the expected relationship registered in the database.
In addition, since the imaging unit can also be moved by rotating the head and waist, the object can be imaged without taking an unreasonable posture so that the position and posture of the object can be accurately acquired. Become.

なお、実施形態は上記に限定されず、以下のような形態で実施することもできる。
上記した実施形態において、ハンドHND1の爪部52の開閉方向と、撮像部10の光軸40の交点42と、2つのカメラ10位置とを含む平面50の法線が一致することに限定されず、例えば、把持状態によっては、両者のなす角が略90度となるようにしてもよい。
In addition, embodiment is not limited above, It can also implement with the following forms.
In the embodiment described above, the opening / closing direction of the claw portion 52 of the hand HND1, the intersection 42 of the optical axis 40 of the imaging unit 10, and the normal line of the plane 50 including the two camera 10 positions are not limited to coincide with each other. For example, depending on the gripping state, the angle between the two may be approximately 90 degrees.

また、検出される物体OBJの形状は既知であるので、物体OBJの一部の画像から物体OBJとハンドHND1との3次元位置姿勢の関係(設定値からのズレ)を取得してもよい。   Further, since the shape of the detected object OBJ is known, the relationship between the three-dimensional position and orientation (deviation from the set value) between the object OBJ and the hand HND1 may be acquired from a partial image of the object OBJ.

さらに、カメラ10の光軸40の交点42の算出は、光軸40同士が交わることは稀であることから、中点法などで算出してもよい。   Furthermore, the intersection 42 of the optical axis 40 of the camera 10 may be calculated by the midpoint method or the like because the optical axes 40 rarely intersect each other.

また、ビジュアルサーボと組み合わせることにより、ビジュアルサーボの動作開始位置が安定するので高精度の組立が期待できる。   In addition, when combined with the visual servo, the visual servo operation start position is stabilized, so high-precision assembly can be expected.

以上、ロボット2、ロボット2の制御方法、及びロボット2の制御装置12について、図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に他の任意の構成物が付加されていてもよい。   The robot 2, the control method of the robot 2, and the control device 12 of the robot 2 have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each part is the same. It can be replaced with any configuration having the above function. In addition, any other component may be added to the present invention.

2…ロボット 10…カメラ(撮像部) 12…制御装置 14…力センサー 16…ロボット制御部 20…CPU 22…記憶部 24…入力受付部 26…通信部 30…画像取得部 32…三次元位置姿勢導出部 34…治具 36…マーカー 40…光軸 42…交点 44…垂線 46…重心 48…直線 50…平面 52…爪部 54…先端部 56…基端部 ARM1,ARM2…アーム部 Bus…バス HND1,HND2…ハンド(把持部) M…設置面 MS…組み付け面 OBJ…物体(把持物)。   DESCRIPTION OF SYMBOLS 2 ... Robot 10 ... Camera (imaging part) 12 ... Control apparatus 14 ... Force sensor 16 ... Robot control part 20 ... CPU 22 ... Memory | storage part 24 ... Input reception part 26 ... Communication part 30 ... Image acquisition part 32 ... Three-dimensional position and orientation Lead-out part 34 ... Jig 36 ... Marker 40 ... Optical axis 42 ... Intersection 44 ... Vertical 46 ... Center of gravity 48 ... Linear 50 ... Plane 52 ... Claw part 54 ... Tip part 56 ... Base end part ARM1, ARM2 ... Arm part Bus ... Bus HND1, HND2 ... hand (gripping part) M ... installation surface MS ... assembly surface OBJ ... object (gripping object).

Claims (8)

把持部を有するロボットであって、
第1の点における把持物を把持しない前記把持部の第1撮像情報と、
前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
に基づいて動作し、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている期待値と比較し、比較の結果に応じてずれ量を補正する補正量を算出する第4制御部を有することを特徴とするロボット。
A robot having a gripping portion,
First imaging information of the gripper that does not grip the gripping object at the first point;
Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point;
Third imaging information of the grasped object grasped by the grasping unit at the first point;
It operates based on the,
A fourth control unit that compares the first imaging information, the second imaging information, and the third imaging information with a preset expected value and calculates a correction amount that corrects the shift amount according to the comparison result. robot, characterized in that it comprises a.
請求項1に記載のロボットにおいて、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報は、位置姿勢情報であることを特徴とするロボット。
The robot according to claim 1, wherein
The robot according to claim 1, wherein the first imaging information, the second imaging information, and the third imaging information are position and orientation information.
請求項1又は2に記載のロボットにおいて、
撮像部を有し、
前記把持部は、第1方向と第2方向とに並んで配置され、前記把持物を把持する先端部と、前記先端部に対して前記第1方向及び前記第2方向のそれぞれに直交する第3方向の位置に配置された基端部とを有する複数の爪部を有し、
前記第1の点において、前記撮像部で撮像される前記把持部の姿勢は、前記爪部の前記先端部側の前記第3方向の位置に前記撮像部が配置されていることを特徴とするロボット。
The robot according to claim 1 or 2 ,
Having an imaging unit,
The grip portion is arranged side by side in a first direction and a second direction, and a distal end portion that grips the gripped object and a first portion that is orthogonal to the first direction and the second direction with respect to the distal end portion. A plurality of claw portions having a base end portion disposed at a position in three directions;
In the first point, the posture of the gripping part imaged by the imaging part is characterized in that the imaging part is arranged at a position in the third direction on the tip side of the claw part. robot.
請求項に記載のロボットにおいて、
前記撮像部は、複数台設けられていることを特徴とするロボット。
The robot according to claim 3 , wherein
A robot characterized in that a plurality of the imaging units are provided.
請求項又はに記載のロボットにおいて、
前記撮像部は、ステレオカメラであることを特徴とするロボット。
The robot according to claim 3 or 4 ,
The robot according to claim 1, wherein the imaging unit is a stereo camera.
請求項1から5のいずれか一項に記載のロボットにおいて、
前記第2撮像情報は、前記把持部の形状又は前記把持部に設けられたマーカーの画像を用いていることを特徴とするロボット。
The robot according to any one of claims 1 to 5 ,
The robot according to claim 2, wherein the second imaging information uses a shape of the gripper or an image of a marker provided on the gripper.
把持部を有するロボットを制御するロボットの制御方法であって、
第1の点における把持物を把持しない前記把持部の第1撮像情報と、
前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
に基づいてロボットを制御し、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている期待値と比較し、比較の結果に応じてずれ量を補正する補正量を算出することを特徴とするロボットの制御方法。
A robot control method for controlling a robot having a gripping part,
First imaging information of the gripper that does not grip the gripping object at the first point;
Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point;
Third imaging information of the grasped object grasped by the grasping unit at the first point;
To control the robot based on the,
Comparing the first imaging information, the second imaging information, and the third imaging information with preset expected values, and calculating a correction amount for correcting a shift amount according to a comparison result. To control the robot.
把持部を有するロボットを制御するロボットの制御装置であって、
第1の点における把持物を把持しない前記把持部の第1撮像情報と、
前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
に基づいてロボットを制御し、
前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている期待値と比較し、比較の結果に応じてずれ量を補正する補正量を算出する第4制御部を有することを特徴とするロボットの制御装置。
A robot control device for controlling a robot having a gripping portion,
First imaging information of the gripper that does not grip the gripping object at the first point;
Second imaging information of the gripping part that does not grip the gripping object at a second point different from the first point;
Third imaging information of the grasped object grasped by the grasping unit at the first point;
To control the robot based on the,
A fourth control unit that compares the first imaging information, the second imaging information, and the third imaging information with a preset expected value and calculates a correction amount that corrects the shift amount according to the comparison result. control apparatus for a robot, characterized in that it comprises a.
JP2015034917A 2014-06-02 2015-02-25 ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE Expired - Fee Related JP6578671B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015034917A JP6578671B2 (en) 2015-02-25 2015-02-25 ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE
CN201510272306.7A CN105313127A (en) 2014-06-02 2015-05-25 Robot, control method of robot, and control device of robot
US14/725,421 US9586321B2 (en) 2014-06-02 2015-05-29 Robot, control method of robot, and control device of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015034917A JP6578671B2 (en) 2015-02-25 2015-02-25 ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE

Publications (2)

Publication Number Publication Date
JP2016155194A JP2016155194A (en) 2016-09-01
JP6578671B2 true JP6578671B2 (en) 2019-09-25

Family

ID=56824612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015034917A Expired - Fee Related JP6578671B2 (en) 2014-06-02 2015-02-25 ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE

Country Status (1)

Country Link
JP (1) JP6578671B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4134209A1 (en) * 2021-08-13 2023-02-15 Kabushiki Kaisha Toshiba Robot hand, handling system, robot hand control device, method for controlling robot hand, program, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201800863D0 (en) * 2018-01-19 2018-03-07 Ocado Innovation Ltd A grasping affordance for use in a robot system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0197590A (en) * 1987-10-09 1989-04-17 Daihatsu Motor Co Ltd Detector for quantity of gravity positional displacement of robot
JP4289619B2 (en) * 2004-09-15 2009-07-01 富士フイルム株式会社 Tool position correction method for articulated robots

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4134209A1 (en) * 2021-08-13 2023-02-15 Kabushiki Kaisha Toshiba Robot hand, handling system, robot hand control device, method for controlling robot hand, program, and storage medium

Also Published As

Publication number Publication date
JP2016155194A (en) 2016-09-01

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
US9586321B2 (en) Robot, control method of robot, and control device of robot
JP6468741B2 (en) Robot system and robot system calibration method
US10099380B2 (en) Robot, robot control device, and robot system
CN109227532B (en) Robot control device and system thereof, robot and camera correction method
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP2016185572A (en) Robot, robot control device, and robot system
JP6572262B2 (en) Teaching position correcting device and teaching position correcting method
JP4837116B2 (en) Robot system with visual sensor
US9884425B2 (en) Robot, robot control device, and robotic system
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP6661028B2 (en) Work position correction method
JP6885856B2 (en) Robot system and calibration method
CN106476015B (en) Robot, control device, and robot system
JP6578671B2 (en) ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE
KR20070122271A (en) System for controlling position of robot and method for controlling thereof
JP2013082041A (en) Robot
JP2013013987A (en) Robot system
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP2016120558A (en) Robot and robot system
JP2015226954A (en) Robot, control method of the same and control unit of the same
JP2016203282A (en) Robot with mechanism for changing end effector attitude
CN114945450A (en) Robot system
WO2022124232A1 (en) Image processing system and image processing method
WO2023013739A1 (en) Robot control device, robot control system, and robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180905

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190812

R150 Certificate of patent or registration of utility model

Ref document number: 6578671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees