JP2015221485A - Robot, robot system, control unit and control method - Google Patents

Robot, robot system, control unit and control method Download PDF

Info

Publication number
JP2015221485A
JP2015221485A JP2014107444A JP2014107444A JP2015221485A JP 2015221485 A JP2015221485 A JP 2015221485A JP 2014107444 A JP2014107444 A JP 2014107444A JP 2014107444 A JP2014107444 A JP 2014107444A JP 2015221485 A JP2015221485 A JP 2015221485A
Authority
JP
Japan
Prior art keywords
target
robot
image
work
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014107444A
Other languages
Japanese (ja)
Other versions
JP6455869B2 (en
Inventor
高志 南本
Takashi Minamimoto
高志 南本
一弘 小菅
Kazuhiro Kosuge
一弘 小菅
橋本 浩一
Koichi Hashimoto
浩一 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Seiko Epson Corp
Original Assignee
Tohoku University NUC
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Seiko Epson Corp filed Critical Tohoku University NUC
Priority to JP2014107444A priority Critical patent/JP6455869B2/en
Publication of JP2015221485A publication Critical patent/JP2015221485A/en
Application granted granted Critical
Publication of JP6455869B2 publication Critical patent/JP6455869B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot capable of acquiring information of teaching contents without causing a considerable error.SOLUTION: A robot includes an arm and a control unit activating the arm. The control unit receives a plurality of first images obtained by imaging a work object in time series, extracts a second image from the plurality of first images when a motion state of the work object is changed and activates the arm by a visual servo by using the second image extracted.

Description

この発明は、ロボット、ロボットシステム、制御装置、及び制御方法に関する。   The present invention relates to a robot, a robot system, a control device, and a control method.

撮像部により撮像された撮像画像に基づいたビジュアルサーボによってロボットを動作させる技術が研究・開発されている。そして、ロボットを動作させるためには、予め当該動作をロボットに教示する必要がある。   A technique for operating a robot by visual servoing based on a captured image captured by an imaging unit has been researched and developed. In order to operate the robot, it is necessary to instruct the robot in advance of the operation.

教示する方法としては、例えば、特許文献1に記載の方法が考えられる。特許文献1では、教示者が3次元ポインティングデバイスを通してワークを直接操作し、作業を実施することで得られる教示データを順次入力している。   As a teaching method, for example, the method described in Patent Document 1 can be considered. In Patent Document 1, a teacher directly operates a work through a three-dimensional pointing device and sequentially inputs teaching data obtained by performing the work.

特開平11−85240号公報JP 11-85240 A

しかしながら、この教示方法では、3次元ポインティングデバイスを用いてワークの位置及び姿勢を算出するため、3次元ポインティングデバイスの位置及び姿勢やワークの位置及び姿勢を正確に把握する必要がある。そのため、それらの位置及び姿勢が正確に把握できなければ、ロボットへの動作の教示内容に大きな誤差が生じてしまうおそれがある。   However, in this teaching method, since the position and posture of the workpiece are calculated using the three-dimensional pointing device, it is necessary to accurately grasp the position and posture of the three-dimensional pointing device and the position and posture of the workpiece. For this reason, if the position and orientation of the robot cannot be accurately grasped, a large error may occur in the teaching content of the operation to the robot.

そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、大きな誤差なく教示内容の情報を取得することができるロボット、ロボットシステム、制御装置、及び制御方法を提供する。   Therefore, the present invention has been made in view of the above-described problems of the prior art, and provides a robot, a robot system, a control apparatus, and a control method that can acquire information on teaching contents without a large error.

本発明の一態様は、アームと、前記アームを動作させる制御装置と、を含み、前記制御装置は、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した前記第2画像を用いて、ビジュアルサーボにより前記アームを動作させる、ロボットである。
この構成により、ロボットは、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の第1画像から、作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボットは、大きな誤差なく教示内容の情報を取得することができる。その結果、ロボットは、教示された動作をビジュアルサーボによって行うことができる。
One aspect of the present invention includes an arm and a control device that operates the arm, and the control device receives a plurality of first images obtained by imaging a movement of a work object in time series, and a plurality of the first images. A robot that extracts a second image when the motion state of the work object changes from one image, and operates the arm by visual servoing using the extracted second image.
With this configuration, the robot receives a plurality of first images obtained by imaging the movement of the work object in time series, and extracts a second image when the movement state of the work object changes from the plurality of first images. The arm is operated by visual servoing using the extracted second image. Thereby, the robot can acquire the information of the teaching content without a large error. As a result, the robot can perform the taught motion by the visual servo.

また、本発明の他の態様は、ロボットにおいて、前記作業対象物の運動状態は、前記作業対象物の移動状態である、構成が用いられてもよい。
この構成により、ロボットは、作業対象物の移動状態が変化したときの第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボットは、作業対象物の移動状態が変化した時の第2画像に基づく教示内容を取得することができる。
According to another aspect of the present invention, in the robot, a configuration in which the movement state of the work object is a movement state of the work object may be used.
With this configuration, the robot extracts the second image when the movement state of the work object changes, and uses the extracted second image to operate the arm by visual servo. Thereby, the robot can acquire the teaching content based on the second image when the movement state of the work object changes.

また、本発明の他の態様は、ロボットにおいて、前記作業対象物の移動状態が変化した時の前記第2画像は、前記作業対象物の速度が変化した時の画像である、構成が用いられてもよい。
この構成により、ロボットは、作業対象物の速度が変化した時の画像を抽出し、抽出した画像を用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボットは、作業対象物の速度が変化した時の第2画像に基づく教示内容を取得することができる。
According to another aspect of the present invention, in the robot, the second image when the movement state of the work object is changed is an image when the speed of the work object is changed. May be.
With this configuration, the robot extracts an image when the speed of the work target changes, and uses the extracted image to operate the arm by visual servo. Thereby, the robot can acquire the teaching content based on the second image when the speed of the work object changes.

また、本発明の他の態様は、ロボットにおいて、前記作業対象物の運動状態は、前記作業対象物の接触状態である、構成が用いられてもよい。
この構成により、ロボットは、作業対象物の接触状態が変化した時の第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボットは、作業対象物の接触状態が変化した時の第2画像に基づく教示内容を取得することができる。
According to another aspect of the present invention, in the robot, a configuration in which the motion state of the work object is a contact state of the work object may be used.
With this configuration, the robot extracts the second image when the contact state of the work object changes, and uses the extracted second image to operate the arm by visual servo. Thereby, the robot can acquire the teaching content based on the second image when the contact state of the work object changes.

また、本発明の他の態様は、ロボットにおいて、前記第2画像は、入力受付部から入力された複数の前記第1画像から選択された画像である、構成が用いられてもよい。
この構成により、ロボットは、入力受付部から入力された複数の第1画像を第2画像として用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボットは、ユーザーが所望する教示内容を容易に取得することができる。
According to another aspect of the present invention, in the robot, the second image may be an image selected from a plurality of the first images input from an input receiving unit.
With this configuration, the robot operates the arm by visual servo using the plurality of first images input from the input receiving unit as the second image. Thereby, the robot can easily acquire the teaching content desired by the user.

また、本発明の他の態様は、撮像部と、アームを備えるロボットと、前記アームを動作させる制御装置と、を具備し、前記制御装置は、作業対象物の移動を前記撮像部によって時系列に撮像された複数の第1画像を受け、複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した前記第2画像を用いて、ビジュアルサーボにより前記アームを動作させる、ロボットシステムである。
この構成により、ロボットシステムは、作業対象物の移動を撮像部によって時系列に撮像された複数の第1画像を受け、複数の第1画像から、作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボットシステムは、大きな誤差なく教示内容の情報を取得することができる。
According to another aspect of the present invention, an imaging unit, a robot including an arm, and a control device that operates the arm are provided. The control device performs time series movement of a work object by the imaging unit. Receiving a plurality of first images picked up, extracting a second image when the movement state of the work object changes from the plurality of first images, and using the extracted second images, The robot system operates the arm by a servo.
With this configuration, the robot system receives a plurality of first images captured in time series by the imaging unit for the movement of the work object, and the first motion when the motion state of the work object changes from the plurality of first images. Two images are extracted, and the arm is operated by visual servoing using the extracted second image. Thereby, the robot system can acquire the information of the teaching content without a large error.

また、本発明の他の態様は、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した前記第2画像を用いて、ビジュアルサーボによりロボットのアームを動作させる、制御装置である。
この構成により、制御装置は、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の第1画像から、作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりロボットのアームを動作させる。これにより、制御装置は、大きな誤差なく教示内容の情報を取得することができる。
According to another aspect of the present invention, a plurality of first images obtained by chronologically capturing the movement of the work object are received, and the movement state of the work object changes from the plurality of first images. The control apparatus extracts two images and uses the extracted second image to operate a robot arm by visual servo.
With this configuration, the control device receives a plurality of first images obtained by capturing the movement of the work object in time series, and extracts a second image when the movement state of the work object changes from the plurality of first images. Then, using the extracted second image, the robot arm is operated by visual servo. Thereby, the control apparatus can acquire the information on the teaching content without a large error.

また、本発明の他の態様は、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した前記第2画像を用いて、ビジュアルサーボによりロボットのアームを動作させる、制御方法である。
この構成により、制御方法は、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の第1画像から、作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりロボットのアームを動作させる。これにより、制御方法は、大きな誤差なく教示内容の情報を取得することができる。
According to another aspect of the present invention, a plurality of first images obtained by chronologically capturing the movement of the work object are received, and the movement state of the work object changes from the plurality of first images. In this control method, two images are extracted and the robot arm is operated by visual servoing using the extracted second image.
With this configuration, the control method receives a plurality of first images obtained by capturing the movement of the work object in time series, and extracts a second image when the motion state of the work object changes from the plurality of first images. Then, using the extracted second image, the robot arm is operated by visual servo. Thereby, the control method can acquire the information of the teaching content without a large error.

以上により、ロボット、ロボットシステム、制御装置、及び制御方法は、作業対象物の移動を時系列に撮像した複数の第1画像を受け、複数の第1画像から、作業対象物の運動状態が変化したときの第2画像を抽出し、抽出した第2画像を用いて、ビジュアルサーボによりアームを動作させる。これにより、ロボット、ロボットシステム、制御装置、及び制御方法は、大きな誤差なく教示内容の情報を取得することができる。   As described above, the robot, the robot system, the control device, and the control method receive a plurality of first images obtained by capturing the movement of the work object in time series, and the motion state of the work object changes from the plurality of first images. The second image is extracted, and the arm is operated by visual servo using the extracted second image. Thereby, the robot, the robot system, the control device, and the control method can acquire the information on the teaching content without a large error.

第1実施形態に係るロボットシステム1の一例を示す構成図である。It is a lineblock diagram showing an example of robot system 1 concerning a 1st embodiment. 制御装置30のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a control device 30. FIG. 制御装置30の機能構成の一例を示す図である。3 is a diagram illustrating an example of a functional configuration of a control device 30. FIG. 制御部36による目標画像を抽出する処理の流れの一例を示すフローチャートである。7 is a flowchart illustrating an example of a flow of processing for extracting a target image by a control unit. 第1撮像画像の異なる時刻におけるフレームを例示する図である。It is a figure which illustrates the frame in the time from which a 1st captured image differs. 第1撮像画像から目標画像として抽出されたフレームを例示する図である。It is a figure which illustrates the flame | frame extracted from the 1st captured image as a target image. ロボットシステム1において使用する座標系を例示する図である。2 is a diagram illustrating a coordinate system used in the robot system 1. FIG. 制御部36が目標画像に基づくビジュアルサーボによってロボット20を動作させる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process in which the control part 36 operates the robot 20 by the visual servo based on a target image. 制御部36のロボット制御部42が行う目標画像に基づいたロボット制御処理の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a flow of robot control processing based on a target image performed by a robot control unit of a control unit. 第2実施形態に係るロボットシステム2の一例を示す構成図である。It is a block diagram which shows an example of the robot system 2 which concerns on 2nd Embodiment.

<第1実施形態>
以下、本発明の第1実施形態について、図面を参照して説明する。図1は、第1実施形態に係るロボットシステム1の一例を示す構成図である。ロボットシステム1は、第1撮像部11と、第2撮像部12と、ロボット20と、制御装置30を具備する。
<First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram illustrating an example of a robot system 1 according to the first embodiment. The robot system 1 includes a first imaging unit 11, a second imaging unit 12, a robot 20, and a control device 30.

ロボットシステム1は、第1撮像部11が、作業対象M1が組付対象O1に組み付けられる様子を時系列に撮像した複数の画像(複数の第1画像)として撮像し、撮像された複数の画像に基づいて作業対象M2を組付対象O2に組み付ける作業に係る動作を制御装置30に教示する。作業対象M1は、組付対象O1へ所定の状態で組み付けられることで使用される部材であり、例えば、プラグである。作業対象M2は、組付対象O2へ所定の状態で組み付けられることで使用される部材であり、例えば、プラグである。なお、作業対象M1と作業対象M2は、同じ形状の部材であるが、大きさは同じでもよく、異なっていてもよい。また、作業対象M1と作業対象M2は、それぞれ作業対象物の一例である。なお、本実施形態では、時系列に撮像した複数の画像の一例として、複数の静止画像から構成される動画像を用いて説明する。   In the robot system 1, the first imaging unit 11 captures a plurality of images (a plurality of first images) captured in time series as the work target M <b> 1 is assembled to the assembly target O <b> 1. The control device 30 is instructed to perform an operation related to the work of assembling the work object M2 to the assembling object O2. The work target M1 is a member used by being assembled to the assembly target O1 in a predetermined state, and is, for example, a plug. The work target M2 is a member used by being assembled to the assembly target O2 in a predetermined state, and is, for example, a plug. The work target M1 and the work target M2 are members having the same shape, but the sizes may be the same or different. The work target M1 and the work target M2 are examples of work objects, respectively. In the present embodiment, a description will be given using a moving image composed of a plurality of still images as an example of a plurality of images captured in time series.

組付対象O1は、作業対象M1が所定の状態で組み付けられることで使用される部材であり、例えば、コンセントである。組付対象O2は、作業対象M2が所定の状態で組み付けられることで使用される部材であり、例えば、コンセントである。なお、組付対象O1と組付対象O2は、同じ形状の部材であるが、大きさは同じでもよく、異なっていてもよい。また、作業対象M1と作業対象M2の大きさが異なっていた場合、組付対象O1と組付対象O2の大きさの比率は、作業対象M1と作業対象M2の大きさの比率と同じである方が好ましい。   The assembly target O1 is a member used when the work target M1 is assembled in a predetermined state, and is, for example, an outlet. The assembly target O2 is a member used when the work target M2 is assembled in a predetermined state, and is, for example, an outlet. The assembly target O1 and the assembly target O2 are members having the same shape, but the sizes may be the same or different. When the size of the work target M1 and the work target M2 are different, the ratio of the size of the assembly target O1 and the assembly target O2 is the same as the ratio of the size of the work target M1 and the work target M2. Is preferred.

以下では、上記の教示の一例として、ユーザーUが手を用いて作業対象M1を組付対象O1に組み付ける様子を第1撮像部11により撮像する場合について説明するが、ユーザーUが手を用いて組み付けるのに代えて、他の何らかの方法によって組み付ける様子を第1撮像部11により撮像してもよい。   Hereinafter, as an example of the above teaching, a case where the user U uses the hand to capture the work target M1 to the assembly target O1 will be described with respect to the first imaging unit 11, but the user U uses the hand. Instead of assembling, the first imaging unit 11 may image the state of assembling by some other method.

ロボットシステム1は、制御装置30に教示された動作に基づいて作業対象M2を組付対象O2に組み付ける作業をロボット20に行わせる。この時、ロボットシステム1は、第2撮像部12により撮像された撮像画像に基づいてビジュアルサーボによりロボット20を制御する。なお、以下の説明では、作業対象M2は、予めロボット20の把持部HND(エンドエフェクター)に把持されていることを前提とするが、予め作業対象M2が把持部HNDに把持されていない状態であってもよい。その場合、ロボットシステム1は、第2撮像部12により撮像された撮像画像に基づいて作業対象M2の位置及び姿勢を検出し、検出された位置及び姿勢に基づいて作業対象M2を把持する。   The robot system 1 causes the robot 20 to perform the work of assembling the work object M2 to the assembly object O2 based on the operation taught to the control device 30. At this time, the robot system 1 controls the robot 20 by visual servoing based on the captured image captured by the second imaging unit 12. In the following description, it is assumed that the work target M2 is gripped in advance by the gripping unit HND (end effector) of the robot 20, but the work target M2 is not gripped by the gripping unit HND in advance. There may be. In this case, the robot system 1 detects the position and orientation of the work target M2 based on the captured image captured by the second imaging unit 12, and holds the work target M2 based on the detected position and orientation.

第1撮像部11は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、第1撮像部11は、2台のカメラによって構成されるステレオカメラであるが、例えば、3台以上のカメラによって構成されてもよく、1台のカメラにより二次元画像を撮像する構成であってもよい。   The first imaging unit 11 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an imaging element that converts collected light into an electrical signal. The first imaging unit 11 is a stereo camera configured by two cameras. For example, the first imaging unit 11 may be configured by three or more cameras, and configured to capture a two-dimensional image by one camera. There may be.

第1撮像部11は、ケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、第1撮像部11と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。第1撮像部11は、ユーザーUが把持している作業対象M1と、ユーザーUが把持している組付対象O1であってユーザーUにより作業対象M1が組み付けられる組付対象O1とが含まれる範囲を撮像可能な位置に設置されている。以下では、説明の便宜上、第1撮像部11により撮像された動画像を、第1撮像画像と称して説明する。   The 1st imaging part 11 is connected with the control apparatus 30 via the cable so that communication is possible. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The first imaging unit 11 and the control device 30 may be configured to be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). The first imaging unit 11 includes a work target M1 gripped by the user U and an assembly target O1 that is the assembly target O1 gripped by the user U and to which the work target M1 is assembled by the user U. It is installed at a position where the range can be imaged. Hereinafter, for convenience of explanation, the moving image captured by the first imaging unit 11 will be referred to as a first captured image.

第2撮像部12は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。また、第2撮像部12は、2台のカメラによって構成されるステレオカメラであるが、例えば、3台以上のカメラによって構成されてもよく、1台のカメラにより二次元画像を撮像する構成であってもよい。   The second imaging unit 12 is, for example, a camera that includes a CCD, a CMOS, or the like that is an imaging device that converts collected light into an electrical signal. The second imaging unit 12 is a stereo camera configured by two cameras. For example, the second imaging unit 12 may be configured by three or more cameras, and configured to capture a two-dimensional image by one camera. There may be.

第2撮像部12は、ケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第2撮像部12と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。   The second imaging unit 12 is connected to the control device 30 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The second imaging unit 12 and the control device 30 may be configured to be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2撮像部12は、ロボット20と、ロボット20の把持部HNDが把持している作業対象M2と、ロボット20により作業対象M2が組み付けられる組付対象O2が含まれる範囲を撮像可能な位置に設置されている。組付対象O2は、図1に示したように、ロボット20により作業対象M2を組み付けることが可能な範囲で、ロボット20から離れた位置に治具等によって予め設置されている。以下では、説明の便宜上、第2撮像部12により撮像された撮像画像を、第2撮像画像と称して説明する。なお、第2撮像画像は、動画像であってもよく、静止画像であってもよい。   The second imaging unit 12 is located at a position where the range including the robot 20, the work target M2 gripped by the gripping unit HND of the robot 20, and the assembly target O2 to which the work target M2 is assembled by the robot 20 can be captured. is set up. As shown in FIG. 1, the assembly target O2 is set in advance by a jig or the like at a position away from the robot 20 within a range in which the work target M2 can be assembled by the robot 20. Hereinafter, for convenience of explanation, the captured image captured by the second imaging unit 12 will be referred to as a second captured image. Note that the second captured image may be a moving image or a still image.

ロボット20は、例えば、把持部HNDと、力センサー22と、マニピュレーターMNPと、図示しない複数のアクチュエーターを備えた単腕ロボットである。なお、マニピュレーターMNPは、アームの一例である。また、ロボットシステム1は、単腕ロボットを具備する構成に代えて、双腕ロボットを具備する構成であってもよい。   The robot 20 is, for example, a single-arm robot including a gripping unit HND, a force sensor 22, a manipulator MNP, and a plurality of actuators (not shown). The manipulator MNP is an example of an arm. Further, the robot system 1 may be configured to include a dual-arm robot instead of the configuration including the single-arm robot.

ロボット20の腕は、6軸垂直多関節型となっており、支持台とマニピュレーターMNPと把持部HNDとがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びマニピュレーターMNPを備えた腕によって行われるロボット20の動作について説明する。   The arm of the robot 20 is a 6-axis vertical articulated type, and can operate with 6 degrees of freedom by an operation in which the support base, the manipulator MNP, and the gripper HND are linked by an actuator. The arm of the robot 20 may operate with 5 degrees of freedom (5 axes) or less, or may operate with 7 degrees of freedom (7 axes) or more. Below, the operation | movement of the robot 20 performed with the arm provided with the holding part HND and the manipulator MNP is demonstrated.

ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。   The robot 20 is communicably connected to the control device 30 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The robot 20 and the control device 30 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). Further, in the robot system 1, the robot 20 is configured to be connected to the control device 30 installed outside the robot 20 as shown in FIG. The structure built in 20 may be sufficient.

ロボット20の把持部HNDは、物体を把持可能な爪部を備える。
力センサー22は、ロボット20の把持部HNDとマニピュレーターMNPとの間に備えられており、把持部HND(あるいは、把持部HNDに把持された作業対象M2)に作用した力やモーメントを検出する。力センサー22は、検出した力やモーメントを示す情報を、通信により制御装置30へ出力する。力センサー22により検出された力やモーメントを示す情報は、例えば、制御装置30によるロボット20のコンプライアントモーション制御に用いられる。
The grip part HND of the robot 20 includes a claw part that can grip an object.
The force sensor 22 is provided between the gripping part HND of the robot 20 and the manipulator MNP, and detects a force and a moment that act on the gripping part HND (or the work target M2 gripped by the gripping part HND). The force sensor 22 outputs information indicating the detected force and moment to the control device 30 by communication. Information indicating the force and moment detected by the force sensor 22 is used for compliant motion control of the robot 20 by the control device 30, for example.

ロボット20は、制御装置30から制御信号を取得し、取得した制御信号に基づいて、ロボット20の把持部HNDにより把持された作業対象M2をマニピュレーターMNPによって現在位置から移動させ、組付対象O2に組み付ける作業に係る動作を行う。作業対象M2を組付対象O2に組み付ける作業に係る動作とは、例えば、並進移動や回転等である。また、作業対象M2を組付対象O2に組み付ける作業は、少なくとも1つ以上の動作によって構成される。   The robot 20 acquires a control signal from the control device 30, and based on the acquired control signal, moves the work target M2 gripped by the gripping unit HND of the robot 20 from the current position by the manipulator MNP, and sets the assembly target O2. Performs operations related to assembly work. The operation related to the work for assembling the work object M2 to the assembly object O2 is, for example, translational movement or rotation. Further, the work of assembling the work object M2 to the assembly object O2 includes at least one operation.

制御装置30は、第1撮像画像に基づいて教示された動作によってロボット20が作業対象M2を組付対象O2に組み付けるように制御する。より具体的には、制御装置30は、第1撮像部11により撮像された第1撮像画像(動画像)から、少なくとも1フレーム以上の目標画像(第2画像)を抽出する。目標画像とは、ビジュアルサーボにおけるテンプレート画像であり、例えば、ロボット20に作業対象M2を移動させた場合に実現させたい位置及び姿勢であって、作業対象M2と組付対象O2の間の相対的な位置及び姿勢(以下、作業対象M2と組付対象O2の状態と称する)を表す画像である。制御装置30は、抽出された順に目標画像を読み込み、読み込まれた目標画像に基づくビジュアルサーボを行う。   The control device 30 controls the robot 20 to assemble the work target M2 to the assembly target O2 by the operation taught based on the first captured image. More specifically, the control device 30 extracts a target image (second image) of at least one frame from the first captured image (moving image) captured by the first imaging unit 11. The target image is a template image in visual servoing, for example, a position and posture to be realized when the work target M2 is moved by the robot 20, and is a relative between the work target M2 and the assembly target O2. It is an image showing a correct position and posture (hereinafter referred to as a state of the work target M2 and the assembly target O2). The control device 30 reads target images in the order of extraction, and performs visual servoing based on the read target images.

そして、制御装置30は、読み込まれた目標画像に基づいて、作業対象M2と組付対象O2の状態を、目標画像が表す状態であって作業対象M2と組付対象O2の状態になるように作業対象M2をロボット20に移動させる。例えば、第1撮像画像から目標画像が3つ抽出された場合(以下、それぞれを時系列順に第1〜第3目標画像と称する)、制御装置30は、まず第1目標画像をテンプレート画像として読み込み、読み込まれた第1目標画像に基づくビジュアルサーボによって、目標画像が表す状態であって作業対象M2と組付対象O2の状態が実現されるように作業対象M2をロボット20に移動させる。   Then, based on the read target image, the control device 30 is configured so that the state of the work target M2 and the assembly target O2 is the state represented by the target image and the state of the work target M2 and the assembly target O2. The work target M2 is moved to the robot 20. For example, when three target images are extracted from the first captured image (hereinafter, referred to as first to third target images in time series order), the control device 30 first reads the first target image as a template image. Then, by the visual servo based on the read first target image, the work target M2 is moved to the robot 20 so that the state represented by the target image and the state of the work target M2 and the assembly target O2 is realized.

その後、制御装置30は、第2目標画像を次のテンプレート画像として読み込み、読み込まれた第2目標画像に基づくビジュアルサーボによって、目標画像が表す状態であって作業対象M2と組付対象O2の状態が実現されるように作業対象M2をロボット20に移動させる。そして、制御装置30は、最後に第3目標画像をテンプレート画像として読み込み、読み込まれた第3目標画像に基づくビジュアルサーボによって、目標画像が表す状態であって作業対象M2と組付対象O2の状態が実現されるように作業対象M2をロボット20に移動させる。   Thereafter, the control device 30 reads the second target image as the next template image, and the state represented by the target image by the visual servo based on the read second target image, and the states of the work target M2 and the assembly target O2 The work target M2 is moved to the robot 20 so that is realized. Then, the control device 30 finally reads the third target image as a template image, and is a state represented by the target image by visual servoing based on the read third target image, and is a state of the work target M2 and the assembly target O2. The work target M2 is moved to the robot 20 so that is realized.

制御装置30は、このように第1撮像画像から少なくとも1フレーム以上の目標画像を抽出し、抽出された目標画像に基づいて作業対象M2を組付対象O2に組み付ける作業を完了させる。   In this way, the control device 30 extracts the target image of at least one frame from the first captured image, and completes the operation of assembling the work target M2 to the assembly target O2 based on the extracted target image.

次に、図2を参照して、制御装置30のハードウェア構成について説明する。図2は、制御装置30のハードウェア構成の一例を示す図である。制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34を備え、通信部34を介して第1撮像部11、第2撮像部12、ロボット20と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU31は、記憶部32に格納された各種プログラムを実行する。   Next, the hardware configuration of the control device 30 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the control device 30. The control device 30 includes, for example, a CPU (Central Processing Unit) 31, a storage unit 32, an input reception unit 33, and a communication unit 34, and the first imaging unit 11 and the second imaging unit 12 via the communication unit 34. Communicate with the robot 20. These components are connected to each other via a bus Bus so that they can communicate with each other. The CPU 31 executes various programs stored in the storage unit 32.

記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、制御装置30が処理する各種情報や画像、プログラムを格納する。なお、記憶部32は、制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。   The storage unit 32 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. Various information, images, and programs processed by the control device 30 are stored. Note that the storage unit 32 may be an external storage device connected by a digital input / output port such as a USB instead of the one built in the control device 30.

入力受付部33は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部33は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
The input receiving unit 33 is, for example, a keyboard, a mouse, a touch pad, or other input device. The input receiving unit 33 may function as a display unit, and may be configured as a touch panel.
The communication unit 34 includes, for example, a digital input / output port such as a USB, an Ethernet port, and the like.

次に、図3を参照することで、制御装置30の機能構成について説明する。図3は、制御装置30の機能構成の一例を示す図である。制御装置30は、記憶部32と、入力受付部33と、画像取得部35と、制御部36を備える。これらの機能部のうち一部又は全部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   Next, the functional configuration of the control device 30 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a functional configuration of the control device 30. The control device 30 includes a storage unit 32, an input reception unit 33, an image acquisition unit 35, and a control unit 36. Some or all of these functional units are realized, for example, by the CPU 31 executing various programs stored in the storage unit 32. Some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

制御装置30は、少なくとも1フレーム以上の目標画像に基づくビジュアルサーボのループの中にコンプライアントモーション制御を組み込むことで、作業対象M2及び組付対象O2を破壊することなく作業対象M2を組付対象O2に対して相対移動させる。また、制御装置30は、図示しない計時部を備えており、計時部により計時されたタイミングで、画像取得部35から第2撮像画像を取得し、それと同じタイミングでロボット20の力センサー22から、力センサー22により検出された力及びモーメントを示す情報を取得する。   The control device 30 incorporates the compliant motion control into the visual servo loop based on the target image of at least one frame, so that the work object M2 and the assembly object O2 can be assembled without destroying the work object M2 and the assembly object O2. Move relative to O2. Further, the control device 30 includes a timing unit (not shown), acquires the second captured image from the image acquisition unit 35 at the timing timed by the timing unit, and from the force sensor 22 of the robot 20 at the same timing, Information indicating the force and moment detected by the force sensor 22 is acquired.

画像取得部35は、第1撮像部11により撮像された第1撮像画像を取得する。そして、画像取得部35は、取得された第1撮像画像を記憶部32に記憶させる。画像取得部35は、第2撮像部12により撮像された第2撮像画像を取得する。画像取得部35は、取得された第2撮像画像を制御部36に出力する。
制御部36は、目標画像抽出部41とロボット制御部42を備える。
The image acquisition unit 35 acquires the first captured image captured by the first imaging unit 11. Then, the image acquisition unit 35 causes the storage unit 32 to store the acquired first captured image. The image acquisition unit 35 acquires the second captured image captured by the second imaging unit 12. The image acquisition unit 35 outputs the acquired second captured image to the control unit 36.
The control unit 36 includes a target image extraction unit 41 and a robot control unit 42.

目標画像抽出部41は、記憶部32により記憶された第1撮像画像を読み込み、読み込まれた第1撮像画像に基づいて、所定の条件を満たすフレームを目標画像として抽出する。所定の条件とは、作業対象M1の運動状態が変化したことである。具体的には、作業対象M1の移動状態が変化したことであり、例えば、速度が変化したこと等である。速度としては、例えば、並進移動速度や、回転角速度が挙げられる。   The target image extraction unit 41 reads the first captured image stored in the storage unit 32 and extracts a frame that satisfies a predetermined condition as a target image based on the read first captured image. The predetermined condition is that the motion state of the work target M1 has changed. Specifically, the movement state of the work target M1 has changed, for example, the speed has changed. Examples of the speed include a translational movement speed and a rotational angular speed.

すなわち、目標画像抽出部41は、例えば、作業対象M1の並進移動速度がゼロになった時点におけるフレームを目標画像として抽出する。なお、作業対象M1の運動状態が変化すればよいので、所定の条件は、作業対象M2の移動状態が変化したことであることに代えて、作業対象M1と組付対象O1の間の接触状態が変化(例えば、点接触から面接触への変化や、非接触状態から接触状態への変化等)したことであってもよく、作業対象M1の速度が所定の範囲内から逸脱すること、作業対象M1の速度の絶対値が所定の閾値以上又は所定の閾値以下になったこと等、他の何らかの条件であってもよい。また、所定の条件は、作業対象M1の速度の絶対値がゼロからノンゼロ、又はノンゼロからゼロになったことであってもよい。また、所定の条件は、作業対象M1の移動の仕方が変化することであってもよい。目標画像抽出部41は、抽出された目標画像を記憶部32に時系列順に記憶させる。   That is, the target image extraction unit 41 extracts, for example, a frame at the time when the translational movement speed of the work target M1 becomes zero as a target image. Since the movement state of the work object M1 only needs to be changed, the predetermined condition is that the movement state of the work object M2 has changed, and the contact state between the work object M1 and the assembly object O1. May have changed (for example, change from point contact to surface contact, change from non-contact state to contact state, etc.), the speed of the work object M1 deviates from within a predetermined range, It may be some other condition such that the absolute value of the speed of the target M1 is greater than or equal to a predetermined threshold value or less than a predetermined threshold value. Further, the predetermined condition may be that the absolute value of the speed of the work target M1 is changed from zero to non-zero, or from non-zero to zero. Further, the predetermined condition may be that the manner of movement of the work target M1 changes. The target image extraction unit 41 stores the extracted target images in the storage unit 32 in chronological order.

ロボット制御部42は、画像取得部35から第2撮像画像を取得する。ロボット制御部42は、記憶部32から時系列順に目標画像を読み込む。ロボット制御部42は、力センサー22から把持部HND(又は作業対象M2)に対して働いた力及びモーメントを示す情報を取得する。ロボット制御部42は、第2撮像画像と、目標画像と、把持部HNDに対して働いた力及びモーメントを示す情報とに基づいて、コンプライアントモーション制御を組み合わせたビジュアルサーボによってロボット20を制御するための制御信号を生成し、生成された制御信号をロボット20に出力することでロボット20を制御する。   The robot control unit 42 acquires the second captured image from the image acquisition unit 35. The robot control unit 42 reads target images from the storage unit 32 in chronological order. The robot control unit 42 acquires information indicating the force and moment that are applied to the gripping unit HND (or the work target M2) from the force sensor 22. The robot control unit 42 controls the robot 20 by visual servo combined with compliant motion control based on the second captured image, the target image, and information indicating the force and moment applied to the gripping unit HND. The robot 20 is controlled by generating a control signal for output and outputting the generated control signal to the robot 20.

以下、図4を参照して、制御部36による目標画像を抽出する処理について説明する。図4は、制御部36による目標画像を抽出する処理の流れの一例を示すフローチャートである。まず、制御部36は、ユーザーが作業対象M1と組付対象O1を組み付ける作業の様子を第1撮像部11が撮像するように第1撮像部11を制御する(ステップS100)。なお、第1撮像部11により撮像される第1撮像画像は、動画像であるとしたが、これに代えて、半動画であってもよい。   Hereinafter, the process of extracting the target image by the control unit 36 will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of a process flow for extracting a target image by the control unit 36. First, the control unit 36 controls the first imaging unit 11 so that the first imaging unit 11 captures an image of the work of the user assembling the work target M1 and the assembly target O1 (step S100). Although the first captured image captured by the first imaging unit 11 is a moving image, it may be a semi-moving image instead.

次に、画像取得部35は、第1撮像部11から第1撮像画像を取得し、取得された第1撮像画像を記憶部32に記憶させる(ステップS110)。次に、目標画像抽出部41は、記憶部32により記憶された第1撮像画像を読み込む(ステップS120)。   Next, the image acquisition unit 35 acquires the first captured image from the first imaging unit 11, and stores the acquired first captured image in the storage unit 32 (step S110). Next, the target image extraction unit 41 reads the first captured image stored in the storage unit 32 (step S120).

ここで、図5を参照して、第1撮像画像について説明する。図5は、第1撮像画像の異なる時刻におけるフレームを例示する図である。なお、図5において、作業対象M1及び組付対象O1を把持しているユーザーの手を省略した。   Here, the first captured image will be described with reference to FIG. FIG. 5 is a diagram illustrating frames at different times of the first captured image. In FIG. 5, the user's hand holding the work object M1 and the assembly object O1 is omitted.

図5(A)には、ユーザーにより組付対象O1に対して作業対象M1が近づけられている状態が撮像されたフレームの一例を示す。図5(A)において、作業対象M1は、ユーザーにより矢印の方向に向けて並進移動させられ、組付対象O1に近づくように移動している状態である。また、図5(B)には、図5(A)に示したフレームから時間が経過した後の作業対象M1及び組付対象O1の状態が撮像されたフレームの一例を示す。図5(B)において、作業対象M1は、ユーザーにより矢印の方向に向けて並進させられ、組付対象O1に嵌め込まれる直前の状態である。   FIG. 5A shows an example of a frame in which a state in which the work target M1 is approaching the assembly target O1 by the user is captured. In FIG. 5A, the work target M1 is translated by the user in the direction of the arrow and is moving so as to approach the assembly target O1. FIG. 5B shows an example of a frame in which the states of the work target M1 and the assembly target O1 after a lapse of time from the frame shown in FIG. In FIG. 5B, the work target M1 is in a state immediately before being translated by the user in the direction of the arrow and fitted into the assembly target O1.

また、図5(C)には、図5(B)に示したフレームから時間が経過した後の作業対象M1及び組付対象O1の状態が撮像されたフレームの一例を示す。図5(C)において、作業対象M1は、ユーザーにより組付対象O1に嵌め込まれ、矢印の方向に回転させられる直前の状態である。また、図5(D)には、図5(C)に示したフレームから時間が経過した後の作業対象M1及び組付対象O1の状態が撮像されたフレームの一例を示す。図5(D)において、作業対象M1は、組付対象O1に回転により組み付けられ、作業対象M1を組付対象O1に組み付ける作業が完了した状態を示す。   FIG. 5C shows an example of a frame in which the states of the work target M1 and the assembly target O1 after a lapse of time from the frame shown in FIG. In FIG. 5C, the work target M1 is in a state immediately before being fitted into the assembly target O1 by the user and rotated in the direction of the arrow. FIG. 5D shows an example of a frame in which the states of the work target M1 and the assembly target O1 after a lapse of time from the frame shown in FIG. In FIG. 5D, the work target M1 is assembled to the assembly target O1 by rotation, and shows a state where the work of assembling the work target M1 to the assembly target O1 is completed.

次に、目標画像抽出部41は、読み込まれた第1撮像画像から少なくとも1フレーム以上の目標画像を抽出する(ステップS130)。   Next, the target image extraction unit 41 extracts a target image of at least one frame from the read first captured image (step S130).

ここで、図6を参照して、目標画像抽出部41が第1撮像画像から少なくとも1フレーム以上の目標画像を抽出する処理について説明する。図6は、第1撮像画像から目標画像として抽出されたフレームを例示する図である。目標画像抽出部41は、第1撮像画像から所定の条件を満たすフレームを目標画像として抽出(キャプチャ)する。つまり、この一例において、目標画像抽出部41は、作業対象M1の速度がゼロになった時のフレームを目標画像として抽出する。   Here, with reference to FIG. 6, the process in which the target image extraction unit 41 extracts a target image of at least one frame from the first captured image will be described. FIG. 6 is a diagram illustrating a frame extracted as a target image from the first captured image. The target image extraction unit 41 extracts (captures) a frame that satisfies a predetermined condition from the first captured image as a target image. That is, in this example, the target image extraction unit 41 extracts a frame when the speed of the work target M1 becomes zero as a target image.

より具体的には、目標画像抽出部41は、例えば、時系列順に並ぶ各フレームから作業対象M1をパターンマッチング等によって検出し、検出された作業対象M1が所定時間分のフレームにおいて位置及び姿勢が変化しない(所定誤差の範囲内において変化しない)か否かを判定し、変化していないと判定した場合、作業対象M1の速度がゼロになったと判定し、当該判定に用いたフレームのいずれか1フレーム(例えば、最後のフレーム等)を目標画像として抽出する。   More specifically, for example, the target image extraction unit 41 detects the work target M1 from each frame arranged in time series by pattern matching or the like, and the detected work target M1 has a position and orientation in a frame for a predetermined time. It is determined whether or not it does not change (does not change within a predetermined error range), and when it is determined that it has not changed, it is determined that the speed of the work target M1 has become zero, and one of the frames used for the determination One frame (for example, the last frame) is extracted as a target image.

図5に示した第1撮像画像の場合、作業対象M1の移動状態が変化したフレームは、作業対象M1が組付対象O1に嵌め込まれた時のフレームと、作業対象M1が回転させられることで組付対象O1に組み付けが完了した時のフレームとの2つである。図6(A)には、作業対象M1が組付対象O1に嵌め込まれた時のフレームの一例を示す。作業対象M1が組付対象O1に嵌め込まれた時、作業対象M1の並進移動速度は、ゼロになる。目標画像抽出部41は、作業対象M1の並進移動速度が所定時間分のフレームにおいてゼロであると判定した場合、当該判定に用いたフレームの最後のフレームを目標画像として抽出する。   In the case of the first captured image shown in FIG. 5, the frame in which the movement state of the work target M1 has changed is that the work target M1 is rotated with the frame when the work target M1 is fitted into the assembly target O1. These are the frame when the assembly is completed on the assembly target O1. FIG. 6A shows an example of a frame when the work target M1 is fitted into the assembly target O1. When the work object M1 is fitted into the assembly object O1, the translational movement speed of the work object M1 becomes zero. When the target image extraction unit 41 determines that the translational movement speed of the work target M1 is zero in a frame for a predetermined time, the target image extraction unit 41 extracts the last frame used for the determination as a target image.

また、図6(B)には、作業対象M1が回転させられることで組付対象O1に組み付けが完了した時のフレームの一例を示す。作業対象M1が回転させられることで組付対象O1に組み付けが完了した時、作業対象M1の回転角速度は、ゼロになる。目標画像抽出部41は、作業対象M1の回転角速度が所定時間分のフレームにおいてゼロであると判定した場合、当該判定に用いたフレームの最後のフレームを目標画像として抽出する。   FIG. 6B shows an example of a frame when the assembly is completed on the assembly target O1 by rotating the work target M1. When the assembly is completed on the assembly target O1 by rotating the work target M1, the rotation angular velocity of the work target M1 becomes zero. When the target image extraction unit 41 determines that the rotation angular velocity of the work target M1 is zero in a frame for a predetermined time, the target image extraction unit 41 extracts the last frame of the frame used for the determination as a target image.

なお、目標画像抽出部41は、作業対象M1の速度がゼロになった時のフレームを目標画像として抽出する構成であるとしたが、これに代えて、作業対象M1の速度がゼロになった時のフレームとともに、第1撮像画像から所定時間経過毎のフレームを目標画像として抽出する構成であってもよい。また、目標画像抽出部41は、速度がゼロになった時のフレームを目標画像として抽出する構成に加えて、速度とは異なる何らかの作業対象M1に係る物理量がゼロになった時のフレームを目標画像として抽出する構成であってもよい。   The target image extraction unit 41 is configured to extract a frame when the speed of the work target M1 becomes zero as a target image. Instead, the speed of the work target M1 becomes zero. A configuration may be used in which a frame at every predetermined time is extracted as a target image from the first captured image together with the time frame. In addition to the configuration in which the target image extraction unit 41 extracts the frame when the speed becomes zero as the target image, the target image extraction unit 41 sets the frame when the physical quantity related to some work target M1 different from the speed becomes zero. It may be configured to extract as an image.

次に、目標画像抽出部41は、抽出された目標画像を時系列順に記憶部32に記憶させる(ステップS140)。すなわち、目標画像抽出部41は、この一例において、図6(A)に示した目標画像と、図6(B)に示した目標画像とを時系列順に記憶部32に記憶させる。   Next, the target image extraction unit 41 stores the extracted target images in the storage unit 32 in chronological order (step S140). That is, in this example, the target image extraction unit 41 causes the storage unit 32 to store the target image illustrated in FIG. 6A and the target image illustrated in FIG.

ここで、図6(A)及び図6(B)に示したような目標画像に基づいて制御装置30により行われるロボット制御についての具体例について説明する。以下、説明の便宜上、目標画像が表す状態であって作業対象M1と組付対象O1の状態を、単に目標画像が表す状態と称する。制御装置30は、例えば、目標画像に基づいたビジュアルサーボによってロボット20を制御する。制御装置30は、ロボット20と、ロボット20の把持部HNDが把持している作業対象M2と、ロボット20により作業対象M2が組み付けられる組付対象O2とが含まれる範囲が撮像された第2撮像画像に基づいて、作業対象M2と組付対象O2と力センサー22の相対的な位置関係を導出する。   Here, a specific example of the robot control performed by the control device 30 based on the target image as shown in FIGS. 6A and 6B will be described. Hereinafter, for convenience of description, the state represented by the target image and the state of the work target M1 and the assembly target O1 is simply referred to as a state represented by the target image. For example, the control device 30 controls the robot 20 by visual servo based on the target image. The control device 30 performs the second imaging in which a range including the robot 20, the work target M2 gripped by the gripping unit HND of the robot 20, and the assembly target O2 to which the work target M2 is assembled by the robot 20 is captured. Based on the image, the relative positional relationship among the work object M2, the assembly object O2, and the force sensor 22 is derived.

従って、制御装置30は、導出された相対的な位置関係と、抽出された少なくとも1フレーム以上の目標画像とに基づいて、目標画像が表す状態を実現させるようにロボット20を制御する。より具体的には、制御装置30は、把持部HND及びマニピュレーターMNPによって作業対象M2を組付対象O2に対して相対移動させることで、目標画像が表す状態を実現させるようにロボット20を制御する。   Therefore, the control device 30 controls the robot 20 to realize the state represented by the target image based on the derived relative positional relationship and the extracted target image of at least one frame. More specifically, the control device 30 controls the robot 20 to realize the state represented by the target image by moving the work target M2 relative to the assembly target O2 by the gripper HND and the manipulator MNP. .

また、制御装置30は、作業対象M2を組付対象O2に対して相対移動させる際、ロボット20が把持部HNDにより把持している作業対象M2を回転させるように、ロボット20を制御する場合がある。この場合、制御装置30は、作業対象M2を、作業対象M2に設定された所定位置(以下、回転中心位置と称する)を中心として回転させるようにロボット20を制御する。なお、以下では、回転中心位置における作業対象M2の姿勢を、回転中心姿勢と称する。   In addition, when the control device 30 moves the work target M2 relative to the assembly target O2, the control device 30 may control the robot 20 so that the robot 20 rotates the work target M2 held by the holding unit HND. is there. In this case, the control device 30 controls the robot 20 to rotate the work target M2 around a predetermined position (hereinafter referred to as a rotation center position) set to the work target M2. Hereinafter, the posture of the work object M2 at the rotation center position is referred to as a rotation center posture.

この制御において、制御装置30は、作業対象M2と力センサー22の相対的な位置及び姿勢(相対的な位置関係)が変化した場合であっても、第2撮像画像から相対的な位置関係が変化した後の回転中心位置及び回転中心姿勢を検出する。そして、制御装置30は、ロボット20に作業対象M2を回転させる動作を行わせる際、検出された回転中心位置を中心として、回転中心姿勢を基準に作業対象M2を回転させるようにロボット20を制御する。また、制御装置30は、ロボット20に作業対象M2を並進させる際、検出された回転中心姿勢を基準に並進させるようにロボット20を制御する。   In this control, the control device 30 has a relative positional relationship from the second captured image even when the relative position and posture (relative positional relationship) of the work target M2 and the force sensor 22 change. The rotation center position and the rotation center posture after the change are detected. Then, when the control device 30 causes the robot 20 to perform the operation of rotating the work target M2, the control device 30 controls the robot 20 so as to rotate the work target M2 based on the rotation center position with the detected rotation center position as the center. To do. In addition, when the robot 20 translates the work target M2, the control device 30 controls the robot 20 to translate it based on the detected rotation center posture.

なお、回転中心位置は、ユーザー(例えば、図1におけるユーザーU等)により作業対象M2上の任意の位置に設定(制御装置30の記憶部32に記憶)される。また、回転中心姿勢は、回転中心位置における作業対象M2の姿勢としたが、作業対象M2の姿勢と対応付けられた姿勢であれば、作業対象M2の姿勢と一致していなくてもよい。
このように、本実施形態における制御装置30は、目標画像に基づくビジュアルサーボによってロボット20を動作させる構成とするが、これに代えて、目標画像に基づいた他の何らかのロボット制御によってロボット20を動作させる構成であってもよい。
The rotation center position is set at an arbitrary position on the work target M2 (stored in the storage unit 32 of the control device 30) by the user (for example, the user U in FIG. 1). Further, the rotation center posture is the posture of the work target M2 at the rotation center position, but may not coincide with the posture of the work target M2 as long as the posture is associated with the posture of the work target M2.
As described above, the control device 30 in the present embodiment is configured to operate the robot 20 by the visual servo based on the target image, but instead, operates the robot 20 by some other robot control based on the target image. The structure to be made may be sufficient.

ここで、制御装置30が前記のビジュアルサーボによるロボット制御を行う際に使用する座標系について図7を参照して説明する。図7は、ロボットシステム1において使用する座標系を例示する図である。なお、以下の説明では、「_」の後に記載した文字が、「_」の手前の文字の下付き添え字を表すとして説明する。   Here, a coordinate system used when the control device 30 performs robot control by the visual servo will be described with reference to FIG. FIG. 7 is a diagram illustrating a coordinate system used in the robot system 1. In the following description, it is assumed that the character described after “_” represents the subscript of the character before “_”.

制御装置30は、図7に示したように、7つの三次元直交座標系、すなわち、撮像部座標系Σ_cと、作業座標系Σ_wと、ツール座標系Σ_tと、重心座標系Σ_gと、作業対象座標系Σ_mと、外力座標系Σ_eと、組付対象座標系Σ_oを用いて、ロボット20が所定の作業を行うように制御するための処理を行う。これら7つの座標系の原点及び座標軸の方向は、ユーザーにより制御装置30に設定(記憶又は登録)される。   As shown in FIG. 7, the control device 30 includes seven three-dimensional orthogonal coordinate systems, that is, an imaging unit coordinate system Σ_c, a work coordinate system Σ_w, a tool coordinate system Σ_t, a centroid coordinate system Σ_g, and a work target. Using the coordinate system Σ_m, the external force coordinate system Σ_e, and the assembly target coordinate system Σ_o, a process for controlling the robot 20 to perform a predetermined work is performed. The origin and coordinate axis directions of these seven coordinate systems are set (stored or registered) in the control device 30 by the user.

これら7つの座標系の原点はいずれも、対象X(今の場合、第2撮像部12、ロボット20の支持台、力センサー22、作業対象M2の重心、作業対象M2の回転中心、作業対象M2、組付対象O2)の位置を表すように、対象Xに付随して動くように設定される。また、これら7つの座標系の座標軸の方向はいずれも、対象Xの姿勢を表すように、対象Xの姿勢変化に付随して動くように設定される。なお、ユーザーは、対象Xの位置と座標系の原点の位置を対応付けることができ、さらに、対象Xの傾きと座標系の方向を対応付けることができる前提で、対象Xに対して設定する座標系の原点の位置と座標軸の方向を任意の位置と方向に設定してもよい。   The origins of these seven coordinate systems are all the object X (in this case, the second imaging unit 12, the support base of the robot 20, the force sensor 22, the center of gravity of the work object M2, the rotation center of the work object M2, the work object M2). , It is set to move along with the object X so as to represent the position of the assembly object O2). In addition, the directions of the coordinate axes of these seven coordinate systems are set so as to move along with the posture change of the target X so as to represent the posture of the target X. Note that the user can associate the position of the target X with the position of the origin of the coordinate system, and further, the coordinate system set for the target X on the premise that the inclination of the target X can be associated with the direction of the coordinate system. The position of the origin and the direction of the coordinate axes may be set to arbitrary positions and directions.

撮像部座標系Σ_cは、第2撮像部12の位置(例えば、撮像素子上の予め決められた位置を原点とする)及び姿勢を表す座標系である。
作業座標系Σ_wは、ロボット20の支持台の位置及び姿勢を表す座標系である。
ツール座標系Σ_tは、力センサー22の位置(例えば、力センサー22の重心や、力センサー22の位置を示すマーカーの位置を原点とする)及び姿勢に設定された座標系である。なお、本実施形態において、ツール座標系Σ_tは、説明を簡略化するため、力センサー22の位置及び姿勢を表すとともに、把持部HNDの位置及び姿勢を表す。
The imaging unit coordinate system Σ_c is a coordinate system that represents the position of the second imaging unit 12 (for example, a predetermined position on the imaging element is the origin) and the posture.
The work coordinate system Σ_w is a coordinate system that represents the position and orientation of the support base of the robot 20.
The tool coordinate system Σ_t is a coordinate system set to the position of the force sensor 22 (for example, the center of gravity of the force sensor 22 or the position of a marker indicating the position of the force sensor 22 as an origin) and the posture. In the present embodiment, the tool coordinate system Σ_t represents the position and orientation of the force sensor 22 and the position and orientation of the gripper HND in order to simplify the description.

一般的には、力センサー22の位置及び姿勢を表すセンサー座標系と、把持部HNDの位置及び姿勢を表す手先(把持部)座標系とは一致せず、制御装置30は、作業座標系とセンサー座標系との相対的な位置関係と、センサー座標系と手先座標系との相対的な位置関係とを用いて、作業座標系と手先座標系との相対的な位置関係を算出し、算出された作業座標系と手先座標系との相対的な位置関係に基づいたロボット20の制御を行う。   In general, the sensor coordinate system that represents the position and orientation of the force sensor 22 and the hand (gripping unit) coordinate system that represents the position and orientation of the gripper HND do not match. Using the relative positional relationship between the sensor coordinate system and the relative positional relationship between the sensor coordinate system and the hand coordinate system, the relative positional relationship between the work coordinate system and the hand coordinate system is calculated and calculated. The robot 20 is controlled based on the relative positional relationship between the work coordinate system and the hand coordinate system.

重心座標系Σ_gは、作業対象M2の重心の位置及び姿勢を表す座標系である。
作業対象座標系Σ_mは、作業対象M2(例えば、初期状態において把持部HNDから最も離れた作業対象M2上の位置等)の位置及び姿勢を表す座標系である。
外力座標系Σ_eは、対象物に働く外力及び外モーメントを定義する座標系である。又、本実施形態では、コンプライアントモーション制御による運動を定義する座標系を外力座標系Σ_eと一致させる。すなわち、コンプライアントモーション制御による回転運動は外力座標系Σ_eの姿勢を基準として、外力座標系Σ_eの原点周りの回転で表される。ただし、これらは一致させなくともよく、ユーザーが任意に配置することが可能である。
The centroid coordinate system Σ_g is a coordinate system that represents the position and orientation of the centroid of the work target M2.
The work target coordinate system Σ_m is a coordinate system that represents the position and orientation of the work target M2 (for example, a position on the work target M2 farthest from the gripper HND in the initial state).
The external force coordinate system Σ_e is a coordinate system that defines an external force and an external moment acting on an object. In this embodiment, the coordinate system that defines the motion by the compliant motion control is made to coincide with the external force coordinate system Σ_e. That is, the rotational motion by the compliant motion control is represented by the rotation around the origin of the external force coordinate system Σ_e with the posture of the external force coordinate system Σ_e as a reference. However, these do not need to be matched and can be arbitrarily arranged by the user.

なお、以下では、区別する必要が無い限り、対象物に働く外力(すなわち、力センサーによって検出される外力)を単に力と称し、外モーメント(すなわち、力センサーによって検出されるモーメント)をモーメントと称する。上述したように、回転中心位置は、ユーザーにより任意の位置に設定することができるが、本実施形態では、作業対象M2上の所定位置に設定されたものとして説明する。   In the following, unless there is a need to distinguish, an external force acting on an object (that is, an external force detected by a force sensor) is simply referred to as a force, and an external moment (that is, a moment detected by a force sensor) is referred to as a moment. Called. As described above, the rotation center position can be set to an arbitrary position by the user, but in the present embodiment, the rotation center position is described as being set at a predetermined position on the work target M2.

組付対象座標系Σ_oは、組付対象O2(例えば、作業対象M2に最も近い組付対象O2上の位置)の位置及び姿勢を表す座標系である。
以下の説明では、座標系が対象Xに付随して動くため、座標系aにおける座標系bの原点の位置を、座標系bが設定された対象Xの位置として説明する。例えば、作業座標系Σ_wにおける作業対象座標系Σ_mの原点の位置を、作業座標系Σ_wにおける作業対象M2の位置と称する。これと同様に、座標系aにおける座標系bの姿勢を、座標系bが設定された対象Xの姿勢として説明する。例えば、作業座標系Σ_wにおける作業対象座標系Σ_mの姿勢を、作業座標系Σ_wにおける作業対象M2の姿勢と称する。
The assembly target coordinate system Σ_o is a coordinate system representing the position and orientation of the assembly target O2 (for example, the position on the assembly target O2 closest to the work target M2).
In the following description, since the coordinate system moves along with the target X, the position of the origin of the coordinate system b in the coordinate system a will be described as the position of the target X for which the coordinate system b is set. For example, the position of the origin of the work target coordinate system Σ_m in the work coordinate system Σ_w is referred to as the position of the work target M2 in the work coordinate system Σ_w. Similarly, the orientation of the coordinate system b in the coordinate system a will be described as the orientation of the target X for which the coordinate system b is set. For example, the posture of the work target coordinate system Σ_m in the work coordinate system Σ_w is referred to as the posture of the work target M2 in the work coordinate system Σ_w.

ここで、より具体的な説明を記載する前に、制御装置30が行う処理について説明するために用いる数式の表記法を示す。まず、以下の説明では、「^」の後に記載した文字が、「^」の手前の文字の上付き添え字を表すとして説明する。また、「(→)」が付記された一番手前の文字をベクトルとして説明する。また、「(^)」が付記された一番手前の文字を行列として説明する。   Here, before describing a more specific description, a notation method of mathematical expressions used for describing the processing performed by the control device 30 will be described. First, in the following description, it is assumed that the character described after “^” represents the superscript of the character before “^”. In addition, a description will be given assuming that the foremost character with “(→)” added is a vector. The frontmost character with “(^)” added will be described as a matrix.

これらの表記法の下では、座標系aにおいて、座標系bが設定された対象Xの位置を表すベクトルを、位置ベクトルp_b^a(→)と表す。位置ベクトルp_b^a(→)は、以下の式(1)に示したように、座標系bにおける対象Xのx座標x^b、y座標y^b、z座標z^bで定義される。   Under these notations, a vector representing the position of the target X for which the coordinate system b is set in the coordinate system a is represented as a position vector p_b ^ a (→). The position vector p_b ^ a (→) is defined by the x-coordinate x ^ b, y-coordinate y ^ b, and z-coordinate z ^ b of the object X in the coordinate system b as shown in the following equation (1). .

Figure 2015221485
Figure 2015221485

位置ベクトルの表記法と同様に、座標系aにおいて座標系bが設定された対象Xの姿勢を表すベクトルを、姿勢ベクトルo_b^a(→)と表す。姿勢ベクトルo_b^a(→)は、以下の式(2)に示したように、その成分を、オイラー角(α_b^a,β_b^a,γ_b^a)を用いて以下の式(2)のように表す。   Similar to the notation of the position vector, a vector representing the posture of the target X for which the coordinate system b is set in the coordinate system a is represented as a posture vector o_b ^ a (→). The posture vector o_b ^ a (→) is expressed by the following expression (2) using Euler angles (α_b ^ a, β_b ^ a, γ_b ^ a) as shown in the following expression (2). It expresses like this.

Figure 2015221485
Figure 2015221485

ここで、オイラー角は座標系aのx軸、y軸及びz軸を、それぞれ座標系bのx軸、y軸及びz軸に一致させるために、座標系aのz軸、y軸及びx軸周りに回転させる角度として定義され、それぞれγ_b^a、β_b^a及びα_b^aと表す。   Here, the Euler angles are the z-axis, y-axis and x-axis of the coordinate system a in order to match the x-axis, y-axis and z-axis of the coordinate system a with the x-axis, y-axis and z-axis of the coordinate system b, respectively. It is defined as an angle to rotate around the axis, and is expressed as γ_b ^ a, β_b ^ a, and α_b ^ a, respectively.

座標系bの姿勢で表された対象Xの位置や姿勢を、座標系aの姿勢で表された対象Xの位置や姿勢に回転させる時の回転行列を、回転行列R_b^a(^)と表す。尚、上述のオイラー角と回転行列の間には以下に示した式(3)の関係がある。   A rotation matrix for rotating the position and orientation of the object X represented by the orientation of the coordinate system b to the position and orientation of the object X represented by the orientation of the coordinate system a is represented as a rotation matrix R_b ^ a (^). Represent. There is a relationship of the following formula (3) between the Euler angle and the rotation matrix.

Figure 2015221485
Figure 2015221485

ここで、上記の式(1)〜(3)で示したベクトルは、以下の変換式(4)〜(6)で添え字の上下を入れ替えることができる。   Here, in the vectors shown in the above equations (1) to (3), the subscripts can be interchanged in the following conversion equations (4) to (6).

Figure 2015221485
Figure 2015221485

Figure 2015221485
Figure 2015221485

Figure 2015221485
Figure 2015221485

ここで、[R_b^a(^)]^Tは、R_a^bの転置行列を表す。すなわち、回転行列の添え字は、回転行列を転置することによって入れ替えることができ、ベクトルの添え字は、回転行列によって入れ替えることができる。なお、以下では、座標系aにおいて座標系bが設定された対象Xの位置を示す位置ベクトルp_b^a(→)を、必要がある場合を除いて、単に座標系aにおける対象Xの位置と称する。例えば、撮像部座標系Σ_cにおいて表された組付対象O2に設定された組付対象座標系Σ_oの原点の位置を示す位置ベクトルp_o^c(→)を、単に撮像部座標系Σ_cにおける組付対象O2の位置と称する。   Here, [R_b ^ a (^)] ^ T represents a transposed matrix of R_a ^ b. That is, the rotation matrix subscripts can be interchanged by transposing the rotation matrix, and the vector subscripts can be interchanged by the rotation matrix. In the following, the position vector p_b ^ a (→) indicating the position of the target X for which the coordinate system b is set in the coordinate system a is simply referred to as the position of the target X in the coordinate system a, unless necessary. Called. For example, the position vector p_o ^ c (→) indicating the position of the origin of the assembly target coordinate system Σ_o set to the assembly target O2 represented in the imaging unit coordinate system Σ_c is simply assembled in the imaging unit coordinate system Σ_c. This is called the position of the object O2.

位置の場合と同様に、以下では、座標系aにおいて座標系bが設定された対象Xの姿勢を示す姿勢ベクトルo_b^a(→)を、必要がある場合を除いて、単に座標系aにおける対象Xの姿勢と称する。例えば、撮像部座標系Σ_cにおいて表された組付対象O2に設定された組付対象座標系Σ_oの姿勢を示す姿勢ベクトルo_o^c(→)を、単に撮像部座標系Σ_cにおける組付対象O2の姿勢と称する。   As in the case of the position, in the following, the orientation vector o_b ^ a (→) indicating the orientation of the target X in which the coordinate system b is set in the coordinate system a is simply used in the coordinate system a, unless necessary. This is called the posture of the target X. For example, the orientation vector o_o ^ c (→) indicating the orientation of the assembly target coordinate system Σ_o set to the assembly target O2 represented in the imaging unit coordinate system Σ_c is simply set as the assembly target O2 in the imaging unit coordinate system Σ_c. Called the posture.

以下、図8を参照して、制御部36が目標画像に基づくビジュアルサーボによってロボット20を動作させる処理について説明する。図8は、制御部36が目標画像に基づくビジュアルサーボによってロボット20を動作させる処理の流れの一例を示すフローチャートである。まず、ロボット制御部42は、入力受付部33を介してユーザーから入力された位置と姿勢であって、図1に示したように設置された状態の作業対象座標系Σ_mにおける組付対象O2の位置p_o^m(→)と姿勢o_o^m(→)を設定する(ステップS200)。   Hereinafter, with reference to FIG. 8, a process in which the control unit 36 operates the robot 20 by visual servo based on the target image will be described. FIG. 8 is a flowchart illustrating an example of a flow of processing in which the control unit 36 operates the robot 20 by visual servo based on the target image. First, the robot control unit 42 is the position and orientation input from the user via the input receiving unit 33, and the assembly target O2 in the work target coordinate system Σ_m in the installed state as shown in FIG. A position p_o ^ m (→) and an attitude o_o ^ m (→) are set (step S200).

次に、ロボット制御部42は、入力受付部33を介してユーザーから入力された回転中心位置と回転中心姿勢であって、作業対象座標系Σ_mにおける回転中心位置p_e^m(→)と回転中心姿勢o_e^m(→)を設定する(ステップS210)。ステップS200からステップS210までが、ユーザーにより行われる制御装置30への初期設定である。次に、ロボット制御部42は、記憶部32から時系列順に目標画像を読み込む(ステップS220)。   Next, the robot control unit 42 is the rotation center position and rotation center posture input from the user via the input receiving unit 33, and the rotation center position p_e ^ m (→) and the rotation center in the work target coordinate system Σ_m. The posture o_e ^ m (→) is set (step S210). Steps S200 to S210 are initial settings to the control device 30 performed by the user. Next, the robot control unit 42 reads the target images from the storage unit 32 in chronological order (step S220).

次に、ロボット制御部42は、ステップS220で読み込まれた目標画像を時系列順に選択し、選択された目標画像に基づいてステップS240の処理を繰り返し行う(ステップS230)。制御部36の各機能部は、選択された目標画像と、設定された組付対象O2の位置p_o^m(→)と姿勢o_o^m(→)と、作業対象座標系Σ_mにおける回転中心位置p_e^m(→)と回転中心姿勢o_e^m(→)とに基づいたビジュアルサーボによってロボット20を動作させるロボット制御処理を行う(ステップS240)。   Next, the robot control unit 42 selects the target images read in step S220 in chronological order, and repeats the process of step S240 based on the selected target images (step S230). Each functional unit of the control unit 36 includes the selected target image, the set position p_o ^ m (→) and posture o_o ^ m (→) of the assembly target O2, and the rotation center position in the work target coordinate system Σ_m. Robot control processing for operating the robot 20 by visual servoing based on p_e ^ m (→) and the rotation center posture o_e ^ m (→) is performed (step S240).

ここで、図9を参照して、制御部36のロボット制御部42が行う目標画像に基づいたロボット制御処理について説明する。図9は、制御部36のロボット制御部42が行う目標画像に基づいたロボット制御処理の流れの一例を示すフローチャートである。ここから、ステップS230の後に、第2撮像部12による撮像が開始され、制御部36が画像取得部35から第2撮像画像を取得したものとして説明する。制御部36が第2撮像画像を取得した後、ロボット制御部42は、画像取得部35により取得された第2撮像画像に基づいて、撮像部座標系Σ_cにおける組付対象O2の位置p_o^c(→)と姿勢o_o^c(→)を検出する(ステップS300)。   Here, with reference to FIG. 9, the robot control process based on the target image performed by the robot control unit 42 of the control unit 36 will be described. FIG. 9 is a flowchart illustrating an example of the flow of the robot control process based on the target image performed by the robot control unit 42 of the control unit 36. From here, it demonstrates that the imaging by the 2nd imaging part 12 was started after step S230, and the control part 36 acquired the 2nd captured image from the image acquisition part 35. FIG. After the control unit 36 acquires the second captured image, the robot control unit 42, based on the second captured image acquired by the image acquisition unit 35, the position p_o ^ c of the assembly target O2 in the imaging unit coordinate system Σ_c. (→) and posture o_o ^ c (→) are detected (step S300).

次に、ロボット制御部42は、図8に示したフローチャートにおけるステップS200の処理で設定された作業対象座標系Σ_mにおける組付対象O2の位置p_o^m(→)及び姿勢o_o^m(→)と、ステップS300で検出された撮像部座標系Σ_cにおける組付対象O2の位置p_o^c(→)及び姿勢o_o^c(→)と、選択された目標画像とに基づいて、以下に示した式(7)から、選択された目標画像が表す作業対象M2と組付対象O2の状態における作業対象M2の目標位置と姿勢であって、撮像部座標系Σ_cにおける作業対象M2の目標位置p_m^c(d)(→)と姿勢o_m^c(d)(→)を算出する(ステップS310)。目標位置とは、ロボット制御部42が導出した動作完了時の撮像部座標系Σ_cにおける作業対象M2の位置である。また、以下では、ロボット制御部42が導出した動作完了時の撮像部座標系Σ_cにおける作業対象M2の姿勢を目標姿勢と称する。   Next, the robot control unit 42 determines the position p_o ^ m (→) and posture o_o ^ m (→) of the assembly target O2 in the work target coordinate system Σ_m set in the process of step S200 in the flowchart shown in FIG. And the position p_o ^ c (→) and orientation o_o ^ c (→) of the assembly target O2 in the imaging unit coordinate system Σ_c detected in step S300 and the selected target image, as shown below. From Expression (7), the target position and orientation of the work target M2 in the state of the work target M2 and the assembly target O2 represented by the selected target image, and the target position p_m ^ of the work target M2 in the imaging unit coordinate system Σ_c c (d) (→) and posture o_m ^ c (d) (→) are calculated (step S310). The target position is the position of the work target M2 in the imaging unit coordinate system Σ_c when the operation derived by the robot control unit 42 is completed. Hereinafter, the posture of the work target M2 in the imaging unit coordinate system Σ_c when the operation derived by the robot control unit 42 is completed is referred to as a target posture.

Figure 2015221485
Figure 2015221485

より具体的には、ロボット制御部42は、目標画像に基づいて、作業対象M2と組付対象O2の間の撮像部座標系Σ_cにおける相対位置及び姿勢を検出する。なお、第1撮像部11の撮像部座標系と第2撮像部12の撮像部座標系Σ_cとは、キャリブレーション等によって対応付けられているものとする。そして、ロボット制御部42は、検出された作業対象M2と組付対象O2の間の撮像部座標系Σ_cにおける相対位置及び姿勢と、ステップS200の処理で設定された作業対象座標系Σ_mにおける組付対象O2の位置p_o^m(→)及び姿勢o_o^m(→)と、ステップS300で検出された撮像部座標系Σ_cにおける組付対象O2の位置p_o^c(→)及び姿勢o_o^c(→)とに基づいて、上記の式(7)から、選択された目標画像が表す作業対象M2と組付対象O2の状態における作業対象M2の目標位置と姿勢であって、撮像部座標系Σ_cにおける作業対象M2の目標位置p_m^c(d)(→)と姿勢o_m^c(d)(→)を算出する。   More specifically, the robot control unit 42 detects the relative position and orientation in the imaging unit coordinate system Σ_c between the work target M2 and the assembly target O2 based on the target image. Note that the imaging unit coordinate system of the first imaging unit 11 and the imaging unit coordinate system Σ_c of the second imaging unit 12 are associated by calibration or the like. Then, the robot control unit 42 assembles the relative position and orientation in the imaging unit coordinate system Σ_c between the detected work target M2 and the assembly target O2, and the work target coordinate system Σ_m set in the process of step S200. The position p_o ^ m (→) and orientation o_o ^ m (→) of the target O2, and the position p_o ^ c (→) and orientation o_o ^ c () of the assembly target O2 in the imaging unit coordinate system Σ_c detected in step S300. →), from the above equation (7), the target position and orientation of the work target M2 represented by the selected target image in the state of the work target M2 and the assembly target O2, and the imaging unit coordinate system Σ_c The target position p_m ^ c (d) (→) and the posture o_m ^ c (d) (→) of the work target M2 are calculated.

ここで、撮像部座標系Σ_cにおける作業対象M2の目標位置p_m^c(d)(→)及び姿勢o_m^c(d)(→)の「(d)」は、ステップS320でロボット制御部42により検出される撮像部座標系Σ_cにおける作業対象M2の位置p_m^c(→)及び姿勢o_m^c(→)と区別するために付記したラベルである。   Here, “(d)” of the target position p_m ^ c (d) (→) and the posture o_m ^ c (d) (→) of the work target M2 in the imaging unit coordinate system Σ_c is determined in step S320 by the robot control unit 42. This is a label added to distinguish the position p_m ^ c (→) and the posture o_m ^ c (→) of the work target M2 in the imaging unit coordinate system Σ_c detected by the above.

ステップS300からステップS310までの処理は、制御部36が、第2撮像部12と組付対象O2の相対的な位置及び姿勢と、選択された目標画像が表す状態であって、作業対象M2と組付対象O2の状態における作業対象M2と組付対象O2の相対的な位置関係(位置及び姿勢)とに基づいて、選択された目標画像が表す状態における作業対象M2と、第2撮像部12との相対的な位置及び姿勢を間接的に算出するための処理である。   The processing from step S300 to step S310 is a state in which the control unit 36 represents the relative position and posture of the second imaging unit 12 and the assembly target O2, and the selected target image, and the work target M2 Based on the relative positional relationship (position and orientation) between the work target M2 and the assembly target O2 in the state of the assembly target O2, the work target M2 in the state represented by the selected target image, and the second imaging unit 12 Is a process for indirectly calculating the relative position and orientation.

次に、ロボット制御部42は、取得された第2撮像画像から、撮像部座標系Σ_cにおける作業対象M2の位置p_m^c(→)と姿勢o_m^c(→)を検出する(ステップS320)。次に、ロボット制御部42は、取得された第2撮像画像から、ツール座標系Σ_tにおける第2撮像部12の位置p_c^t(→)と姿勢o_c^t(→)を検出する(ステップS330)。   Next, the robot control unit 42 detects the position p_m ^ c (→) and the posture o_m ^ c (→) of the work target M2 in the imaging unit coordinate system Σ_c from the acquired second captured image (step S320). . Next, the robot control unit 42 detects the position p_c ^ t (→) and the posture o_c ^ t (→) of the second imaging unit 12 in the tool coordinate system Σ_t from the acquired second captured image (step S330). ).

次に、ロボット制御部42は、ステップS320で算出された撮像部座標系Σ_cにおける作業対象M2の位置p_m^c(→)及び姿勢o_m^c(→)と、ステップS330で算出されたツール座標系Σ_tにおける第2撮像部12の位置p_c^t(→)及び姿勢o_c^t(→)に基づいて、以下に示した式(8)から、ツール座標系Σ_tにおける回転中心の位置p_e^t(→)と姿勢o_e^t(→)を算出する(ステップS340)。   Next, the robot control unit 42 determines the position p_m ^ c (→) and posture o_m ^ c (→) of the work target M2 in the imaging unit coordinate system Σ_c calculated in step S320, and the tool coordinates calculated in step S330. Based on the position p_c ^ t (→) and the posture o_c ^ t (→) of the second imaging unit 12 in the system Σ_t, the position p_e ^ t of the rotation center in the tool coordinate system Σ_t is obtained from the following equation (8). (→) and posture o_e ^ (→) are calculated (step S340).

Figure 2015221485
Figure 2015221485

ここで、ステップS340の処理は、力センサー22と上述の回転中心位置及び回転中心姿勢の相対的な位置関係の変化を検出する処理である。ステップS340において算出されたツール座標系Σ_tにおける回転中心の位置p_e^t(→)と姿勢o_e^t(→)が、前のルーチンで算出された値と異なることは、力センサー22と回転中心位置及び回転中心姿勢の相対的な位置関係が、外力によって変化させられたことを示す。制御部36は、この変化を検出することで、外力によって力センサー22に対する回転中心位置及び回転中心姿勢が変化されたとしても、変化された後の力センサー22に対する回転中心位置及び回転中心姿勢に基づいて、ロボット20が常に回転中心位置を中心として、回転中心姿勢を基準に作業対象M2を回転するように制御することができる。   Here, the process of step S340 is a process of detecting a change in the relative positional relationship between the force sensor 22 and the above-described rotation center position and rotation center posture. The difference between the rotation center position p_e ^ t (→) and the posture o_e ^ t (→) in the tool coordinate system Σ_t calculated in step S340 from the values calculated in the previous routine is that the force sensor 22 and the rotation center It shows that the relative positional relationship between the position and the rotation center posture is changed by an external force. Even if the rotation center position and the rotation center posture with respect to the force sensor 22 are changed by an external force, the control unit 36 detects the change to change the rotation center position and the rotation center posture with respect to the force sensor 22 after the change. Based on this, it is possible to control the robot 20 to always rotate the work target M2 with the rotation center position as the center and the rotation center posture as a reference.

次に、ロボット制御部42は、順運動学に基づいて、作業座標系Σ_wにおける力センサー22の位置p_t^w(→)と姿勢o_t^w(→)を算出する(ステップS350)。次に、ロボット制御部42は、ステップS340で算出されたツール座標系Σ_tにおける回転中心位置p_e^t(→)と回転中心姿勢o_e^t(→)と、ステップS350で算出された作業座標系Σ_wにおける力センサー22の位置p_t^w(→)及び姿勢o_t^w(→)に基づいて、以下に示した式(9)から、外力座標系Σ_eにおけるロボット20の支持台の位置p_w^e(→)と姿勢o_w^e(→)を算出する(ステップS360)。   Next, the robot control unit 42 calculates the position p_t ^ w (→) and the posture o_t ^ w (→) of the force sensor 22 in the work coordinate system Σ_w based on forward kinematics (step S350). Next, the robot control unit 42 determines the rotation center position p_e ^ t (→) and the rotation center posture o_e ^ t (→) in the tool coordinate system Σ_t calculated in step S340, and the work coordinate system calculated in step S350. Based on the position p_t ^ w (→) and the posture o_t ^ w (→) of the force sensor 22 in Σ_w, the position p_w ^ e of the support base of the robot 20 in the external force coordinate system Σ_e is obtained from the following equation (9). (→) and posture o_we (→) are calculated (step S360).

Figure 2015221485
Figure 2015221485

ここで、制御部36は、ステップS360の処理によって、外力座標系Σ_eにおけるロボット20の支持台の位置p_w^e(→)と姿勢o_w^e(→)を算出することで、力センサー22に働いた力及びモーメントにより回転中心位置に働いた力及びモーメントを、次のステップS370の処理で算出することができる。   Here, the control unit 36 calculates the position p_w ^ e (→) and the posture o_w ^ e (→) of the support base of the robot 20 in the external force coordinate system Σ_e by the process of step S360, so that the force sensor 22 The force and moment applied to the rotation center position by the applied force and moment can be calculated in the next step S370.

次に、ロボット制御部42は、力センサー22により検出された力とモーメントであって、ツール座標系Σ_tにおける力f^t(→)とモーメントm^t(→)に基づいて、以下に示したニュートン・オイラー方程式(10)から、外力座標系Σ_eにおける力(すなわち、回転中心位置に働いた力)f^e(→)とモーメント(すなわち、回転中心位置に生じたモーメント)m^e(→)を算出する(ステップS370)。   Next, the robot control unit 42 shows the force and moment detected by the force sensor 22 based on the force f ^ t (→) and moment m ^ t (→) in the tool coordinate system Σ_t. From the Newton-Euler equation (10), the force in the external force coordinate system Σ_e (that is, the force acting on the rotation center position) f ^ e (→) and the moment (that is, the moment generated at the rotation center position) m ^ e ( →) is calculated (step S370).

Figure 2015221485
Figure 2015221485

ここで、上記の式(10)における上段式は、作業対象M2の回転中心位置に働いた外力の成分f^e(→)が、力センサー22によって検出された力の成分f^t(→)から、重力による成分mE(^)g(→)とロボット20のマニピュレーターMNPによる慣性運動による成分mE(^)p_c^w(→)(・・)を差し引いた成分で表されることを示している。なお、「(・・)」が付記された一番手前の文字は、時間について二回微分された変数を表している。また、行列E(^)は、単位行列であり、ベクトルg(→)は、重力加速度を表すベクトルであり、スカラーmは、作業対象M2の質量を表す。   Here, the upper equation in the above equation (10) indicates that the external force component f ^ e (→) applied to the rotation center position of the work target M2 is the force component f ^ t (→) detected by the force sensor 22. ) From the component mE (^) g (→) due to gravity and the component mE (^) p_c ^ w (→) (··) due to the inertial motion by the manipulator MNP of the robot 20 ing. The foremost character with “(••)” represents a variable that has been differentiated twice with respect to time. The matrix E (^) is a unit matrix, the vector g (→) is a vector representing gravitational acceleration, and the scalar m represents the mass of the work target M2.

前記の上段式と同様に、下段式は、作業対象M2に働いた外力により回転中心に生じたモーメントm^eが、ねじりモーメントの成分I(^)o_c^w(→)(・・)と、コリオリの力によるモーメントの成分o_c^w(→)(・)×I(^)o_c^w(→)(・)と、力センサー22により検出されたモーメントm^t(→)と、力センサー22によって検出された力の成分f^t(→)によるモーメントの成分p_e^t(→)×f^t(→)を加算したものから、重力によるモーメントの成分p_g^t(→)×mR_w^t(^)g(→)を差し引いた成分で表されることを示している。   Similar to the upper equation, the lower equation represents that the moment m ^ e generated at the center of rotation due to the external force applied to the work target M2 is the torsional moment component I (^) o_c ^ w (→) (··). , Moment component o_c ^ w (→) (•) × I (^) o_c ^ w (→) (•) of Coriolis force, moment m ^ t (→) detected by the force sensor 22, and force From the sum of the moment component p_e ^ t (→) × f ^ t (→) due to the force component f ^ t (→) detected by the sensor 22, the moment component p_g ^ t (→) × due to gravity. mR_w ^ t (^) g (→) represents a component obtained by subtracting.

次に、ロボット制御部42は、ステップS370で算出された外力座標系Σ_eにおける力f^e(→)及びモーメントm^e(→)に基づいて、以下に示した式(11)から、外力座標系Σ_eにおける作業対象M2の緩和動作量の微小緩和移動量Δp^e(→)と微小緩和回転量Δo^e(→)を算出する(ステップS380)。   Next, based on the force f ^ e (→) and moment m ^ e (→) in the external force coordinate system Σ_e calculated in step S370, the robot control unit 42 calculates the external force from the following equation (11). A small relaxation movement amount Δp ^ e (→) and a small relaxation rotation amount Δo ^ (→) of the relaxation operation amount of the work target M2 in the coordinate system Σ_e are calculated (step S380).

Figure 2015221485
Figure 2015221485

ここで、ステップS380で用いられる式(11)のΔP^e(→)及びΔO^e(→)は、それぞれΔp^e(→)及びΔo^e(→)をラプラス変換したものである。また、式(11)は、作業対象M2に設定されている回転中心位置が外力を受けたときに、その外力を緩和させる方向に移動するべき動作量(微小移動量及び微小回転量)を決定する運動モデルに依って異なる。   Here, ΔP ^ e (→) and ΔO ^ e (→) in equation (11) used in step S380 are Laplace transforms of Δp ^ e (→) and Δo ^ e (→), respectively. Equation (11) determines the amount of movement (a small amount of movement and a small amount of rotation) that should move in a direction to relieve the external force when the rotation center position set for the work object M2 receives an external force. It depends on the exercise model.

本実施形態では、上記の式(11)に示したように、微小移動量に関する慣性質量行列M_p(^)、ダンパー係数行列D_p(^)、バネ乗数行列K_p(^)と、微小回転量に関する慣性質量行列M_o(^)、ダンパー係数行列D_o(^)、バネ乗数行列K_o(^)とによって表される運動モデルを採用している。   In this embodiment, as shown in the above equation (11), the inertial mass matrix M_p (^), the damper coefficient matrix D_p (^), the spring multiplier matrix K_p (^) related to the minute movement amount, and the minute rotation amount. A motion model represented by an inertial mass matrix M_o (^), a damper coefficient matrix D_o (^), and a spring multiplier matrix K_o (^) is employed.

このような運動モデルによって行われる制御は、コンプライアントモーション制御のうちインピーダンス制御と呼ばれる。なお、スカラーsは、ラプラス変換に用いる変数である。コンプライアントモーション制御としては、インピーダンス制御に限定されるものではなく、例えばスティフネス制御やダンピング制御を適用しても良い。   Control performed by such a motion model is called impedance control in compliant motion control. The scalar s is a variable used for Laplace transform. The compliant motion control is not limited to impedance control, and for example, stiffness control or damping control may be applied.

次に、ロボット制御部42は、ステップS380で算出された外力座標系Σ_eにおける作業対象M2の緩和動作量に基づいて、以下に示した式(12)から、作業座標系Σ_wにおける力センサー22の緩和動作量として微小緩和移動量Δp_t^w(i)(→)と微小緩和回転量Δo_t^w(i)(→)を算出する(ステップS390)。   Next, the robot control unit 42 calculates the force sensor 22 in the work coordinate system Σ_w from the following equation (12) based on the relaxation operation amount of the work target M2 in the external force coordinate system Σ_e calculated in step S380. A small relaxation movement amount Δp_t ^ w (i) (→) and a small relaxation rotation amount Δo_t ^ w (i) (→) are calculated as the relaxation operation amount (step S390).

Figure 2015221485
Figure 2015221485

ここで、緩和動作量である微小緩和移動量Δp_t^w(i)(→)と微小緩和回転量Δo_t^w(i)(→)における「(i)」は、緩和動作量と目標動作量を区別するためのラベルである。制御部36のロボット制御部42は、ステップS380からステップS390までの処理によりロボット制御部42が算出した作業座標系Σ_wにおける緩和動作量に基づいて、回転中心位置に働いた力及びモーメントが緩和される位置まで、力センサー22の位置及び姿勢を移動するようにロボット20を制御することができる。   Here, “(i)” in the minute relaxation movement amount Δp_t ^ w (i) (→) and the minute relaxation rotation amount Δo_t ^ w (i) (→), which are relaxation movement amounts, represents the relaxation movement amount and the target movement amount. It is a label for distinguishing. The robot control unit 42 of the control unit 36 relaxes the force and moment applied to the rotation center position based on the relaxation operation amount in the work coordinate system Σ_w calculated by the robot control unit 42 through the processing from step S380 to step S390. The robot 20 can be controlled to move the position and posture of the force sensor 22 to the position where the force sensor 22 is moved.

次に、ロボット制御部42は、ステップS310で算出された目標画像が表す作業対象M2と組付対象O2の状態の撮像部座標系Σ_cにおける作業対象M2の目標位置p_m^c(d)(→)及び姿勢o_m^c(d)(→)と、ステップS320で検出された撮像部座標系Σ_cにおける作業対象M2の位置p_m^c(→)と姿勢o_m^c(→)に基づいて、以下に示した式(13)から、作業対象M2を目標位置及び姿勢に移動させるための目標動作量であって、撮像部座標系Σ_cにおける目標動作量として微小目標移動量Δp_m^c(→)と微小目標回転量Δo_m^c(→)を算出する(ステップS400)。   Next, the robot control unit 42 sets the target position p_m ^ c (d) (→) of the work target M2 in the imaging unit coordinate system Σ_c in the state of the work target M2 and the assembly target O2 represented by the target image calculated in step S310. ) And posture o_m ^ c (d) (→), and the position p_m ^ c (→) and posture o_m ^ c (→) of the work target M2 in the imaging unit coordinate system Σ_c detected in step S320. From the equation (13) shown in FIG. 5, the target motion amount for moving the work target M2 to the target position and posture, and the minute target movement amount Δp_m ^ c (→) as the target motion amount in the imaging unit coordinate system Σ_c The minute target rotation amount Δo_m ^ c (→) is calculated (step S400).

Figure 2015221485
Figure 2015221485

次に、ロボット制御部42は、ステップS400で算出された撮像部座標系Σ_cにおける作業対象M2の目標動作量に基づいて、以下に示した式(14)から、作業座標系Σ_wにおける力センサー22の目標動作量として微小目標移動量Δp_t^w(v)(→)と微小目標回転量Δo_t^w(v)(→)を算出する(ステップS410)。   Next, the robot control unit 42 calculates the force sensor 22 in the work coordinate system Σ_w from the following equation (14) based on the target motion amount of the work target M2 in the imaging unit coordinate system Σ_c calculated in step S400. As the target motion amount, a small target movement amount Δp_t ^ w (v) (→) and a small target rotation amount Δo_t ^ w (v) (→) are calculated (step S410).

Figure 2015221485
Figure 2015221485

ここで、目標動作量である微小目標移動量Δp_t^w(v)(→)と微小目標回転量Δo_t^w(v)(→)における「(v)」は、目標動作量と緩和動作量を区別するためのラベルである。   Here, “(v)” in the minute target movement amount Δp_t ^ w (v) (→) and the minute target rotation amount Δo_t ^ w (v) (→), which are target movement amounts, represents the target movement amount and the relaxation movement amount. It is a label for distinguishing.

次に、ロボット制御部42は、ステップS390で算出された緩和動作量と、ステップS410で算出された目標動作量を、以下に示した式(15)のように加算した加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)を算出する(ステップS420)。   Next, the robot control unit 42 adds the small movement amount Δp_t ^ obtained by adding the mitigation movement amount calculated in step S390 and the target movement amount calculated in step S410 as shown in the following equation (15). w (→) and the additional minute rotation amount Δo_t ^ w (→) are calculated (step S420).

Figure 2015221485
Figure 2015221485

次に、ロボット制御部42は、ステップS420で算出された加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)の両方が、それぞれに対する所定の閾値未満か否かを判定する(ステップS430)。なお、前記のそれぞれに対する所定の閾値は、それぞれが別に設定される。ロボット制御部42は、加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)の両方が、それぞれに対する所定の閾値未満であると判定した場合(ステップS430−Yes)、作業対象M2をこれ以上動かす必要がないと判断して処理を終了する。   Next, the robot control unit 42 determines whether or not both the addition minute movement amount Δp_t ^ w (→) and the addition minute rotation amount Δo_t ^ w (→) calculated in step S420 are less than a predetermined threshold value for each. Determination is made (step S430). Each of the predetermined thresholds for each of the above is set separately. When the robot control unit 42 determines that both the addition minute movement amount Δp_t ^ w (→) and the addition minute rotation amount Δo_t ^ w (→) are less than a predetermined threshold value for each of them (step S430-Yes). It is determined that there is no need to move the work object M2 any more, and the process is terminated.

一方、ロボット制御部42が加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)のうちいずれか一方又は両方が、それぞれに対する所定の閾値未満ではないと判定した場合(ステップS430−No)、ロボット制御部42は、ステップS390で算出された緩和動作量と、ステップS410で算出された目標動作量とに基づいて、以下に示した式(16)から、作業座標系Σ_wにおける力センサー22の目標位置p_t^w(d)(→)及び姿勢o_t^w(d)(→)を算出する(ステップS440)。   On the other hand, when the robot control unit 42 determines that one or both of the additional minute movement amount Δp_t ^ w (→) and the additional minute rotation amount Δo_t ^ w (→) is not less than a predetermined threshold for each ( In step S430-No), the robot control unit 42 calculates the work coordinate system from the following equation (16) based on the mitigation motion amount calculated in step S390 and the target motion amount calculated in step S410. The target position p_t ^ w (d) (→) and posture o_t ^ w (d) (→) of the force sensor 22 at Σ_w are calculated (step S440).

Figure 2015221485
Figure 2015221485

なお、ロボット制御部42は、ステップS420で算出された加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)の両方が、それぞれに対する所定の閾値未満か否かを判定する構成に代えて、ステップS410で算出された微小目標移動量Δp_t^w(v)(→)と微小目標回転量Δo_t^w(v)(→)の両方が、それぞれに対する所定の閾値未満であるか否かを判定する構成であってもよい。また、ロボット制御部42は、ロボット20に行わせる動作毎の性質に応じて、Δp_t^w(→)(i)、Δo_t^w(i)、Δp_t^w(→)(v)及びΔo_t^w(v)で構成される任意の関数を用いて、前記関数から得られる値が所定の閾値未満か否か(作業対象M2をこれ以上動かす必要があるか否か)を判定する構成であってもよい。   Note that the robot control unit 42 determines whether or not both the added minute movement amount Δp_t ^ w (→) and the added minute rotation amount Δo_t ^ w (→) calculated in step S420 are less than a predetermined threshold value for each. Instead of the configuration to be performed, both the minute target movement amount Δp_t ^ w (v) (→) and the minute target rotation amount Δo_t ^ w (v) (→) calculated in step S410 are less than a predetermined threshold value for each. The structure which determines whether there exists may be sufficient. In addition, the robot control unit 42 determines Δp_t ^ w (→) (i), Δo_t ^ w (i), Δp_t ^ w (→) (v), and Δo_t ^ depending on the property of each operation that the robot 20 performs. Using an arbitrary function configured by w (v), it is determined whether or not the value obtained from the function is less than a predetermined threshold (whether or not the work target M2 needs to be moved further). May be.

次に、ロボット制御部42は、力センサー22の位置及び姿勢が、ステップS440で算出された作業座標系Σ_wにおける力センサー22の目標位置p_t^w(d)(→)及び姿勢o_t^w(d)(→)と一致するように、力センサー22を移動させるようにロボット20を制御する(ステップS450)。制御部36は、ステップS300〜ステップS450の処理を、ステップS430の判定によって作業対象M2をこれ以上動かす必要がないと判断されるまで繰り返すことで、目標画像が表す状態を実現するための動作をロボット20が行うように制御する。   Next, the robot control unit 42 determines that the position and posture of the force sensor 22 are the target position p_t ^ w (d) (→) and the posture o_t ^ w () of the force sensor 22 in the work coordinate system Σ_w calculated in step S440. d) The robot 20 is controlled to move the force sensor 22 so as to coincide with (→) (step S450). The control unit 36 repeats the processes in steps S300 to S450 until it is determined that it is not necessary to move the work object M2 any more by the determination in step S430, thereby performing an operation for realizing the state represented by the target image. Control is performed by the robot 20.

なお、ロボット制御部42は、ステップS330からステップS360までの処理において、例えば、力センサー22がマニピュレーターMNPの内部に備えられ、外部から見えず、第2撮像部12により力センサー22を撮像することができない場合、上述した力センサー22の位置を示すマーカーを備える構成としてもよく、ユーザーにより設定された力センサー22と回転中心位置及び回転中心姿勢の初期状態における相対的な位置関係に基づいて、以下に示した式(17)〜式(19)から、外力座標系Σ_eにおける力センサー22の位置p_t^e(→)と姿勢o_t^e(→)を逐次計算する構成としてもよい。   In the process from step S330 to step S360, for example, the robot control unit 42 is configured such that the force sensor 22 is provided inside the manipulator MNP and cannot be seen from the outside, and the second imaging unit 12 images the force sensor 22. If it is not possible, it may be configured to include a marker indicating the position of the force sensor 22 described above, based on the relative positional relationship in the initial state of the force sensor 22 and the rotation center position and rotation center posture set by the user, From the following equations (17) to (19), the position p_t ^ e (→) and the posture o_t ^ e (→) of the force sensor 22 in the external force coordinate system Σ_e may be sequentially calculated.

Figure 2015221485
Figure 2015221485

Figure 2015221485
Figure 2015221485

Figure 2015221485
Figure 2015221485

上記の式(17)〜式(19)は、第2撮像画像から検出される作業対象M2の移動量から、ロボット20自身が動いた量を差し引くことで、力センサー22と作業対象M2の相対的な位置関係がずれた量を算出する式である。なお、ロボット20自身が動いた量は、制御部36によりロボット20の初期状態に基づいて算出される。ユーザーにより設定された力センサー22と回転中心位置及び回転中心姿勢の初期状態における相対的な位置関係及び上記の式(17)〜(19)を用いる構成は、作業対象M2と力センサー22が第2撮像部12の撮像範囲に収まらない場合、すなわち、力センサー22の位置を示すマーカーを用いていても力センサー22の位置を検出できない場合であっても、作業対象M2の位置及び姿勢と力センサー22の位置及び姿勢を追跡できるため、有用である。   The above equations (17) to (19) are obtained by subtracting the amount of movement of the robot 20 itself from the amount of movement of the work target M2 detected from the second captured image, so that the relative force sensor 22 and the work target M2 are relative to each other. This is an expression for calculating the amount of deviation of the general positional relationship. Note that the amount of movement of the robot 20 itself is calculated by the control unit 36 based on the initial state of the robot 20. In the configuration using the force sensor 22 set by the user and the relative positional relationship between the rotation center position and the rotation center posture in the initial state and the above equations (17) to (19), the work object M2 and the force sensor 22 2 Even when the position of the force sensor 22 cannot be detected even if a marker indicating the position of the force sensor 22 is used, the position, posture, and force of the work target M2 are not included in the imaging range of the imaging unit 12. This is useful because the position and orientation of the sensor 22 can be tracked.

ロボット制御部42は、上記の式(17)〜式(19)を用いた逐次計算をすることによって、第2撮像部12により力センサー22を撮像することができない場合であっても、第2撮像部12により力センサー22を撮像できる場合と同様にステップS330からステップS360の処理を行うことができる。その結果として、制御部36は、力センサー22と作業対象M2に設定された所定位置との相対的な位置関係に基づいて、ロボット20が動作を行うようにロボット20を制御することができる。なお、第2撮像部12により力センサー22が撮像することができない場合とは、例えば、力センサー22がマニピュレーターMNPの部材に覆われていた場合や、第2撮像部12の画角から力センサー22を含むマニピュレーターMNPが外れてしまうような場合等である。   The robot control unit 42 performs the sequential calculation using the above equations (17) to (19), so that even if the force sensor 22 cannot be imaged by the second imaging unit 12, the second Similar to the case where the force sensor 22 can be imaged by the imaging unit 12, the processing from step S330 to step S360 can be performed. As a result, the control unit 36 can control the robot 20 so that the robot 20 operates based on the relative positional relationship between the force sensor 22 and a predetermined position set for the work target M2. Note that the case where the force sensor 22 cannot capture an image by the second imaging unit 12 includes, for example, a case where the force sensor 22 is covered by a member of the manipulator MNP, or a force sensor based on the angle of view of the second imaging unit 12. For example, the manipulator MNP including 22 may come off.

<第1実施形態の変形例1>
以下、本発明の第1実施形態の変形例1について説明する。第1実施形態の変形例1に係る制御装置30の制御部36は、第1撮像画像から抽出された目標画像を選択し、選択された目標画像に基づいてビジュアルサーボを行う構成に代えて、第1撮像画像から抽出された目標画像とともに、ユーザーにより入力受付部33から受け付けた静止画像を目標画像として選択し、選択された目標画像に基づいてビジュアルサーボを行う。
<Variation 1 of the first embodiment>
Hereinafter, the modification 1 of 1st Embodiment of this invention is demonstrated. Instead of the configuration in which the control unit 36 of the control device 30 according to the first modification of the first embodiment selects a target image extracted from the first captured image and performs visual servoing based on the selected target image, A still image received from the input receiving unit 33 by the user is selected as a target image together with the target image extracted from the first captured image, and visual servoing is performed based on the selected target image.

これにより、制御部36は、第1撮像画像から所定の条件によって抽出することができない作業対象M2と組付対象O2の状態を表す目標画像に基づいて、ビジュアルサーボを行うことができる。その結果として、ユーザーは、制御部36に対して、より詳細なロボット20の動作を、より簡易に教示することができる。   Thereby, the control part 36 can perform visual servo based on the target image showing the state of the work target M2 and the assembly target O2 that cannot be extracted from the first captured image according to a predetermined condition. As a result, the user can more easily teach the controller 36 more detailed operations of the robot 20.

<第1実施形態の変形例2>
以下、本発明の第1実施形態の変形例2について説明する。第1実施形態の変形例2に係る制御装置30の制御部36は、第1撮像画像から所定の条件を満たしたフレームを目標画像として抽出する。所定の条件とは、例えば、作業対象M1が所定時間静止していることである。
<Modification 2 of the first embodiment>
Hereinafter, Modification 2 of the first embodiment of the present invention will be described. The control unit 36 of the control device 30 according to the second modification of the first embodiment extracts a frame that satisfies a predetermined condition from the first captured image as a target image. The predetermined condition is, for example, that the work target M1 is stationary for a predetermined time.

これにより、ユーザーは、第1撮像部11により第1撮像画像が撮像される際、制御部36に対して教示したい動作に係る状態毎に、作業対象M2を少なくとも所定時間以上静止させることで、所望の目標画像を制御部36に抽出させることができる。その結果として、ユーザーは、制御部36に対して、より詳細なロボット20の動作を、より簡易に教示することができる。   Thereby, when the user captures the first captured image by the first imaging unit 11, the user stops the work target M2 for at least a predetermined time for each state related to the operation to be taught to the control unit 36. It is possible to cause the control unit 36 to extract a desired target image. As a result, the user can more easily teach the controller 36 more detailed operations of the robot 20.

以上説明したように、第1実施形態に係るロボットシステム1は、作業対象M1の移動を時系列に撮像した複数の第1撮像画像を受け、複数の第1撮像画像から、作業対象M1の運動状態が変化したときのフレームを目標画像として抽出し、抽出した目標画像を用いて、ビジュアルサーボによりマニピュレーターMNPを動作させる。これにより、ロボットシステム1は、大きな誤差なく教示内容の情報を取得することができる。その結果、ロボットは、教示された動作をビジュアルサーボによって行うことができる。また、ロボットシステム1は、動作の教示を容易に行うことができる。   As described above, the robot system 1 according to the first embodiment receives a plurality of first captured images obtained by capturing the movement of the work target M1 in time series, and the movement of the work target M1 from the plurality of first captured images. A frame when the state changes is extracted as a target image, and the manipulator MNP is operated by visual servoing using the extracted target image. Thereby, the robot system 1 can acquire the information of the teaching content without a large error. As a result, the robot can perform the taught motion by the visual servo. Further, the robot system 1 can easily teach the operation.

また、ロボットシステム1は、作業対象M1の移動状態が変化したときのフレームを目標画像として抽出し、抽出した目標画像を用いて、ビジュアルサーボによりマニピュレーターMNPを動作させる。これにより、ロボットシステム1は、作業対象M1の移動状態が変化した時の目標画像に基づく教示内容を取得することができる。   Further, the robot system 1 extracts a frame when the movement state of the work target M1 is changed as a target image, and operates the manipulator MNP by visual servo using the extracted target image. Thereby, the robot system 1 can acquire the teaching content based on the target image when the movement state of the work target M1 changes.

また、ロボットシステム1は、作業対象M1の速度が変化した時のフレームを目標画像として抽出し、抽出した目標画像を用いて、ビジュアルサーボによりマニピュレーターMNPを動作させる。これにより、ロボットシステム1は、作業対象M1の速度が変化した時の目標画像に基づく教示内容を取得することができる。   Further, the robot system 1 extracts a frame when the speed of the work target M1 changes as a target image, and operates the manipulator MNP by visual servo using the extracted target image. Thereby, the robot system 1 can acquire the teaching content based on the target image when the speed of the work target M1 changes.

また、ロボットシステム1は、作業対象M1の接触状態が変化した時のフレームを目標画像として抽出し、抽出した目標画像を用いて、ビジュアルサーボによりマニピュレーターMNPを動作させる。これにより、ロボットシステム1は、作業対象M1の接触状態が変化した時の目標画像に基づく教示内容を取得することができる。   Further, the robot system 1 extracts a frame when the contact state of the work target M1 is changed as a target image, and operates the manipulator MNP by visual servo using the extracted target image. Thereby, the robot system 1 can acquire the teaching content based on the target image when the contact state of the work target M1 changes.

また、ロボットシステム1は、作業対象M1の速度がゼロになった時のフレームを用いて、ビジュアルサーボによりマニピュレーターMNPを移動させることで作業対象M2を組付対象O2に組み付ける。これにより、ロボットシステム1は、作業対象M2の速度がゼロになった時のフレームを目標画像として使用することで、速度がゼロになった時を1つの動作の区切りとすることができる。   Further, the robot system 1 assembles the work target M2 to the assembly target O2 by moving the manipulator MNP by visual servo using the frame when the speed of the work target M1 becomes zero. Thereby, the robot system 1 can use the frame when the speed of the work target M2 becomes zero as a target image, and can set the time when the speed becomes zero as a segment of one operation.

また、ロボットシステム1は、第1撮像画像からユーザーにより所望の場面が抽出された抽出画像を目標画像として用いて、ビジュアルサーボによりマニピュレーターMNPを移動させることで作業対象M2を組付対象O2に組み付ける。これにより、ロボットシステム1は、より詳細な教示内容を取得することができる。   Also, the robot system 1 uses the extracted image obtained by extracting a desired scene from the first captured image as a target image, and moves the manipulator MNP by visual servo to assemble the work target M2 to the assembly target O2. . Thereby, the robot system 1 can acquire more detailed teaching content.

<第2実施形態>
以下、本発明の第2実施形態について、図面を参照して説明する。第2実施形態に係るロボットシステム2は、ロボット20として単腕ロボットを具備する構成に代えて、ロボット25として双腕ロボットを具備する構成である。なお、第2実施形態では、第1実施形態と同様な構成部には、同じ符号を付して説明を省略する。
Second Embodiment
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. The robot system 2 according to the second embodiment has a configuration in which a double-arm robot is provided as the robot 25 instead of a configuration in which the robot 20 is provided with a single-arm robot. Note that in the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

図10は、第2実施形態に係るロボットシステム2の一例を示す構成図である。ロボットシステム2は、第1撮像部11と、第2撮像部12と、ロボット25と、制御装置30とを具備する。第2実施形態において、組付対象O2は、テーブル等の台の上に治具等によって設置されており、双腕ロボットであるロボット25のいずれか一方の腕によって、第1実施形態で説明した目標画像に基づくビジュアルサーボにより作業対象M2が組み付けられる。なお、組付対象O2は、ロボット25の把持部HND2によって把持され、把持部HND1によって第1実施形態で説明した目標画像に基づくビジュアルサーボによる作業対象M2の組付対象O2への組み付けに係る動作が行われるとしてもよい。また、この場合、把持部HND1と把持部HND2の役割が逆であってもよい。   FIG. 10 is a configuration diagram illustrating an example of the robot system 2 according to the second embodiment. The robot system 2 includes a first imaging unit 11, a second imaging unit 12, a robot 25, and a control device 30. In the second embodiment, the assembly target O2 is installed on a table such as a table with a jig or the like, and the one of the arms of the robot 25 that is a double-arm robot is described in the first embodiment. The work object M2 is assembled by visual servoing based on the target image. The assembly target O2 is gripped by the gripping unit HND2 of the robot 25, and the gripper HND1 is an operation related to the assembly of the work target M2 to the assembly target O2 by the visual servo based on the target image described in the first embodiment. May be performed. In this case, the roles of the gripping part HND1 and the gripping part HND2 may be reversed.

ロボット25は、例えば、把持部HND1と、把持部HND2と、力センサー22と、マニピュレーターMNP1と、マニピュレーターMNP2と、図示しない複数のアクチュエーターとを、図10に示したように、それぞれの腕に備えた双腕ロボットである。   The robot 25 includes, for example, a gripper HND1, a gripper HND2, a force sensor 22, a manipulator MNP1, a manipulator MNP2, and a plurality of actuators (not shown) on each arm as shown in FIG. A double-armed robot.

ロボット25の各腕は、6軸垂直多関節型となっており、一方の腕が支持台とマニピュレーターMNP1と把持部HND1とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができ、他方の腕が支持台とマニピュレーターMNP2と把持部HND2とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の各腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。   Each arm of the robot 25 is a six-axis vertical articulated type, and one arm can perform a six-axis freedom movement by a support base, a manipulator MNP1, and a gripper HND1 that are coordinated by an actuator. The other arm can be operated with six axes of freedom by the operation in which the support base, the manipulator MNP2, and the gripper HND2 are linked by the actuator. Each arm of the robot 20 may operate with 5 degrees of freedom (5 axes) or less, or may operate with 7 degrees of freedom (7 axes) or more.

ロボット25は、第1実施形態において説明した制御装置30によって制御される動作を、把持部HND1及びマニピュレーターMNP1を備えた腕によって行うとするが、把持部HND2及びマニピュレーターMNP2を備えた腕によって同様の動作が行われてもよい。なお、マニピュレーターMNP1(又はマニピュレーターMNP1及び把持部HND1)、マニピュレーターMNP2(又はマニピュレーターMNP2及び把持部HND2)は、それぞれアームの一例である。ロボット25は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット25と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。   The robot 25 performs the operation controlled by the control device 30 described in the first embodiment with the arm including the gripping unit HND1 and the manipulator MNP1, but the same operation is performed with the arm including the gripping unit HND2 and the manipulator MNP2. An operation may be performed. The manipulator MNP1 (or the manipulator MNP1 and the grip portion HND1) and the manipulator MNP2 (or the manipulator MNP2 and the grip portion HND2) are examples of arms, respectively. The robot 25 is communicably connected to the control device 30 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The robot 25 and the control device 30 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

また、ロボット25は、図10に示したようにロボット25がロボット25の内部に搭載された制御装置30によって制御される構成とするが、この構成に代えて、制御装置30がロボット25の外部に設置されている構成であってもよい。   Further, the robot 25 is configured such that the robot 25 is controlled by a control device 30 mounted inside the robot 25 as shown in FIG. The structure installed in may be sufficient.

以上説明したように、第2実施形態に係るロボットシステム2のロボット25は、双腕ロボットであり、第1撮像部11により撮像された第1撮像画像から少なくとも1フレーム以上の目標画像を抽出し、抽出された目標画像に基づいて双腕ロボットの2つの腕のうちいずれか一方又は両方によって作業対象M2を組付対象O2に組み付ける作業を行うため、第1実施形態と同様の効果を得ることができる。   As described above, the robot 25 of the robot system 2 according to the second embodiment is a dual-arm robot, and extracts a target image of at least one frame from the first captured image captured by the first imaging unit 11. Since the task of assembling the work target M2 to the assembly target O2 is performed by one or both of the two arms of the double-arm robot based on the extracted target image, the same effect as in the first embodiment can be obtained. Can do.

なお、上記の実施形態において、第1撮像部11が第1撮像画像を撮像し、第2撮像部12が第2撮像画像を撮像する構成としたが、これに代えて、第1撮像部11又は第2撮像部12のうちいずれか一方によって第1撮像画像及び第2撮像画像の両方を撮像する構成であってもよい。その場合、第1撮像画像を撮像するタイミングは、必ず第2撮像画像を撮像するタイミングの前となる。   In the above-described embodiment, the first imaging unit 11 captures the first captured image, and the second imaging unit 12 captures the second captured image. Instead, the first imaging unit 11 Alternatively, a configuration may be adopted in which either the first captured image or the second captured image is captured by either one of the second imaging units 12. In that case, the timing for capturing the first captured image is always before the timing for capturing the second captured image.

また、以上に説明した装置(例えば、ロボットシステム1、2)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。   In addition, a program for realizing the functions of arbitrary components in the devices described above (for example, robot systems 1 and 2) is recorded on a computer-readable recording medium, and the program is read into the computer system. You may make it perform. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. “Computer-readable recording medium” means a portable disk such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD (Compact Disk) -ROM, or a hard disk built in a computer system. Refers to the device. Further, the “computer-readable recording medium” means a volatile memory (RAM: Random Access) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Memory that holds a program for a certain period of time, such as Memory).

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1、2 ロボットシステム、11 第1撮像部、12 第2撮像部、20、25 ロボット、22 力センサー、30 制御装置、31 CPU、32 記憶部、33 入力受付部、34 通信部、35 画像取得部、36 制御部、41 目標画像抽出部、42 ロボット制御部 DESCRIPTION OF SYMBOLS 1, 2 Robot system, 11 1st imaging part, 12 2nd imaging part, 20, 25 Robot, 22 Force sensor, 30 Control apparatus, 31 CPU, 32 Storage part, 33 Input reception part, 34 Communication part, 35 Image acquisition Unit, 36 control unit, 41 target image extraction unit, 42 robot control unit

Claims (8)

アームと、
前記アームを動作させる制御装置と、
を含み、
前記制御装置は、
作業対象物の移動を時系列に撮像した複数の第1画像を受け、
複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、
抽出した前記第2画像を用いて、ビジュアルサーボにより前記アームを動作させる、
ロボット。
Arm,
A control device for operating the arm;
Including
The controller is
Receiving a plurality of first images obtained by imaging the movement of the work object in time series;
Extracting a second image when the movement state of the work object is changed from the plurality of first images;
Using the extracted second image, the arm is operated by visual servoing.
robot.
請求項1に記載のロボットであって、
前記作業対象物の運動状態は、前記作業対象物の移動状態である、
ロボット。
The robot according to claim 1,
The movement state of the work object is a movement state of the work object.
robot.
請求項2に記載のロボットであって、
前記作業対象物の移動状態が変化した時の前記第2画像は、前記作業対象物の速度が変化した時の画像である、
ロボット。
The robot according to claim 2,
The second image when the movement state of the work object is changed is an image when the speed of the work object is changed.
robot.
請求項1に記載のロボットであって、
前記作業対象物の運動状態は、前記作業対象物の接触状態である、
ロボット。
The robot according to claim 1,
The movement state of the work object is a contact state of the work object.
robot.
請求項1乃至4のいずれか一項に記載のロボットであって、
前記第2画像は、入力受付部から入力された複数の前記第1画像から選択された画像である、
ロボット。
The robot according to any one of claims 1 to 4,
The second image is an image selected from the plurality of first images input from the input receiving unit.
robot.
撮像部と、
アームを備えるロボットと、
前記アームを動作させる制御装置と、
を具備し、
前記制御装置は、
作業対象物の移動を前記撮像部によって時系列に撮像された複数の第1画像を受け、
複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、
抽出した前記第2画像を用いて、ビジュアルサーボにより前記アームを動作させる、
ロボットシステム。
An imaging unit;
A robot with an arm;
A control device for operating the arm;
Comprising
The controller is
Receiving a plurality of first images captured in time series by the imaging unit for the movement of the work object,
Extracting a second image when the movement state of the work object is changed from the plurality of first images;
Using the extracted second image, the arm is operated by visual servoing.
Robot system.
作業対象物の移動を時系列に撮像した複数の第1画像を受け、
複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、
抽出した前記第2画像を用いて、ビジュアルサーボによりロボットのアームを動作させる、
制御装置。
Receiving a plurality of first images obtained by imaging the movement of the work object in time series;
Extracting a second image when the movement state of the work object is changed from the plurality of first images;
Using the extracted second image, the robot arm is operated by visual servoing.
Control device.
作業対象物の移動を時系列に撮像した複数の第1画像を受け、
複数の前記第1画像から、前記作業対象物の運動状態が変化したときの第2画像を抽出し、
抽出した前記第2画像を用いて、ビジュアルサーボによりロボットのアームを動作させる、
制御方法。
Receiving a plurality of first images obtained by imaging the movement of the work object in time series;
Extracting a second image when the movement state of the work object is changed from the plurality of first images;
Using the extracted second image, the robot arm is operated by visual servoing.
Control method.
JP2014107444A 2014-05-23 2014-05-23 Robot, robot system, control device, and control method Active JP6455869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014107444A JP6455869B2 (en) 2014-05-23 2014-05-23 Robot, robot system, control device, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014107444A JP6455869B2 (en) 2014-05-23 2014-05-23 Robot, robot system, control device, and control method

Publications (2)

Publication Number Publication Date
JP2015221485A true JP2015221485A (en) 2015-12-10
JP6455869B2 JP6455869B2 (en) 2019-01-23

Family

ID=54784820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014107444A Active JP6455869B2 (en) 2014-05-23 2014-05-23 Robot, robot system, control device, and control method

Country Status (1)

Country Link
JP (1) JP6455869B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6038417B1 (en) * 2016-01-29 2016-12-07 三菱電機株式会社 Robot teaching apparatus and robot control program creating method
JP2020023024A (en) * 2018-08-08 2020-02-13 オムロン株式会社 Control system, analyzer, and control method
DE102019118012B3 (en) * 2019-07-03 2020-09-17 Günther Battenberg Method and device for controlling a robot system by means of human movement

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110621A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of producing teaching data of robot and robot teaching system
JP2013109444A (en) * 2011-11-18 2013-06-06 Toyohashi Univ Of Technology Automatic control device
JP2013146844A (en) * 2012-01-23 2013-08-01 Seiko Epson Corp Device, method, and program for generating teaching image, and device, method, and program for controlling robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110621A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of producing teaching data of robot and robot teaching system
JP2013109444A (en) * 2011-11-18 2013-06-06 Toyohashi Univ Of Technology Automatic control device
JP2013146844A (en) * 2012-01-23 2013-08-01 Seiko Epson Corp Device, method, and program for generating teaching image, and device, method, and program for controlling robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6038417B1 (en) * 2016-01-29 2016-12-07 三菱電機株式会社 Robot teaching apparatus and robot control program creating method
WO2017130389A1 (en) * 2016-01-29 2017-08-03 三菱電機株式会社 Robot teaching device, and method for generating robot control program
US20180345491A1 (en) * 2016-01-29 2018-12-06 Mitsubishi Electric Corporation Robot teaching device, and method for generating robot control program
JP2020023024A (en) * 2018-08-08 2020-02-13 オムロン株式会社 Control system, analyzer, and control method
DE102019118012B3 (en) * 2019-07-03 2020-09-17 Günther Battenberg Method and device for controlling a robot system by means of human movement
EP3760393A1 (en) 2019-07-03 2021-01-06 Günther Battenberg Method and apparatus for controlling a robot system using human motion

Also Published As

Publication number Publication date
JP6455869B2 (en) 2019-01-23

Similar Documents

Publication Publication Date Title
JP6380828B2 (en) Robot, robot system, control device, and control method
US10828782B2 (en) Robot system, robot, and robot control apparatus
US11090814B2 (en) Robot control method
JP6816364B2 (en) Controls, robots, and robot systems
CN107571260B (en) Method and device for controlling robot to grab object
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
Reddivari et al. Teleoperation control of Baxter robot using body motion tracking
JP6364836B2 (en) Robot, robot system, and control device
JP2018051704A (en) Robot control device, robot, and robot system
CN110662631B (en) Control device, robot control method, and robot control system
JP2017170571A (en) Robot, robot control apparatus, and robot system
WO2020190166A1 (en) Method and system for grasping an object by means of a robotic device
US20180085920A1 (en) Robot control device, robot, and robot system
JP6455869B2 (en) Robot, robot system, control device, and control method
Çoban et al. Wireless teleoperation of an industrial robot by using myo arm band
US20160306340A1 (en) Robot and control device
JP2015186834A (en) Robot control apparatus, holding unit control device, robot, holding unit, robot control method and program
JP2018122376A (en) Image processing device, robot control device, and robot
Parga et al. Tele-manipulation of robot arm with smartphone
JP2015182212A (en) Robot system, robot, control device, and control method
JP2017159429A (en) Robot control device, information processing device, and robot system
JP2019111588A (en) Robot system, information processor, and program
JP2017052073A (en) Robot system, robot and robot control device
JP2016013610A (en) Robot, and control method
JP2017100197A (en) Robot and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6455869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250