JP2015136764A - Control device, robot system, robot and robot control method - Google Patents

Control device, robot system, robot and robot control method Download PDF

Info

Publication number
JP2015136764A
JP2015136764A JP2014010150A JP2014010150A JP2015136764A JP 2015136764 A JP2015136764 A JP 2015136764A JP 2014010150 A JP2014010150 A JP 2014010150A JP 2014010150 A JP2014010150 A JP 2014010150A JP 2015136764 A JP2015136764 A JP 2015136764A
Authority
JP
Japan
Prior art keywords
marker
feature amount
robot
work object
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014010150A
Other languages
Japanese (ja)
Other versions
JP6424432B2 (en
Inventor
太郎 石毛
Taro Ishige
太郎 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014010150A priority Critical patent/JP6424432B2/en
Publication of JP2015136764A publication Critical patent/JP2015136764A/en
Application granted granted Critical
Publication of JP6424432B2 publication Critical patent/JP6424432B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a control device capable of continuously operating a robot even when a feature amount of a work object cannot be detected or is erroneously detected in a captured image, and further to provide a robot system, a robot, a robot control method and the like.SOLUTION: A control device 100 includes: a processing section 150 operating a robot 300 provided with an end effector 310 moving a work object; and a captured image reception section 130 receiving a captured image obtained by the work object and a marker on the work object or the end effector 310 being imaged by an image section 200. Further, the processing section 150 images the work object and the marker a plurality of times while a posture of the robot 300 is being changed from a first posture to a second posture different from the first posture and operates the robot 300 even when a feature amount of the work object cannot be detected in the captured image.

Description

本発明は、制御装置、ロボットシステム、ロボット及びロボット制御方法等に関係する。   The present invention relates to a control device, a robot system, a robot, a robot control method, and the like.

近年、生産現場において、人が行っていた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットの位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。   In recent years, industrial robots have been increasingly introduced in order to mechanize and automate the work that humans have done at production sites. However, precise positioning is a prerequisite for positioning the robot, which is a barrier to robot introduction.

ここで、ロボットの位置決めを行う手法の一つとしてビジュアルサーボがある。ビジュアルサーボは、参照画像(ゴール画像、目標画像)と撮像画像(現在の画像)との差に基づいて、ロボットを制御する技術である。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。   Here, visual servoing is one of the methods for positioning the robot. Visual servo is a technique for controlling a robot based on a difference between a reference image (goal image, target image) and a captured image (current image). Certain types of visual servos are useful in that they do not require precision in calibration, and are attracting attention as a technology that lowers the barrier for robot introduction.

このビジュアルサーボに関する技術としては、例えば特許文献1に記載される従来技術がある。   As a technique related to this visual servo, there is a conventional technique described in Patent Document 1, for example.

特開2003−305675号公報JP 2003-305675 A

ビジュアルサーボでは、例えば撮像画像において作業対象の特徴量検出処理を行って、検出された撮像画像における作業対象の特徴量と、参照画像における作業対象の特徴量とに基づいて、ロボットを制御する。   In visual servoing, for example, a feature amount detection process of a work target is performed on a captured image, and the robot is controlled based on the feature amount of the work target in the detected captured image and the feature amount of the work target in the reference image.

しかし、撮像画像における作業対象の特徴量は、常に正常に検出されるとは限らない。例えば、光源のフリッカーや作業対象の位置姿勢などが原因で、作業対象の特徴量が検出できなかったり、誤検出されたりすることがある。これらの場合にはビジュアルサーボにより、意図した作業を正確に行うことができない。   However, the feature amount of the work target in the captured image is not always detected normally. For example, the feature quantity of the work target may not be detected or may be erroneously detected due to the flicker of the light source or the position and orientation of the work target. In these cases, the intended work cannot be accurately performed by visual servoing.

本発明の一態様は、作業対象物を動かすエンドエフェクターを備えるロボットを動作させる処理部と、前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上のマーカーが、撮像部により撮像されて得られた撮像画像を受け付ける撮像画像受付部と、を含み、前記処理部は、前記撮像画像において前記作業対象物の特徴量が検出できない場合でも、前記ロボットが第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して、前記ロボットを動作させる制御装置に関係する。   According to one embodiment of the present invention, a processing unit that operates a robot including an end effector that moves a work target, the work target, and the marker on the work target or the end effector are captured by an imaging unit. A captured image receiving unit that receives the captured image, and the processing unit detects the feature amount of the work object in the captured image even if the robot is in a first posture from the first posture. The present invention relates to a control device that operates the robot by imaging the work object and the marker a plurality of times while moving to a second posture different from the posture.

本発明の一態様では、撮像画像における作業対象の特徴量が検出できない場合でも、マーカー検出処理の結果に基づいて、ビジュアルサーボを継続させるための処理を行う。   In one aspect of the present invention, even when the feature amount of the work target in the captured image cannot be detected, processing for continuing visual servoing is performed based on the result of the marker detection processing.

これにより、撮像画像において作業対象の特徴量が非検出である場合でも、継続してビジュアルサーボを行うことが可能となる。そして、撮像画像において作業対象の特徴量が非検出である場合に、例えばビジュアルサーボにおいてエラーが発生したと判定して、目標位置に移動する前にロボットを停止させてしまうことを防ぐこと等が可能となる。   Thereby, even when the feature amount of the work target is not detected in the captured image, visual servoing can be continuously performed. Then, when the feature amount of the work target is not detected in the captured image, for example, it is determined that an error has occurred in the visual servo, and the robot is prevented from stopping before moving to the target position. It becomes possible.

また、本発明の一態様では、前記処理部は、前記撮像画像において前記作業対象物の特徴量検出処理を行い、前記特徴量検出処理において、前記作業対象物の特徴量が検出できない場合、又は前記作業対象物の前記特徴量が誤って検出される場合でも、前記ロボットが前記第1の姿勢から前記第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像し、前記マーカーのマーカー検出処理の結果に基づいて、前記ロボットを動作させてもよい。   In the aspect of the invention, the processing unit performs a feature amount detection process of the work object in the captured image, and the feature amount of the work object cannot be detected in the feature amount detection process, or Even when the feature amount of the work object is erroneously detected, the work object and the marker are imaged a plurality of times while the robot moves from the first posture to the second posture, The robot may be operated based on the marker detection processing result of the marker.

これにより、撮像画像において作業対象の特徴量が非検出である場合又は誤検出された場合でも、継続してビジュアルサーボを行うことが可能となる。   Thereby, even when the feature amount of the work target is not detected or erroneously detected in the captured image, visual servoing can be continuously performed.

また、本発明の一態様では、前記処理部は、前記特徴量検出処理において、前記撮像画像における前記作業対象物の前記特徴量が検出されなかったが、前記マーカー検出処理において検出された前記マーカーの数が所与の閾値以上である場合に、前記マーカー検出処理の結果に基づいて、前記ロボットを動作させてもよい。   In the aspect of the invention, the processing unit may detect the marker detected in the marker detection process, although the feature amount of the work object in the captured image is not detected in the feature amount detection process. May be operated based on the result of the marker detection process.

これにより、作業対象が撮像画像に映っているにも関わらず、作業対象の特徴量を検出できなかった場合を判別すること等が可能になる。   As a result, it is possible to determine a case where the feature amount of the work target cannot be detected even though the work target is reflected in the captured image.

また、本発明の一態様では、前記処理部は、前記特徴量検出処理において、前記撮像画像における前記作業対象物の前記特徴量が検出され、前記マーカー検出処理において検出された前記マーカーの数が所与の閾値以上である場合に、前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との位置姿勢関係を特定し、特定した前記位置姿勢関係に基づいて、前記特徴量検出処理において、前記作業対象物の前記特徴量が誤って検出されたか否かを判定してもよい。   In the aspect of the invention, the processing unit detects the feature amount of the work object in the captured image in the feature amount detection process, and determines the number of the markers detected in the marker detection process. The position and orientation relationship between the marker and the work object is specified based on the result of the marker detection process and the result of the feature amount detection process when the value is equal to or greater than a given threshold, and the specified position Based on the posture relationship, it may be determined in the feature amount detection process whether or not the feature amount of the work target is erroneously detected.

これにより、撮像画像において、作業対象の特徴量を誤検出してしまった場合を判別すること等が可能になる。   As a result, it is possible to determine a case where the feature amount of the work target is erroneously detected in the captured image.

また、本発明の一態様では、前記処理部は、前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との位置姿勢関係を特定し、特定した前記位置姿勢関係の登録処理を行ってもよい。   Moreover, in one aspect of the present invention, the processing unit specifies a position and orientation relationship between the marker and the work object based on a result of the marker detection process and a result of the feature amount detection process. Registration processing of the specified position and orientation relationship may be performed.

これにより、異なるタイミングにおいて取得された撮像画像における、マーカーと作業対象との位置姿勢関係を比較すること等が可能になる。   This makes it possible to compare the position and orientation relationship between the marker and the work target in captured images acquired at different timings.

また、本発明の一態様では、前記処理部は、前記登録処理後に、前記撮像画像受付部が受け付けた第2の撮像画像に基づいて、前記マーカー検出処理と、前記特徴量検出処理とを行い、前記第2の撮像画像における前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との第2の位置姿勢関係を特定し、前記第2の位置姿勢関係と、登録された前記位置姿勢関係との比較処理を行い、前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していると判定した場合には、前記第2の位置姿勢関係の前記登録処理を行ってもよい。   In the aspect of the invention, the processing unit performs the marker detection process and the feature amount detection process based on the second captured image received by the captured image reception unit after the registration process. The second position / orientation relationship between the marker and the work object is specified based on the result of the marker detection process in the second captured image and the result of the feature amount detection process, and the second The position / posture relationship is compared with the registered position / posture relationship, and when it is determined that the second position / posture relationship corresponds to the registered position / posture relationship, You may perform the said registration process of 2nd position and orientation relation.

これにより、撮像画像において、作業対象の特徴量が誤検出されていない場合を判別し、マーカーと作業対象との位置姿勢関係を更新すること等が可能になる。   As a result, it is possible to determine when the feature amount of the work target is not erroneously detected in the captured image, and to update the position and orientation relationship between the marker and the work target.

また、本発明の一態様では、前記処理部は、前記比較処理において、前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していないと判定した場合には、前記マーカー検出処理の結果に基づいて、前記第2の撮像画像における前記作業対象物の前記特徴量の特定処理を行い、特定した前記特徴量に基づいて、前記ロボットを動作させてもよい。   In the aspect of the invention, when the processing unit determines in the comparison process that the second position / posture relationship does not correspond to the registered position / posture relationship, the marker Based on the result of the detection process, the feature quantity of the work object in the second captured image may be specified, and the robot may be operated based on the specified feature quantity.

これにより、撮像画像において、作業対象の特徴量の誤検出が生じていることを判別し、この場合でもビジュアルサーボを継続すること等が可能になる。   As a result, it is possible to determine that an erroneous detection of the feature quantity of the work target has occurred in the captured image, and even in this case, visual servoing can be continued.

また、本発明の一態様では、前記処理部は、前記特徴量検出処理において、前記撮像画像における前記作業対象物の前記特徴量が検出できなかった又は誤って検出されたと判定されたが、前記マーカー検出処理において検出された前記マーカーの数が所与の閾値以上である場合には、前記マーカー検出処理の結果に基づいて、前記作業対象物の前記特徴量の特定処理を行い、特定した前記特徴量に基づいて、前記ロボットを動作させてもよい。   In one aspect of the present invention, the processing unit determines that the feature amount of the work object in the captured image has not been detected or has been erroneously detected in the feature amount detection process. When the number of the markers detected in the marker detection process is equal to or greater than a given threshold, based on the result of the marker detection process, the process for specifying the feature amount of the work object is performed, and the specified The robot may be operated based on the feature amount.

これにより、作業対象の特徴量が非検出である場合又は誤検出された場合でも、ビジュアルサーボを継続すること等が可能になる。   This makes it possible to continue visual servoing or the like even when the feature amount of the work target is not detected or is erroneously detected.

また、本発明の一態様では、前記処理部は、前記マーカー検出処理において、前記マーカーが検出されなかった場合、又は検出された前記マーカーの数が所与の閾値以下である場合には、前記作業対象物が撮像範囲外に位置すると判定してもよい。   Moreover, in one aspect of the present invention, the processing unit, when the marker is not detected in the marker detection process, or when the number of the detected markers is equal to or less than a given threshold, It may be determined that the work object is located outside the imaging range.

これにより、作業対象が撮像範囲外に位置するか否かを判別すること等が可能になる。   Thereby, it is possible to determine whether or not the work target is located outside the imaging range.

また、本発明の一態様では、前記処理部は、前記特徴量検出処理及び前記マーカー検出処理の少なくとも一方が失敗したと判定した場合には、前記ロボットの動作の開始位置の変更処理を行ってもよい。   In one aspect of the present invention, when it is determined that at least one of the feature amount detection process and the marker detection process has failed, the processing unit performs a change process of a start position of the robot operation. Also good.

これにより、作業対象がフレームアウトした場合でも、撮像画像において作業対象が映る位置にエンドエフェクターを移動させて、ビジュアルサーボを再開すること等が可能になる。   As a result, even when the work target is out of frame, it is possible to move the end effector to a position where the work target appears in the captured image and restart the visual servo.

また、本発明の一態様では、前記処理部は、前記ビジュアルサーボとして、前記撮像画像が前記参照画像に一致又は近付くように前記ロボットを制御する処理を行ってもよい。   In the aspect of the invention, the processing unit may perform a process of controlling the robot so that the captured image matches or approaches the reference image as the visual servo.

これにより、ロボットの位置姿勢を目標の位置姿勢にすること等が可能になる。   As a result, the position and orientation of the robot can be set to the target position and orientation.

また、本発明の他の態様は、作業対象物を動かすエンドエフェクターを備えるロボットを動作させる処理部と、前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上の複数のマーカーが、撮像部により撮像されて得られた撮像画像を受け付ける撮像画像受付部と、を含み、前記処理部は、前記撮像画像において、マーカーのマーカー検出処理によって検出された前記複数のマーカーにより特定される第1の領域と、前記作業対象物の特徴量検出処理により検出された前記作業対象物の特徴量に基づいて特定される第2の領域との重複領域の検出結果に基づいて、前記マーカーと前記作業対象物の位置姿勢関係を特定し、特定した前記位置姿勢関係に基づいて、前記ロボットを動作させる制御装置に関係する。   In another aspect of the present invention, a processing unit that operates a robot including an end effector that moves a work object, the work object, and a plurality of markers on the work object or the end effector include an imaging unit. A captured image receiving unit that receives a captured image obtained by imaging, wherein the processing unit is identified by the plurality of markers detected by marker detection processing of a marker in the captured image. Based on the detection result of the overlapping area between the area and the second area specified based on the feature quantity of the work object detected by the feature quantity detection process of the work object, the marker and the work object The present invention relates to a control device that specifies a position / posture relationship of an object and operates the robot based on the specified position / posture relationship.

これにより、例えばエンドエフェクターが作業対象物を把持している状態の撮像画像において、重複領域が存在すると判定した場合には、作業対象の特徴量が誤検出されていないと判定すること等が可能になる。   As a result, for example, when it is determined that an overlapping region exists in a captured image in a state where the end effector is holding the work object, it is possible to determine that the feature amount of the work object is not erroneously detected. become.

また、本発明の他の態様では、前記処理部は、特定した前記位置姿勢関係の登録処理を行い、前記登録処理後に、前記撮像画像受付部が受け付けた第2の撮像画像に基づいて、前記マーカー検出処理と、前記特徴量検出処理とを行い、前記第2の撮像画像における前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との第2の位置姿勢関係を特定し、前記第2の位置姿勢関係と、登録された前記位置姿勢関係との比較処理を行い、前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していると判定した場合には、前記特徴量検出処理において、前記作業対象物の前記特徴量が誤って検出されなかったと判定し、前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していないと判定した場合には、前記特徴量検出処理において、前記作業対象物の前記特徴量が誤って検出されたと判定してもよい。   In another aspect of the present invention, the processing unit performs a registration process of the identified position and orientation relationship, and after the registration process, based on a second captured image received by the captured image reception unit, A marker detection process and the feature quantity detection process are performed, and the marker and the work object are determined based on the result of the marker detection process in the second captured image and the result of the feature quantity detection process. The second position / posture relationship is identified, the second position / posture relationship is compared with the registered position / posture relationship, and the second position / posture relationship is compared with the registered position / posture relationship. In the feature amount detection process, it is determined that the feature amount of the work object has not been erroneously detected, and the second position and orientation relationship and the registered Position and posture relationship When it is determined not to be compatible, in the feature amount detection process it may determine that the feature amount of the working object is detected by mistake.

これにより、撮像画像において、作業対象の特徴量が誤検出されていない場合を判別し、マーカーと作業対象との位置姿勢関係を更新すること等が可能になる。   As a result, it is possible to determine when the feature amount of the work target is not erroneously detected in the captured image, and to update the position and orientation relationship between the marker and the work target.

また、本発明の他の態様では、前記処理部は、前記第1の領域が特定できる場合には、前記作業対象物が撮像範囲内に位置すると判定し、前記第1の領域が特定できない場合には、前記作業対象物が前記撮像範囲外に位置すると判定してもよい。   In another aspect of the present invention, when the first area can be specified, the processing unit determines that the work target is located within an imaging range, and the first area cannot be specified. Alternatively, it may be determined that the work object is located outside the imaging range.

これにより、作業対象が撮像範囲外に位置するか否かを判別すること等が可能になる。   Thereby, it is possible to determine whether or not the work target is located outside the imaging range.

また、本発明の他の態様は、作業対象物を動かすエンドエフェクターを備えるロボットと、前記作業対象物又は前記エンドエフェクター上のマーカーと、前記作業対象物及び前記マーカーを撮像する撮像部と、を含み、前記ロボットは、前記撮像部が前記作業対象物及び前記マーカーを撮像した撮像画像において前記作業対象物の特徴量が検出できない場合でも、第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して、前記ロボットを動作させるロボットシステムに関係する。   In another aspect of the present invention, a robot including an end effector that moves a work object, a marker on the work object or the end effector, and an imaging unit that images the work object and the marker, The robot is different from the first posture from the first posture even when the imaging unit cannot detect the feature amount of the work subject in the picked-up image obtained by picking up the work subject and the marker. The present invention relates to a robot system that operates the robot by imaging the work object and the marker a plurality of times while moving to a second posture.

また、本発明の他の態様は、作業対象物を動かすエンドエフェクターを含み、前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上のマーカーを撮像した撮像画像において、前記作業対象物の特徴量が検出できない場合でも、第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して動作するロボットに関係する。   Further, another aspect of the present invention includes an end effector that moves a work object, and in the captured image obtained by imaging the work object and the marker on the work object or the end effector, the feature of the work object Even when the amount cannot be detected, the present invention relates to a robot that operates by imaging the work object and the marker a plurality of times while moving from the first posture to the second posture different from the first posture.

また、本発明の他の態様は、作業対象物を動かすエンドエフェクターを備えるロボットを動作させるロボット制御方法であって、前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上のマーカーを撮像することと、前記作業対象物及び前記マーカーを撮像した撮像画像において前記作業対象物の特徴量が検出できない場合でも、前記ロボットが第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して、前記ロボットを動作させることと、を含むロボット制御方法に関係する。   According to another aspect of the present invention, there is provided a robot control method for operating a robot including an end effector that moves a work object, and images the work object and the marker on the work object or the end effector. And even if the feature quantity of the work object cannot be detected in the captured image obtained by picking up the work object and the marker, the robot is moved from the first position to the second position different from the first position. The robot control method includes: imaging the work object and the marker a plurality of times while moving to and operating the robot.

また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラムに関係する。   Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.

本発明の幾つかの態様によれば、撮像画像において作業対象の特徴量が検出できない場合又は誤って検出された場合でも、継続してロボットを動作させることができる制御装置、ロボットシステム、ロボット及びロボット制御方法等を提供することができる。   According to some aspects of the present invention, a control device, a robot system, a robot, and a robot capable of continuously operating a robot even when a feature amount of a work target cannot be detected in a captured image or when it is erroneously detected A robot control method and the like can be provided.

本実施形態のシステム構成例。The system configuration example of this embodiment. 本実施形態のビジュアルサーボ実施時の様子の説明図。Explanatory drawing of the mode at the time of visual servo implementation of this embodiment. 図3(A)〜図3(E)は、作業対象の特徴量検出処理の結果とマーカー検出処理の結果の説明図。FIG. 3A to FIG. 3E are explanatory diagrams of the result of the feature amount detection process of the work target and the result of the marker detection process. 本実施形態の処理の概要を説明するフローチャート。The flowchart explaining the outline | summary of the process of this embodiment. 図5(A)〜図5(F)は、マーカーの説明図。FIG. 5A to FIG. 5F are explanatory diagrams of markers. 図6(A)、図6(B)は、マーカーの配置位置の説明図。6 (A) and 6 (B) are explanatory diagrams of marker placement positions. 図7(A)〜図7(E)は、撮像画像における作業対象の特徴量検出処理の結果とマーカー検出処理の結果の説明図。FIG. 7A to FIG. 7E are explanatory diagrams of the result of the feature amount detection process of the work target in the captured image and the result of the marker detection process. 図8(A)、図8(B)は、マーカー検出処理の結果に基づく作業対象の特徴量の特定処理の説明図。FIG. 8A and FIG. 8B are explanatory diagrams of the process of specifying the feature quantity of the work target based on the result of the marker detection process. 図9(A)〜図9(C)は、作業対象とマーカーの位置姿勢関係の説明図。FIG. 9A to FIG. 9C are explanatory diagrams of the position and orientation relationship between the work target and the marker. 図10(A)、図10(B)は、ビジュアルサーボの開始位置の変更処理の説明図。FIG. 10A and FIG. 10B are explanatory diagrams of the change process of the start position of the visual servo. 本実施形態のビジュアルサーボの準備の流れを説明するフローチャート。The flowchart explaining the flow of preparation of the visual servo of this embodiment. 本実施形態のビジュアルサーボにおける処理の流れを説明するフローチャート。The flowchart explaining the flow of the process in the visual servo of this embodiment. 図13(A)、図13(B)は、ロボットシステム及びロボットの構成例。FIG. 13A and FIG. 13B are configuration examples of a robot system and a robot. ネットワークを介してロボットを制御するロボットシステムの構成例。1 is a configuration example of a robot system that controls a robot via a network. 位置ベースビジュアルサーボのフローチャート。Flow chart of position-based visual servo. 図16(A)、図16(B)は参照画像と撮像画像の説明図。16A and 16B are explanatory diagrams of a reference image and a captured image. 特徴ベースビジュアルサーボのフローチャート。Flow chart of feature-based visual servo.

以下、本実施形態について説明する。なお、以下で説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
ビジュアルサーボは、参照画像の特徴量と、撮像画像から得られる特徴量とが一致するようにロボットを制御する技術であり、前提として撮像画像に映る作業対象の特徴量が安定して検出(抽出)できることが要求される。
1. The method of this embodiment Visual servo is a technology that controls the robot so that the feature quantity of the reference image matches the feature quantity obtained from the captured image. As a premise, the feature quantity of the work target shown in the captured image is stable. Thus, it is required that it can be detected (extracted).

しかし、実際に画像処理を行って作業対象の特徴量を検出する際には、撮像画像の質や作業対象の写り具合によって、作業対象の特徴量を検出できないことがあり、常に安定して作業対象の特徴量を検出できるとは言えない。そして、撮像画像において、作業対象の特徴量を正しく検出できない場合には、ビジュアルサーボにより、意図した作業を正確に行うことができない。   However, when performing actual image processing to detect the feature quantity of the work target, the feature quantity of the work target may not be detected depending on the quality of the captured image and the appearance of the work target. It cannot be said that the target feature amount can be detected. If the feature quantity of the work target cannot be detected correctly in the captured image, the intended work cannot be accurately performed by the visual servo.

そこで、本実施形態では、このような作業対象の特徴量を用いてビジュアルサーボを行う際に、より検出が容易なマーカーの特徴量を組み合わせて使うことにより、安定したビジュアルサーボを実現する。   Therefore, in the present embodiment, when visual servoing is performed using such feature quantities of a work target, stable visual servoing is realized by using a combination of marker feature quantities that are easier to detect.

具体的に、本実施形態の制御装置100の構成例を図1に示す。本実施形態の制御装置100は、参照画像記憶部110と、作業対象物及び、作業対象物又はエンドエフェクター310上のマーカーが、撮像部200により撮像されて得られた撮像画像を受け付ける撮像画像受付部130と、作業対象物を動かすエンドエフェクター310を備えるロボット300を動作させる処理部150と、を含む。   Specifically, FIG. 1 shows a configuration example of the control device 100 of the present embodiment. The control device 100 according to the present embodiment receives a captured image obtained by imaging the reference image storage unit 110, the work object, and the marker on the work object or the end effector 310 by the imaging unit 200. And a processing unit 150 that operates a robot 300 including an end effector 310 that moves a work object.

そして、処理部150は、撮像画像において作業対象物の特徴量が検出できない場合でも、ロボット300が第1の姿勢から、第1の姿勢とは異なる第2の姿勢へと移る間に作業対象物及びマーカーを複数回撮像して、ロボット300を動作させる。   Then, even when the feature amount of the work object cannot be detected in the captured image, the processing unit 150 is configured to operate the work object while the robot 300 moves from the first position to the second position different from the first position. Then, the robot 300 is operated by imaging the marker a plurality of times.

具体的には、まず、参照画像記憶部110は、ロボット300の目標状態を表す画像である参照画像を記憶する。例えば、後述する図3(A)に示すような参照画像RIMを記憶しておく。なお、参照画像記憶部110の機能は、RAM(Random Access Memory)等のメモリーやHDD(Hard Disk Drive)などにより実現できる。   Specifically, first, the reference image storage unit 110 stores a reference image that is an image representing the target state of the robot 300. For example, a reference image RIM as shown in FIG. The function of the reference image storage unit 110 can be realized by a memory such as a RAM (Random Access Memory) or an HDD (Hard Disk Drive).

次に、撮像画像受付部130は、ロボット300の作業対象又はロボット300のエンドエフェクター310に対して少なくとも一つのマーカーを配置して、撮像することで得られた撮像画像を取得する。例えば、後述する図2に示す状態で撮像部CMにより撮像された、図3(B)に示す撮像画像PIM1を取得する。なお、図3(B)の詳細についても後述する。   Next, the captured image reception unit 130 obtains a captured image obtained by placing and imaging at least one marker on the work target of the robot 300 or the end effector 310 of the robot 300. For example, the captured image PIM1 shown in FIG. 3B captured by the imaging unit CM in the state shown in FIG. Details of FIG. 3B will be described later.

そして、処理部150は、撮像画像において作業対象の特徴量検出処理を行って、検出された撮像画像における作業対象の特徴量と、参照画像(参照画像における作業対象の特徴量)とに基づいて、ビジュアルサーボを行う。例えば、後述する図3(B)の例では、撮像画像PIM1において、作業対象の特徴量としてワークWKの輪郭線OL1を検出し、検出した輪郭線OL1と、後述する図3(A)の参照画像RIMにおけるワークWKの輪郭線OLとに基づいて、ビジュアルサーボを行う。   Then, the processing unit 150 performs a feature amount detection process of the work target in the captured image, and based on the feature amount of the work target in the detected captured image and the reference image (the feature amount of the work target in the reference image). Do visual servo. For example, in the example of FIG. 3B described later, the contour line OL1 of the workpiece WK is detected as the feature amount of the work target in the captured image PIM1, and the detected contour line OL1 and the reference of FIG. Visual servoing is performed based on the outline OL of the work WK in the image RIM.

さらに、処理部150は、特徴量検出処理において、作業対象物の特徴量が検出できない場合、又は作業対象物の特徴量が誤って検出される場合でも、ロボット300が第1の姿勢から第2の姿勢へと移る間に作業対象物及びマーカーを複数回撮像し、マーカーのマーカー検出処理の結果に基づいて、ロボット300を動作させる。つまり、処理部150は、特徴量検出処理において、撮像画像における作業対象の特徴量が非検出である場合又は誤検出された場合にも、マーカーのマーカー検出処理の結果に基づいて、継続してビジュアルサーボを行う。なお、処理部150の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   Further, the processing unit 150 causes the robot 300 to move from the first posture to the second position even when the feature amount of the work target cannot be detected or the feature amount of the work target is erroneously detected in the feature amount detection process. The work object and the marker are imaged a plurality of times while moving to the posture, and the robot 300 is operated based on the result of the marker detection process of the marker. That is, in the feature amount detection process, the processing unit 150 continues based on the result of the marker detection process of the marker even when the feature amount of the work target in the captured image is not detected or is erroneously detected. Perform visual servoing. The function of the processing unit 150 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.

例えば、後述する図3(C)の例では、ワークWKの輪郭線OL2が非検出である。この時に、処理部150は、マーカー検出処理の結果(MD1及びMD2)に基づいて、ワークの輪郭線OL2を推定し、推定した輪郭線OL2と、後述する図3(A)の参照画像RIMの輪郭線OLに基づいて、継続してビジュアルサーボを行う。すなわち、撮像画像における作業対象の特徴量が非検出である場合又は誤検出された場合でも、エラーが発生したと判定して、ビジュアルサーボを終了せずに、ビジュアルサーボを継続可能となるような処理を行う。   For example, in the example of FIG. 3C described later, the contour line OL2 of the workpiece WK is not detected. At this time, the processing unit 150 estimates the contour line OL2 of the workpiece based on the results (MD1 and MD2) of the marker detection process, and the estimated contour line OL2 and a reference image RIM in FIG. Based on the contour OL, visual servoing is continuously performed. That is, even when the feature amount of the work target in the captured image is not detected or is erroneously detected, it is determined that an error has occurred, and the visual servo can be continued without ending the visual servo. Process.

なお、制御装置100は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。また、本実施形態の制御装置100は、後述する図13(B)に示すように、ロボット300に含まれており、ロボット300と一体に構成されていてもよい。さらに、後述する図14に示すように、制御装置100の機能は、サーバー500と、各ロボット300が有する端末装置330とにより、実現されてもよい。   Note that the control device 100 is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components or adding other components are possible. Further, the control device 100 of this embodiment is included in the robot 300 as shown in FIG. 13B described later, and may be configured integrally with the robot 300. Furthermore, as illustrated in FIG. 14 described later, the function of the control device 100 may be realized by a server 500 and a terminal device 330 included in each robot 300.

また、例えば制御装置100と撮像部200が、有線及び無線の少なくとも一方を含むネットワークにより接続されている場合には、撮像画像受付部130は、撮像部200と通信を行う通信部(インターフェース部)であってもよい。さらに、制御装置100が撮像部200を含む場合には、撮像画像受付部130は、撮像部200そのものであってもよい。   For example, when the control device 100 and the imaging unit 200 are connected by a network including at least one of wired and wireless, the captured image reception unit 130 is a communication unit (interface unit) that communicates with the imaging unit 200. It may be. Furthermore, when the control apparatus 100 includes the imaging unit 200, the captured image reception unit 130 may be the imaging unit 200 itself.

次に、図2、図3(A)〜図3(E)及び図4のフローチャートを用いて、本実施形態の動作の具体例を説明する。本具体例では、図2に示すように、ロボットRBが、アームAMの先端に取り付けられたハンドHDで、ワークWKを把持し、目標位置TP(目標位置姿勢)にワークWKを移動させる作業を、ビジュアルサーボにより行う。なお本例では、ハンドHDがエンドエフェクターであり、ワークWKが作業対象である。また、ワークWKは円柱状の物体であるものとする。   Next, a specific example of the operation of the present embodiment will be described with reference to the flowcharts of FIGS. 2, 3A to 3E, and FIG. In this specific example, as shown in FIG. 2, the robot RB grips the workpiece WK with the hand HD attached to the tip of the arm AM, and moves the workpiece WK to the target position TP (target position / posture). , Using visual servo. In this example, the hand HD is an end effector, and the work WK is a work target. The workpiece WK is assumed to be a cylindrical object.

また前提として、参照画像記憶部110は、図3(A)に示すような参照画像RIMを記憶しておく。参照画像RIMは、ロボットRBの目標状態を表す画像であり、ワークWKが目標位置TPに置かれている様子が映っている。なお、図3(A)の参照画像RIM内に示す目標位置TPは、前述した図2の目標位置TPと対応する位置である。   As a premise, the reference image storage unit 110 stores a reference image RIM as shown in FIG. The reference image RIM is an image representing the target state of the robot RB, and shows a state where the work WK is placed at the target position TP. Note that the target position TP shown in the reference image RIM in FIG. 3A is a position corresponding to the target position TP in FIG. 2 described above.

まず、図2に示すように、撮像画像受付部130は、ロボットRBのハンドHDに対して、第1のマーカーMK1と第2のマーカーMK2の二つのマーカーを配置して、撮像部CM(カメラ)により撮像することで、例えば図3(B)〜図3(E)に示すような撮像画像(PIM1〜PIM4)を取得する(S101)。なお、第1のマーカーMK1と第2のマーカーMK2は、同じマーカーであってもよいし、異なるマーカーであってもよい。また、図3(B)〜図3(E)には、説明の都合上、実際に撮像画像に映る物体ではなく、撮像画像において検出されたワークの輪郭線とマーカーのみを図示するものとする。後述する図7(A)〜図7(E)についても同様である。   First, as shown in FIG. 2, the captured image reception unit 130 arranges two markers, a first marker MK1 and a second marker MK2, with respect to the hand HD of the robot RB, and performs imaging unit CM (camera ) To obtain captured images (PIM1 to PIM4) as shown in FIGS. 3B to 3E, for example (S101). Note that the first marker MK1 and the second marker MK2 may be the same marker or different markers. 3 (B) to 3 (E), for convenience of explanation, only the outline and marker of the workpiece detected in the captured image are illustrated, not the object actually reflected in the captured image. . The same applies to FIGS. 7A to 7E described later.

そして、図3(B)の例では、取得した撮像画像PIM1において、ワークWKの特徴量検出処理(S102)とマーカー検出処理(S103)とを行った結果、ワークWKの特徴量として輪郭線OL1が検出され(S104)、さらに撮像画像PIM1内のMD1の位置に第1のマーカーMK1が検出され、MD2の位置に第2のマーカーMK2が検出されている。   In the example of FIG. 3B, as a result of performing the feature amount detection processing (S102) and marker detection processing (S103) of the workpiece WK on the acquired captured image PIM1, the contour line OL1 is obtained as the feature amount of the workpiece WK. Is detected (S104), the first marker MK1 is detected at the position MD1 in the captured image PIM1, and the second marker MK2 is detected at the position MD2.

この場合には、撮像画像PIM1におけるマーカー検出位置(MD1及びMD2)と、ワークWKの輪郭線OL1との位置関係が、実空間上でのマーカー(MK1及びMK2)とワークWKの位置関係に正しく対応していると判定できる(S105)。そのため、ワークWKの特徴量が正しく検出できていると判定する。   In this case, the positional relationship between the marker detection position (MD1 and MD2) in the captured image PIM1 and the contour line OL1 of the workpiece WK is correct to the positional relationship between the marker (MK1 and MK2) and the workpiece WK in the real space. It can be determined that it corresponds (S105). Therefore, it is determined that the feature amount of the workpiece WK has been correctly detected.

そして、撮像画像PIM1において検出されたワークWKの輪郭線OL1が、参照画像RIMに映るワークWKの輪郭線OLと一致するように(近付くように)、ロボットRBを制御する(S106)。その後、ビジュアルサーボが収束した場合には処理を終了し、収束していない場合には、ステップS101に戻り、処理を繰り返す(S107)。この場合には、何の問題もなく、ビジュアルサーボが行われている。   Then, the robot RB is controlled so that the contour line OL1 of the work WK detected in the captured image PIM1 matches (approaches) the contour line OL of the work WK shown in the reference image RIM (S106). Thereafter, if the visual servo has converged, the process is terminated, and if it has not converged, the process returns to step S101 and the process is repeated (S107). In this case, visual servoing is performed without any problem.

しかし、図3(B)の例のように、常にワークWKの輪郭線が正しく検出できるとは限らない。例えば図3(C)に、作業対象の特徴量が非検出である場合の例を示す。図3(C)の例では、撮像画像PIM2を取得し(S101)、ワークWKの特徴量検出処理を行ったが(S102)、本来検出されるべきワークWKの輪郭線OL2が検出されていない(S104)。一方で、撮像画像PIM2では、第1のマーカーMK1はMD1の位置に、第2のマーカーMK2はMD2の位置に検出されている(S103)。そのため、少なくとも第1のマーカーMK1及び第2のマーカーMK2は、撮像範囲内に位置していると判定できる。よって、マーカーが貼られたハンドHDと、ハンドHDに把持されたワークWKも、撮像範囲内に位置していると判定でき(S109)、ワークWKの特徴量検出処理だけが失敗していると判定できる。   However, as in the example of FIG. 3B, the contour line of the workpiece WK cannot always be detected correctly. For example, FIG. 3C shows an example in which the feature quantity of the work target is not detected. In the example of FIG. 3C, the captured image PIM2 is acquired (S101), and the feature amount detection process of the workpiece WK is performed (S102), but the contour line OL2 of the workpiece WK that should be detected is not detected. (S104). On the other hand, in the captured image PIM2, the first marker MK1 is detected at the position of MD1, and the second marker MK2 is detected at the position of MD2 (S103). Therefore, it can be determined that at least the first marker MK1 and the second marker MK2 are located within the imaging range. Therefore, it can be determined that the hand HD on which the marker is pasted and the work WK held by the hand HD are also located within the imaging range (S109), and only the feature amount detection processing of the work WK has failed. Can be judged.

そのため、この場合には、マーカー検出結果MD1及びマーカー検出結果MD2に基づいて、本来検出されるはずの位置にワークWKの輪郭線OL2を推定(特定)して、推定した輪郭線OL2に基づいて、ビジュアルサーボを行う(S110)。この処理は、特徴量非検出時の処理の一例である。   Therefore, in this case, based on the marker detection result MD1 and the marker detection result MD2, the contour line OL2 of the workpiece WK is estimated (specified) at a position that should be originally detected, and based on the estimated contour line OL2 Visual servo is performed (S110). This process is an example of a process when no feature amount is detected.

次に図3(D)に、作業対象の特徴量が誤検出された場合の例を示す。図3(D)では、取得した撮像画像PIM3において、ワークWKの特徴量検出処理を行った結果(S101、S102)、ワークWKの輪郭線OL3が検出され(S104)、マーカー検出処理を行った結果(S103)、MD1の位置に第1のマーカーMK1が検出され、MD2の位置に第2のマーカーMK2が検出されている。しかし、実際の撮像画像PIM3には、ハンドHDがワークWKを把持している様子が映っているため、本来ならば、図3(B)のようにマーカー検出位置(MD1及びMD2)の下にワークWKの輪郭線が検出されるはずである。つまり、図3(D)の例では、ワークWKではない他の物体をワークWKとして誤検出してしまっていると判定できる(S105)。   Next, FIG. 3D shows an example when the feature amount of the work target is erroneously detected. In FIG. 3D, as a result of performing the feature amount detection process of the work WK in the acquired captured image PIM3 (S101, S102), the outline OL3 of the work WK is detected (S104), and the marker detection process is performed. As a result (S103), the first marker MK1 is detected at the position of MD1, and the second marker MK2 is detected at the position of MD2. However, since the actual captured image PIM3 shows that the hand HD is holding the work WK, it is originally below the marker detection positions (MD1 and MD2) as shown in FIG. The contour line of the work WK should be detected. That is, in the example of FIG. 3D, it can be determined that another object that is not the workpiece WK is erroneously detected as the workpiece WK (S105).

そのため、この場合にも、マーカー検出結果MD1及びマーカー検出結果MD2に基づいて、本来検出されるはずの位置にワークWKの輪郭線OL3を推定(特定)して、推定した輪郭線OL3に基づいて、ビジュアルサーボを行う(S108)。この処理は、特徴量誤検出時の処理の一例である。   Therefore, also in this case, based on the marker detection result MD1 and the marker detection result MD2, the contour line OL3 of the workpiece WK is estimated (specified) at a position where it should be originally detected, and based on the estimated contour line OL3. Visual servo is performed (S108). This process is an example of a process when a feature amount error is detected.

さらに図3(E)に、作業対象の一部がフレームアウトしている場合の例を示す。図3(E)に示す例では、取得した撮像画像PIM4において、ワークWKの特徴量検出処理(S101、S102)と、マーカー検出処理(S103)とを行った結果、ワークWKの輪郭線OL4は検出されず(S104)、マーカーは、MD1の位置に第1のマーカーMK1の一つしか検出されていない。なお、本例では、撮像画像にマーカーが映っていれば必ずマーカーを検出可能であるものとする。したがって、この場合には、第2のマーカーMK2が撮像画像PIM4に映っていない、すなわちハンドHDとワークWKの一部が撮像範囲外に位置していると判定できる(S109)。言い換えれば、ハンドHDとワークWKの一部がフレームアウトしてしまっている。   Further, FIG. 3E shows an example in which a part of the work target is out of frame. In the example shown in FIG. 3E, as a result of performing the feature amount detection processing (S101, S102) and the marker detection processing (S103) of the workpiece WK in the acquired captured image PIM4, the contour OL4 of the workpiece WK is The marker is not detected (S104) and only one of the first markers MK1 is detected at the position of MD1. In this example, it is assumed that a marker can be detected whenever a marker appears in the captured image. Therefore, in this case, it can be determined that the second marker MK2 is not reflected in the captured image PIM4, that is, the hand HD and a part of the work WK are located outside the imaging range (S109). In other words, the hand HD and a part of the work WK are out of frame.

そのため、このままではビジュアルサーボを継続できない。よってこの場合には、ハンドHDとワークWKの全体が映る位置にロボットRBを動かした後に、再度ビジュアルサーボを行う(S111)。この処理は、フレームアウト発生時の処理の一例である。   Therefore, visual servo cannot be continued as it is. Therefore, in this case, visual servo is performed again after moving the robot RB to a position where the entire hand HD and the work WK are reflected (S111). This process is an example of a process when a frame-out occurs.

以上のように、作業対象の特徴量検出処理を行った結果は、大きく分けると以下の4つのケースに大別できる。第1のケースは、作業対象が撮像画像に映っており、作業対象の特徴量が正しく検出できたという結果が得られた場合である。例えば、前述した図3(B)の例が、第1のケースに相当する。この第1のケースでは、この後、問題なくビジュアルサーボを継続することができる(S106、S107)。   As described above, the result of performing the feature amount detection processing of the work target can be roughly divided into the following four cases. The first case is a case where the work target is shown in the captured image, and the result that the feature amount of the work target was correctly detected was obtained. For example, the example of FIG. 3B described above corresponds to the first case. In the first case, the visual servo can be continued without any problem thereafter (S106, S107).

これに対して、第2のケースは、第1のケースとは逆に、作業対象が撮像画像に映っていないため、作業対象の特徴量を検出できなかったという結果が得られた場合である。すなわち、作業対象がフレームアウトしている場合である。例えば、前述した図3(E)の例が、第2のケースに相当する。この第2のケースでは、このままではビジュアルサーボを行うことができないが、撮像画像に作業対象が映る状態にロボットを移動させる等して、ビジュアルサーボを再開することができる(S111)。   On the other hand, the second case is a case where the feature amount of the work target cannot be detected because the work target is not shown in the captured image, contrary to the first case. . That is, the work target is out of the frame. For example, the example of FIG. 3E described above corresponds to the second case. In this second case, the visual servo cannot be performed as it is, but the visual servo can be resumed by moving the robot to a state where the work target is reflected in the captured image (S111).

以上の第1のケースと第2のケースは、作業対象の特徴量が検出できたかどうかの差はあるものの、どちらの場合にも、図4のステップS102における作業対象の特徴量検出処理自体は正常に行われており、正しい結果が得られている。一方、以下の2つのケース(第3のケースと第4のケース)は、特徴量検出処理自体が正常に行われていないケースである。   The first case and the second case described above have a difference in whether or not the feature quantity of the work target can be detected, but in both cases, the feature quantity detection process itself of the work target in step S102 in FIG. 4 is performed. It is done normally and the correct result is obtained. On the other hand, the following two cases (third case and fourth case) are cases where the feature amount detection processing itself is not normally performed.

第3のケースは、作業対象が撮像画像に映っているにも関わらず、作業対象が映っていないと誤って判定し、その結果、作業対象の特徴量が検出できなかったという結果が得られた場合である。前述した図3(C)の例が、第3のケースに相当する。例えば光源のフリッカーや、撮像画像の質が著しく悪いことなどが原因で、第3のケースに至ることがある。   In the third case, although the work target is shown in the captured image, it is erroneously determined that the work target is not shown, and as a result, the feature amount of the work target cannot be detected. This is the case. The example of FIG. 3C described above corresponds to the third case. For example, the third case may be reached due to flickering of the light source or extremely poor quality of the captured image.

また、第4のケースは、作業対象が撮像画像に映っているか、映っていないかに関わらず、作業対象の特徴量ではないものを作業対象の特徴量として検出してしまったという結果が得られた場合である。前述した図3(D)の例が、第4のケースに相当する。例えば、撮像画像中に作業対象とよく似た形の周辺物が映っている場合には、このように作業対象の特徴量が誤検出される場合が生じる。   In the fourth case, the result is that a feature that is not the feature of the work target is detected as the feature of the work target regardless of whether the work target is reflected in the captured image. This is the case. The example of FIG. 3D described above corresponds to the fourth case. For example, when a captured object includes a peripheral object that has a shape similar to that of the work target, the feature amount of the work target may be erroneously detected as described above.

このように、第3のケースと第4のケースではどちらの場合も、作業対象の特徴量検出処理自体が正常に行われていない。そのため、これらの場合に得られた特徴量をそのまま用いて、ビジュアルサーボを正常に行うことはできない。特に、図3(D)のような第4のケースで、誤検出された特徴量に基づいてロボットを動作させると、ロボットが期待される動作とは全く異なる動作を行う可能性がある。   As described above, in both cases of the third case and the fourth case, the feature amount detection processing itself of the work target is not normally performed. For this reason, the visual servo cannot be normally performed using the feature values obtained in these cases as they are. In particular, in the fourth case as shown in FIG. 3D, when the robot is operated based on the erroneously detected feature amount, there is a possibility that the robot performs an operation completely different from the expected operation.

以上をまとめると、特徴量検出処理により得られた結果に基づいて、その後ビジュアルサーボを正常に継続可能な場合は、図3(B)に示す第1のケースのみである。   In summary, based on the result obtained by the feature amount detection process, the visual servo can be continued normally thereafter only in the first case shown in FIG.

ただし、前述したように、図3(E)に示す第2のケースでは、特徴量検出処理自体には問題がないため、撮像画像に作業対象が映る状態にロボットを移動させた後に、ビジュアルサーボを再開する(S111)などの対処が可能である。また、図3(C)に示す第3のケースと、図3(D)に示す第4のケースでは、特徴量検出処理自体に問題があるため、特徴量検出処理の方法を変えれば、ビジュアルサーボを継続することができる(S108、S110)。   However, as described above, in the second case shown in FIG. 3 (E), there is no problem in the feature amount detection process itself, so the visual servo is moved after the robot is moved to a state where the work target is reflected in the captured image. Can be dealt with, such as resuming (S111). In addition, in the third case shown in FIG. 3C and the fourth case shown in FIG. 3D, there is a problem in the feature amount detection process itself. Servo can be continued (S108, S110).

つまり、作業対象の特徴量が正しく検出できなかった場合でも、今回が第2のケースであるのか、又は第3のケース若しくは第4のケースであるのかが判定できれば、その後にロボットをどのように制御すればよいかも判定することができる。   In other words, even if the feature quantity of the work target cannot be detected correctly, if it can be determined whether this time is the second case, or the third case or the fourth case, how can the robot be handled thereafter? It can also be determined whether control should be performed.

従来の手法では、これらの4つのケースを判別できなかったが、本実施形態では、マーカー検出処理の結果を用いて、これらの4つのケースを判別し、各ケースに適した処理を行うことが可能である。   In the conventional method, these four cases could not be discriminated. However, in the present embodiment, these four cases are discriminated using the result of the marker detection process, and processing suitable for each case is performed. Is possible.

このように、作業対象の特徴量が非検出である場合又は誤検出された場合でも、継続してビジュアルサーボを行うことが可能となる。これにより、撮像画像において作業対象の特徴量が非検出である場合又は誤検出された場合に、例えばビジュアルサーボにおいてエラーが発生したと判定して、目標位置に移動する前にロボットを停止させてしまうことを防ぐこと等が可能となる。   As described above, even when the feature amount of the work target is not detected or erroneously detected, visual servoing can be continuously performed. As a result, when the feature amount of the work target is not detected or is erroneously detected in the captured image, for example, it is determined that an error has occurred in the visual servo, and the robot is stopped before moving to the target position. It is possible to prevent such a situation.

また以上のように、作業対象の特徴量が特定又は推定できた場合には、処理部150は、ビジュアルサーボとして、撮像画像が、参照画像に一致又は近付くようにロボット300を制御する処理を行う。前述した図3(A)〜図3(E)の例では、逐次、撮像画像を新たに取得しながらロボットRBを動作させ、撮像画像において特定(又は推定)したワークWKの輪郭線が、参照画像におけるワークWKの輪郭線に、徐々に一致又は近付くようにロボットRBを制御する。   As described above, when the feature amount of the work target can be specified or estimated, the processing unit 150 performs a process of controlling the robot 300 as a visual servo so that the captured image matches or approaches the reference image. . In the example of FIGS. 3A to 3E described above, the outline of the workpiece WK specified (or estimated) in the captured image is referred to by sequentially operating the robot RB while newly acquiring the captured image. The robot RB is controlled so as to gradually match or approach the contour line of the work WK in the image.

これにより、ロボットRBの位置姿勢を目標の位置姿勢にすること等が可能になる。すなわち、ロボットRBが目標状態である時に撮像可能な画像を参照画像として記憶しておき、参照画像と一致又は近い撮像画像を撮像できるようにロボットRBを制御すれば、ロボットRBが目標状態をとるように制御することが可能になる。   This makes it possible to set the position and orientation of the robot RB to the target position and orientation. That is, an image that can be captured when the robot RB is in the target state is stored as a reference image, and if the robot RB is controlled so as to capture a captured image that matches or is close to the reference image, the robot RB assumes the target state. It becomes possible to control.

ここで、ロボットRBの目標状態とは、ロボットRBが目標の位置姿勢をとっている状態であり、例えば前述した図3(A)〜図3(E)の例では、ワークWKを目標位置TPに置くことができる位置姿勢をとっている状態のことである。なお、ビジュアルサーボについては、後段においてさらに詳しい説明を行う。   Here, the target state of the robot RB is a state in which the robot RB assumes the target position and orientation. For example, in the example of FIGS. 3A to 3E described above, the workpiece WK is set to the target position TP. It is the state which has taken the position and posture which can be put on. The visual servo will be described in more detail later.

また、参照画像記憶部110は、参照画像そのものを記憶していてもよいし、参照画像における作業対象の特徴量を記憶していてもよい。また、参照画像には、マーカーが映っている必要はない。すなわち、ロボット300のエンドエフェクター310にマーカーを配置せずに参照画像を生成することができる。よって、マーカーが映っていない他の参照画像を用いても、本実施形態の処理を行うことが可能である。   In addition, the reference image storage unit 110 may store the reference image itself, or may store the feature amount of the work target in the reference image. Further, the marker need not be shown in the reference image. That is, the reference image can be generated without placing a marker on the end effector 310 of the robot 300. Therefore, it is possible to perform the processing of the present embodiment using another reference image in which no marker is shown.

ここで、撮像画像とは、撮像部200によって撮像することにより得られる画像のことをいう。また、撮像画像は、外部の記憶部に記憶された画像や、ネットワークを介して取得される画像であってもよい。   Here, the captured image refers to an image obtained by capturing with the image capturing unit 200. The captured image may be an image stored in an external storage unit or an image acquired via a network.

また、本実施形態では、作業対象物だけではなく、ロボット300の作業場所(作業位置)の特徴量に基づいて、ロボット300を動作させてもよい。なお、以下の説明では、作業対象物と作業場所をまとめて、作業対象と呼ぶ。   In the present embodiment, the robot 300 may be operated based not only on the work target but also on the feature amount of the work place (work position) of the robot 300. In the following description, work objects and work places are collectively referred to as work objects.

これにより、作業対象物及び作業場所のうちの少なくとも一つの特徴量に基づいて、ビジュアルサーボを行うこと等が可能になる。   Thereby, visual servoing can be performed based on at least one feature amount of the work object and the work place.

そして、特徴量(特徴量情報)とは、画像認識において画像を分析する際に抽出(検出)する、物体の特徴を表す量(情報)のことをいう。例えば、特徴量は、画像に映る物体の面積や幅、周囲の長さ、輪郭線、特徴点、輝度などである。   The feature amount (feature amount information) refers to an amount (information) representing the feature of an object that is extracted (detected) when an image is analyzed in image recognition. For example, the feature amount includes the area and width of the object shown in the image, the perimeter, the contour line, the feature point, the luminance, and the like.

さらに、特徴量検出処理とは、物体の特徴量(特徴量情報)を検出する処理のことを指し、例えば輪郭線検出処理や特徴点検出処理などのことである。   Furthermore, the feature amount detection process refers to a process for detecting a feature amount (feature amount information) of an object, such as a contour line detection process or a feature point detection process.

ここで、輪郭線検出処理とは、画像上に映る作業対象などの輪郭線を検出し、輪郭情報を特定する処理のことをいう。輪郭線検出処理の一手法としては、例えばハフ(Hough)変換などが挙げられる。その他にも例えば、画像の輝度勾配の大きさが所与の値以上の領域を黒く塗りつぶした二値画像を生成し、この二値画像に対して細線化処理を行うことにより、輪郭線を抽出する処理などを行ってもよい。なお、輪郭情報とは、物体の輪郭を表す情報である。輪郭情報は、例えば、輪郭の始点と終点の画像上での座標位置や、ベクトルとその大きさ等である。   Here, the contour line detection process refers to a process of detecting a contour line such as a work target shown on an image and specifying contour information. An example of the contour detection process is Hough transformation. In addition, for example, a binary image in which an area having a luminance gradient greater than or equal to a given value is blacked out is generated, and a contour line is extracted by thinning the binary image. You may perform the process to do. Note that the contour information is information representing the contour of an object. The contour information is, for example, a coordinate position on the image of the start point and end point of the contour, a vector, its size, and the like.

また、特徴点検出処理とは、画像上に映る作業対象などの物体の特徴点を検出し、特徴点情報を特定する処理のことをいう。特徴点検出処理の一手法としては、例えばコーナー検出法や、その他の一般的なコーナー部検出(固有値、FAST特徴検出)、SIFT(Scale invariant feature transform)に代表される局所特徴量記述子やSURF(Speeded Up Robust Feature)などが挙げられる。   The feature point detection process is a process for detecting feature points of an object such as a work target shown on an image and specifying feature point information. As a method of feature point detection processing, for example, corner detection method, other general corner detection (eigenvalue, FAST feature detection), local feature descriptor represented by SIFT (Scale invariant feature transform), SURF (Speeded Up Robust Feature).

そして、マーカーとは、目印として利用することができる文字、図形、記号、模様もしくは立体的形状もしくはこれらの結合又はこれらと色彩との結合を形成する有体物で、物体に固定可能なものである。例えば、シールやステッカー、ラベル等である。なお、マーカーの形状や、色彩、模様等がどのようなものであるかは問わないが、マーカーを安定して検出する上で、他の領域と区別しやすいもの、例えば白い領域に対し黒色からなる画像やシールなどが望ましい。具体例としては、図5(A)〜図5(D)に示すようなマーカーMK1〜マーカーMK4や、図5(E)に示す地図記号などのマーカーMK5〜マーカーMK8、図5(F)に示す文字や数字などのマーカーMK11〜マーカーMK13などが挙げられる。さらに、マーカーは、QR(Quick Response)コードや、AR(Augmented Reality)マーカーなどであってもよい。また、例外としてマーカーは、表示部に表示可能な画像であってもよい。   The marker is a tangible object that can be used as a mark, a character, a figure, a symbol, a pattern, a three-dimensional shape, a combination thereof, or a combination of these and a color, and can be fixed to an object. For example, stickers, stickers, labels, and the like. It doesn't matter what the shape, color, pattern, etc. of the marker is, but it can be easily distinguished from other areas for stable detection of the marker, for example, black for white areas An image or a sticker is desirable. Specific examples include markers MK1 to MK4 as shown in FIGS. 5 (A) to 5 (D), markers MK5 to MK8 such as map symbols shown in FIG. 5 (E), and FIG. 5 (F). Examples thereof include markers MK11 to MK13 such as letters and numbers shown. Further, the marker may be a QR (Quick Response) code, an AR (Augmented Reality) marker, or the like. As an exception, the marker may be an image that can be displayed on the display unit.

このように、作業対象よりも検出が容易なものをマーカーとして用いるため、作業対象の認識率(検出率)よりも高い認識率でマーカーを認識(検出)することが可能となる。   As described above, since a marker that is easier to detect than the work target is used as the marker, the marker can be recognized (detected) at a recognition rate higher than the recognition rate (detection rate) of the work target.

また、マーカー検出処理(マーカー認識処理)とは、画像中に映るマーカーを、画像処理などにより、検出(認識)する処理のことをいう。マーカー検出処理では、少なくともマーカーの有無と配置位置を検出できればよい。   The marker detection process (marker recognition process) refers to a process of detecting (recognizing) a marker appearing in an image by image processing or the like. In the marker detection process, it is sufficient that at least the presence / absence of the marker and the arrangement position can be detected.

2.処理の詳細
以下では、図6(A)及び図6(B)に図示するような8つのマーカー(MK1〜MK8)を貼付したハンドHDにより、ワークWKを把持し、目標位置にワークWKを移動させる作業を行う際の処理の具体例について説明する。図6(A)はハンドHDを正面から見た時の図であり、図6(B)はハンドHDを斜めから見た時の図である。本例のハンドHDは4本の指を有しており、各指の付け根と先端にそれぞれマーカーが貼付されているものとする。すなわち、ハンドHDの正面に、第1のマーカーMK1〜第4のマーカーMK4が貼付されており、その裏面に第5のマーカーMK5〜第8のマーカーMK8が貼付されている。また、図示の都合上、図6(A)及び図6(B)には、マーカーを大きく描いており、マーカーの一部が指からはみ出ているが、実際にはハンドの指の表面にはみ出さずに貼られているものとする。さらに、第1のマーカーMK1〜第8のマーカーMK8は、同じマーカーとして図示しているが、これらは互いに異なり、区別可能なマーカーであるものとする。
2. Details of Processing In the following, the work WK is gripped by the hand HD attached with eight markers (MK1 to MK8) as shown in FIGS. 6A and 6B, and the work WK is moved to the target position. A specific example of processing when performing the work to be performed will be described. 6A is a diagram when the hand HD is viewed from the front, and FIG. 6B is a diagram when the hand HD is viewed from an oblique direction. It is assumed that the hand HD in this example has four fingers, and markers are attached to the base and tip of each finger. That is, the first marker MK1 to the fourth marker MK4 are affixed to the front surface of the hand HD, and the fifth marker MK5 to the eighth marker MK8 are affixed to the back surface thereof. 6A and 6B, the marker is drawn large, and a part of the marker protrudes from the finger, but actually it protrudes from the surface of the finger of the hand. It is assumed that it is affixed. Furthermore, although the first marker MK1 to the eighth marker MK8 are illustrated as the same marker, they are different from each other and are distinguishable markers.

前述したように、ビジュアルサーボにより作業対象の移動作業を行う際には、撮像画像において作業対象の特徴量を検出する必要がある。本例ではこの際に、今回のケースが前述した第1のケース〜第4のケースのどのケースに当てはまるか、すなわち作業対象の特徴量が正しく検出されたか、非検出であるか、誤検出されたものであるか、そもそも作業対象がフレームアウトしている状態かを、以下のようにして判定する。   As described above, when moving a work target by visual servo, it is necessary to detect a feature amount of the work target in the captured image. In this example, in this case, which case of the first case to the fourth case described above applies to this case, that is, whether the feature quantity of the work target is correctly detected, non-detected, or erroneously detected. In the first place, it is determined whether the work target is out of frame.

2.1.特徴量非検出時の処理の詳細
まず、今回のケースが前述した第3のケースに相当するか否かの判定処理と、第3のケースであると判定された後に行う処理(作業対象の特徴量が非検出である場合の処理)の詳細について説明する。
2.1. Details of processing when feature amount is not detected First, determination processing as to whether or not the current case corresponds to the third case described above, and processing performed after it is determined that the current case is the third case (features of the work target) Details of the process when the amount is not detected will be described.

今回のケースが前述した第3のケースに相当するか否かの判定処理は、マーカー検出処理において検出されたマーカーの数に基づいて行う。   The process of determining whether or not the current case corresponds to the third case described above is performed based on the number of markers detected in the marker detection process.

例えば、処理部150は、特徴量検出処理において、撮像画像における作業対象の特徴量が非検出であるが、マーカー検出処理において検出されたマーカーの数が所与の閾値以上である場合に、マーカー検出処理の結果に基づいて、ロボットを動作させる(ビジュアルサーボを行う)。すなわち、この場合は、前述した第3のケースに相当すると判定し、特徴量が非検出である時の処理を行う。   For example, in the feature amount detection process, the processing unit 150 detects that the feature amount of the work target in the captured image is not detected, but the number of markers detected in the marker detection process is equal to or greater than a given threshold. Based on the result of the detection process, the robot is operated (visual servo is performed). That is, in this case, it is determined that it corresponds to the above-described third case, and processing when the feature amount is not detected is performed.

ここで、所与の閾値は、ユーザーが設定可能な値であってもよいし、あらかじめ決められ、記憶部に記憶されている値であってもよい。   Here, the given threshold value may be a value that can be set by the user, or may be a value that is determined in advance and stored in the storage unit.

例えば、所与の閾値を3とし、作業対象の特徴量が非検出であり、マーカー検出処理において3つ以上のマーカーが検出された場合に、前述した第3のケースに相当すると判定するものとする。   For example, when the given threshold value is 3, the feature amount of the work target is non-detected, and three or more markers are detected in the marker detection process, it is determined that it corresponds to the third case described above. To do.

この場合に、例えば図7(A)に示すような撮像画像PIM11が取得され、特徴量検出処理が行われたものとする。図7(A)に示す場合には、作業対象であるワークWKの輪郭線OL1(特徴量)が検出されているため、第3のケースには相当しないと判定できる。図7(B)に示すような撮像画像PIM12が取得された場合も同様である。   In this case, for example, it is assumed that a captured image PIM11 as illustrated in FIG. 7A is acquired and the feature amount detection process is performed. In the case shown in FIG. 7A, since the contour line OL1 (feature amount) of the work WK that is the work target is detected, it can be determined that it does not correspond to the third case. The same applies when the captured image PIM12 as shown in FIG. 7B is acquired.

一方で、図7(C)に、撮像画像PIM13が取得され、特徴量検出処理とマーカー検出処理とが行われた様子を示す。図7(C)の例では、ワークWKの輪郭線OL3が検出されていないにも関わらず、撮像画像PIM13内のMD1〜MD4の各位置にマーカーが検出されている。つまり、マーカーが計4つ検出されている。そのため、図7(C)の例は、第3のケースに相当すると判定できる。   On the other hand, FIG. 7C shows a state where the captured image PIM 13 is acquired and the feature amount detection process and the marker detection process are performed. In the example of FIG. 7C, markers are detected at positions MD1 to MD4 in the captured image PIM13 even though the contour line OL3 of the workpiece WK is not detected. That is, a total of four markers are detected. Therefore, it can be determined that the example of FIG. 7C corresponds to the third case.

また、図7(E)に示す撮像画像PIM15の場合には、特徴量検出処理において、ワークWKの輪郭線OL3が検出されておらず、マーカー検出処理において、MD2の位置に1つしかマーカーが検出されていない。そのため、図7(E)の例は、第3のケースには相当しないと判定できる。なお、後述するが図7(E)は、作業対象のフレームアウトが発生している第2のケースの例である。   In the case of the captured image PIM15 shown in FIG. 7E, the contour line OL3 of the work WK is not detected in the feature amount detection process, and only one marker is located at the position of MD2 in the marker detection process. Not detected. Therefore, it can be determined that the example of FIG. 7E does not correspond to the third case. As will be described later, FIG. 7E is an example of a second case in which a work target frame-out has occurred.

このように、作業対象が撮像画像に映っているにも関わらず、作業対象の特徴量を検出できなかった場合を判別すること等が可能になる。その結果、作業対象の特徴量が非検出である場合(第3のケース)に適した処理を行うことが可能になる。   As described above, it is possible to determine a case where the feature amount of the work target cannot be detected although the work target is reflected in the captured image. As a result, it is possible to perform processing suitable for the case where the feature amount of the work target is not detected (third case).

具体的には、処理部150は、特徴量検出処理において、撮像画像における作業対象の特徴量が非検出である又は(後述するように)誤検出されたと判定されたが、マーカー検出処理において検出されたマーカーの数が所与の閾値以上である場合には、マーカー検出処理の結果に基づいて、作業対象の特徴量の特定処理を行い、特定した特徴量に基づいて、ロボットを動作させる(ビジュアルサーボを行う)。   Specifically, in the feature amount detection process, the processing unit 150 determines that the feature amount of the work target in the captured image is not detected or is erroneously detected (as described later), but is detected in the marker detection processing. When the number of markers that have been determined is equal to or greater than a given threshold value, the feature quantity of the work target is specified based on the result of the marker detection process, and the robot is operated based on the specified feature quantity ( Perform visual servo).

例えば、図8(A)に示す撮像画像PIM21では、特徴量検出処理において、作業対象の特徴量が非検出、すなわちワークWKの輪郭線や特徴点等が特定されておらず、マーカー検出処理において、MD1、MD2及びMD3の各位置にマーカーが検出されたものとする。   For example, in the captured image PIM21 shown in FIG. 8A, in the feature amount detection process, the feature amount of the work target is not detected, that is, the contour line or feature point of the workpiece WK is not specified, and the marker detection process It is assumed that markers are detected at positions MD1, MD2, and MD3.

この場合に、図8(B)の撮像画像PIM22に示すように、マーカー検出位置(MD1〜MD3)に基づいて、ハンドHDが把持するワークWKの特徴量の特定処理を行う。図8(B)の例では、ワークWKの特徴量として輪郭線OLを特定する。把持作業を行う場合には、ハンドHDに対するおおよそのワークWKの位置が分かっている。例えば、把持状態におけるワークWKは、ハンドHDの下方に、ハンドHDから所定の距離内に位置している。また、マーカーとハンドHDの相対位置関係も既知である。よって、マーカー検出位置に基づいて、ワークWKの輪郭線を推定できる。   In this case, as shown in the picked-up image PIM22 in FIG. 8B, based on the marker detection positions (MD1 to MD3), the feature amount specifying process of the workpiece WK held by the hand HD is performed. In the example of FIG. 8B, the contour line OL is specified as the feature amount of the workpiece WK. When performing a gripping operation, the approximate position of the workpiece WK with respect to the hand HD is known. For example, the workpiece WK in the gripping state is located below the hand HD and within a predetermined distance from the hand HD. The relative positional relationship between the marker and the hand HD is also known. Therefore, the contour line of the workpiece WK can be estimated based on the marker detection position.

これにより、作業対象の特徴量が非検出である場合又は誤検出された場合でも、ビジュアルサーボを継続すること等が可能になる。   This makes it possible to continue visual servoing or the like even when the feature amount of the work target is not detected or is erroneously detected.

2.2.特徴量誤検出時の処理の詳細
次に、今回のケースが前述した第4のケースに相当するか否かの判定処理と、第4のケースであると判定された後に行う処理(作業対象の特徴量が誤検出された場合の処理)の詳細について説明する。
2.2. Details of processing when feature amount is erroneously detected Next, processing for determining whether or not the current case corresponds to the above-described fourth case, and processing performed after it is determined that the case is the fourth case (work target Details of the processing when the feature amount is erroneously detected will be described.

まず、今回のケースが前述した第4のケースに相当するか否かの判定処理は、撮像画像中でのマーカーと作業対象との位置姿勢関係に基づいて行う。   First, the determination process of whether or not the current case corresponds to the above-described fourth case is performed based on the position and orientation relationship between the marker in the captured image and the work target.

すなわち、処理部150は、特徴量検出処理において、撮像画像における作業対象の特徴量が検出され、マーカー検出処理において検出されたマーカーの数が所与の閾値以上である場合に、マーカー検出処理の結果と、特徴量検出処理の結果とに基づいて、マーカーと作業対象との位置姿勢関係を特定し、特定した位置姿勢関係に基づいて、特徴量検出処理において、作業対象の特徴量が誤検出されたか否かを判定する。   That is, in the feature amount detection process, the processing unit 150 detects the feature amount of the work target in the captured image, and when the number of markers detected in the marker detection process is equal to or greater than a given threshold, The position and orientation relationship between the marker and the work target is specified based on the result and the result of the feature amount detection processing, and the feature amount of the work target is erroneously detected in the feature amount detection processing based on the specified position and orientation relationship. It is determined whether or not it has been done.

ここで、エンドエフェクターが作業対象を把持している把持状態では、作業対象は必ず、マーカーの検出位置から所与の距離範囲内に位置する。従って、把持状態を映した撮像画像においては、マーカーの検出位置を基準として、所与の距離範囲内に作業対象が位置すると判定した場合には、作業対象の特徴量の誤検出が発生していないと判定し、所与の距離範囲外に作業対象が位置すると判定した場合には、作業対象の特徴量の誤検出が発生していると判定する。   Here, in the gripping state where the end effector is gripping the work target, the work target is always located within a given distance range from the marker detection position. Therefore, in the captured image showing the gripping state, when it is determined that the work target is located within a given distance range with reference to the detection position of the marker, erroneous detection of the feature amount of the work target has occurred. If it is determined that the work target is located outside the given distance range, it is determined that an erroneous detection of the feature amount of the work target has occurred.

例えば、図7(D)の例では、撮像画像PIM14において、作業対象の特徴量としてワークWKの輪郭線OL4が検出されている。また、マーカーが4つ検出されており、検出されたマーカーの数が所与の閾値以上である。なお、所与の閾値は3とする。しかし、撮像画像PIM14におけるマーカーの検出位置(MD1〜MD4)を基準にした場合に、ワークの輪郭線OL4の検出位置が所与の距離範囲DP3外に位置するため、図7(D)の例では、作業対象の特徴量が誤検出されている、すなわち第4のケースであると判定することができる。   For example, in the example of FIG. 7D, the outline OL4 of the work WK is detected as the feature amount of the work target in the captured image PIM14. Also, four markers are detected, and the number of detected markers is equal to or greater than a given threshold. The given threshold is 3. However, when the detection position (MD1 to MD4) of the marker in the captured image PIM14 is used as a reference, the detection position of the contour line OL4 of the workpiece is located outside the given distance range DP3. Then, it can be determined that the feature amount of the work target is erroneously detected, that is, the fourth case.

一方で、図7(A)や図7(B)の例は、ワークWKの輪郭線が検出され、検出されたマーカーの数が所与の閾値以上であるが、マーカーの検出位置に対してワークの輪郭線の検出位置が所与の距離範囲(DP1又はDP2)内に位置するため、作業対象の特徴量が正常に検出されている(誤検出されていない)と判定することができる。また、図7(C)や図7(E)の例は、そもそもワークWKの輪郭線が検出されていないため、第4のケースではないと判定できる。   On the other hand, in the examples of FIGS. 7A and 7B, the contour line of the workpiece WK is detected, and the number of detected markers is equal to or greater than a given threshold. Since the detected position of the contour line of the workpiece is located within a given distance range (DP1 or DP2), it can be determined that the feature amount of the work target is normally detected (not erroneously detected). 7C and 7E can be determined not to be the fourth case because the outline of the workpiece WK is not detected in the first place.

ここで、マーカーと作業対象との位置姿勢関係とは、例えばマーカーの位置姿勢を基準とした時の作業対象の相対的な位置姿勢のことをいう。また、マーカーと作業対象との位置姿勢関係は、前述した例のように、マーカーの検出位置から所与の距離範囲内に作業対象が位置するか否かの情報や、後述する図9(A)で説明するように、第1の領域ARと第2の領域BBとの重複領域RAのこと等であってもよい。   Here, the position / posture relationship between the marker and the work target refers to the relative position / posture of the work target when the position / posture of the marker is used as a reference, for example. In addition, as in the above-described example, the position and orientation relationship between the marker and the work object is information on whether or not the work object is located within a given distance range from the detection position of the marker, and FIG. ), The overlapping area RA between the first area AR and the second area BB may be used.

これにより、作業対象の特徴量を誤検出してしまった場合を判別すること等が可能になる。その結果、作業対象の特徴量が誤検出された場合(第4のケース)に適した処理を行うことが可能になる。例えば、前述したように、マーカー検出処理の結果に基づいて、作業対象の特徴量の特定処理を行い、特定した特徴量に基づいて、継続してビジュアルサーボを行うことができる。   As a result, it is possible to determine when the feature amount of the work target has been erroneously detected. As a result, it is possible to perform processing suitable for the case where the feature amount of the work target is erroneously detected (fourth case). For example, as described above, based on the result of the marker detection process, it is possible to perform the process of specifying the feature quantity of the work target, and continuously perform visual servoing based on the specified feature quantity.

また、撮像画像におけるマーカーと作業対象との位置姿勢関係は、次のように求めてもよい。すなわち、処理部150は、撮像画像において、マーカーのマーカー検出処理によって検出された複数のマーカーにより特定される第1の領域と、特徴量検出処理によって検出された作業対象の特徴量によって特定される第2の領域との重複領域の検出結果に基づいて、マーカーと作業対象の位置姿勢関係を特定し、特定した位置姿勢関係に基づいて、ビジュアルサーボを行ってもよい。   Further, the position and orientation relationship between the marker and the work target in the captured image may be obtained as follows. That is, the processing unit 150 is specified by the first region specified by the plurality of markers detected by the marker detection process of the marker and the feature quantity of the work target detected by the feature quantity detection process in the captured image. Based on the detection result of the overlapping area with the second area, the position and orientation relationship between the marker and the work target may be specified, and visual servo may be performed based on the specified position and orientation relationship.

ここで、第1の領域とは、マーカー検出処理によって検出された複数のマーカーにより特定される領域のことであり、例えば、図9(A)に示すように、検出された複数のマーカー(MK1〜MK4)のうちのいずれかのマーカーを結んで特定される領域である。具体的には、第1のマーカーMK1、第2のマーカーMK2及び第3のマーカーMK3を結んだ場合には、MK1〜MK3を頂点とした三角形領域AR1が、第1の領域となる。   Here, the first region is a region specified by a plurality of markers detected by the marker detection process. For example, as shown in FIG. 9A, a plurality of detected markers (MK1) To MK4) is a region identified by linking any marker. Specifically, when the first marker MK1, the second marker MK2, and the third marker MK3 are connected, the triangular area AR1 having the vertices MK1 to MK3 becomes the first area.

また、第2の領域とは、特徴量検出処理によって検出された作業対象の特徴量によって特定される領域のことである。例えば、第2の領域は、図9(A)に示すように、作業対象の輪郭線OLに基づいて特定されるバウンディングボックス(Bounding Box、矩形領域)BBなどである。   The second area is an area specified by the feature quantity of the work target detected by the feature quantity detection process. For example, as shown in FIG. 9A, the second area is a bounding box (rectangular area) BB specified based on the outline OL of the work target.

そして、図9(A)に示すように、第1の領域が領域AR1であり、第2の領域がバウンディングボックスBBである場合には、領域RAが、第1の領域AR1と第2の領域BBとの重複領域として検出される。図9(A)では、斜線の領域が重複領域RAである。この領域RAは、図9(A)におけるマーカーと作業対象との位置姿勢関係を表している。   As shown in FIG. 9A, when the first area is the area AR1 and the second area is the bounding box BB, the area RA is divided into the first area AR1 and the second area. It is detected as an overlapping area with BB. In FIG. 9A, the shaded area is the overlapping area RA. This area RA represents the position and orientation relationship between the marker and the work object in FIG.

これにより、例えば図9(A)のように、エンドエフェクター(ハンドHD)が作業対象物(ワーク)を把持している状態の撮像画像において、重複領域RAが存在すると判定した場合には、作業対象の特徴量が誤検出されていないと判定すること等が可能になる。一方で、前述した図7(D)の例のように、把持状態の撮像画像において、第1の領域と第2の領域とがそれぞれ存在するが、重複領域が存在しないと判定した場合には、作業対象の特徴量が誤検出されていると判定すること等が可能になる。   Thus, for example, as shown in FIG. 9A, when it is determined that the overlapping area RA exists in the captured image in a state where the end effector (hand HD) is holding the work object (work), It is possible to determine that the target feature amount is not erroneously detected. On the other hand, as in the example of FIG. 7D described above, when it is determined that the first region and the second region exist in the captured image in the gripping state, but the overlapping region does not exist. It is possible to determine that the feature quantity of the work target is erroneously detected.

また、エンドエフェクターが作業対象を把持している場合には、ビジュアルサーボ中に続けて取得される撮像画像間において、エンドエフェクター(及びエンドエフェクターに配置されたマーカー)と作業対象の位置姿勢関係は、あまり変化しないことが多い。したがって、続けて取得される撮像画像間において、エンドエフェクター(マーカー)と作業対象の位置姿勢関係が急に変化した場合には、作業対象の特徴量の誤検出が発生している可能性が高いと考えられる。   In addition, when the end effector is holding the work target, the position / posture relationship between the end effector (and the marker disposed on the end effector) and the work target is between the captured images continuously acquired during the visual servo. , Often not much change. Therefore, when the position / posture relationship between the end effector (marker) and the work target changes abruptly between successively acquired images, there is a high possibility that the feature amount of the work target is erroneously detected. it is conceivable that.

そこで、前述した方法に加えて、以下の判定処理を行ってもよい。つまり、前回取得した撮像画像において検出したマーカーと作業対象との位置姿勢関係と、今回取得した撮像画像において検出したマーカーと作業対象との位置姿勢関係とを比較することによって、作業対象の特徴量が誤検出されたか否かを判定してもよい。   Therefore, in addition to the method described above, the following determination process may be performed. That is, by comparing the position and orientation relationship between the marker and the work target detected in the previously acquired captured image and the position and orientation relationship between the marker and the work target detected in the currently acquired captured image, the feature amount of the work target is calculated. It may be determined whether or not is erroneously detected.

この場合には事前準備として、処理部150は、マーカー検出処理の結果と、特徴量検出処理の結果とに基づいて、マーカーと作業対象との位置姿勢関係を特定し、特定した位置姿勢関係の登録処理を行っておく。   In this case, as a preliminary preparation, the processing unit 150 identifies the position / orientation relationship between the marker and the work target based on the result of the marker detection process and the result of the feature amount detection process, and Perform the registration process.

ここで、登録処理とは、特定したマーカーと作業対象の位置姿勢関係を記憶部に記憶させる処理のことをいう。   Here, the registration process refers to a process of storing the identified marker and the position and orientation relationship of the work target in the storage unit.

また、マーカーと作業対象の位置姿勢関係は、前述した第1の領域と第2の領域との位置姿勢関係により表すことができる。その場合、例えばマーカーと作業対象の位置姿勢関係は、図9(B)の表のように記憶される。図9(B)の表は、図9(A)の例において特定された位置姿勢関係である。図9(B)の表では、左欄に、撮像画像において検出された第1の領域と、その第1の領域の頂点となる各マーカーが記載されており、右欄に、作業対象を表すバウンディングボックス(第2の領域)の各頂点座標が記載されている。右欄のバウンディングボックスの各頂点座標は、左欄の第1の領域の頂点1から頂点2を結ぶ線分をX軸とし、頂点3からX軸に下ろした垂線をY軸とした時の座標位置(X、Y)である。   Further, the position and orientation relationship between the marker and the work target can be expressed by the position and orientation relationship between the first area and the second area described above. In that case, for example, the position and orientation relationship between the marker and the work target is stored as shown in the table of FIG. The table in FIG. 9B shows the position and orientation relationship specified in the example of FIG. In the table of FIG. 9B, the left column describes the first area detected in the captured image and each marker that is the vertex of the first area, and the right column represents the work target. Each vertex coordinate of the bounding box (second region) is described. Each vertex coordinate of the bounding box in the right column is the coordinate when the line segment connecting the vertex 1 to the vertex 2 in the first area in the left column is the X axis, and the perpendicular line from the vertex 3 to the X axis is the Y axis. Position (X, Y).

これにより、後述する比較処理において、異なるタイミングにおいて取得された撮像画像における、マーカーと作業対象との位置姿勢関係を比較すること等が可能になる。   This makes it possible to compare the position and orientation relationship between the marker and the work target in captured images acquired at different timings in a comparison process to be described later.

そして、処理部150は、登録処理後に、撮像画像受付部130が受け付けた第2の撮像画像に基づいて、マーカー検出処理と、特徴量検出処理とを行い、第2の撮像画像におけるマーカー検出処理の結果と、特徴量検出処理の結果とに基づいて、マーカーと作業対象との第2の位置姿勢関係を特定する。   Then, after the registration process, the processing unit 150 performs a marker detection process and a feature amount detection process based on the second captured image received by the captured image reception unit 130, and a marker detection process in the second captured image. And the second position and orientation relationship between the marker and the work target are specified based on the result of the above and the result of the feature amount detection process.

さらに、処理部150は、第2の位置姿勢関係と、登録された位置姿勢関係との比較処理を行い、第2の位置姿勢関係と、登録された位置姿勢関係とが対応していると判定した場合には、第2の位置姿勢関係の登録処理を行う。すなわち、この場合には、作業対象の特徴量の誤検出が発生していないと判定し、次回の比較処理において、今回特定した第2の位置姿勢関係を参照するために、第2の位置姿勢関係の登録処理を行う。   Further, the processing unit 150 performs a comparison process between the second position / posture relationship and the registered position / posture relationship, and determines that the second position / posture relationship corresponds to the registered position / posture relationship. In such a case, the second position / orientation registration process is performed. That is, in this case, the second position / posture is determined in order to determine that no erroneous detection of the feature value of the work target has occurred and to refer to the second position / posture relationship specified this time in the next comparison process. Perform the relationship registration process.

また、この際に第2の位置姿勢関係の登録処理を行う理由は、第2の位置姿勢関係を特定する際に、登録されていない(判明していない)作業対象とマーカーとの位置姿勢関係が判明することがあるためである。例えば図9(B)の例において、第1の領域AR2とバウンディングボックスBBとの位置姿勢関係、すなわち第1のマーカーMK1〜第3のマーカーMK3と、ワークWKとの位置姿勢関係しか登録されていなかった(判明していなかった)ものとする。この場合において、第2の位置姿勢関係の特定時に、例えば第1の領域AR3とバウンディングボックスBBとの位置姿勢関係、すなわち第4のマーカーMK4とワークWKとの位置姿勢関係が新たに判明すること等がある。このような情報は、次回以降の位置姿勢関係の比較処理において有用である。そのため、前述した第2の位置姿勢関係の登録(更新)処理を行う。   Also, the reason for performing the second position / orientation relationship registration process at this time is that the position / orientation relationship between the unregistered (unknown) work target and the marker when specifying the second position / orientation relationship. This is because it may become clear. For example, in the example of FIG. 9B, only the position and orientation relationship between the first area AR2 and the bounding box BB, that is, the position and orientation relationship between the first marker MK1 to the third marker MK3 and the workpiece WK is registered. It was assumed that it was not found (it was not known). In this case, when the second position / posture relationship is specified, for example, the position / posture relationship between the first area AR3 and the bounding box BB, that is, the position / posture relationship between the fourth marker MK4 and the workpiece WK is newly found. Etc. Such information is useful in the comparison process of the position and orientation relationship after the next time. Therefore, the registration (update) process of the second position and orientation relationship described above is performed.

ここで、2つの位置姿勢関係の比較処理の結果をまとめると、処理部150は、第2の位置姿勢関係と、登録された位置姿勢関係とが対応していると判定した場合には、特徴量検出処理において、作業対象の特徴量が誤検出されなかったと判定し、第2の位置姿勢関係と、登録された位置姿勢関係とが対応していないと判定した場合には、特徴量検出処理において、作業対象の特徴量が誤検出されたと判定する。   Here, when the results of the comparison processing of the two position / orientation relations are summarized, if the processing unit 150 determines that the second position / orientation relation corresponds to the registered position / orientation relation, In the amount detection processing, when it is determined that the feature amount of the work target has not been erroneously detected, and it is determined that the second position / posture relationship does not correspond to the registered position / posture relationship, the feature amount detection processing In step (b), it is determined that the feature amount of the work target is erroneously detected.

例えば、登録された位置姿勢関係が、前述した図7(A)に示すような位置姿勢関係であり、今回特定した第2の位置姿勢関係も、図7(A)に示すような位置姿勢関係である場合には、2つの位置姿勢関係が対応していると判定し、作業対象の特徴量の誤検出が発生していないと判定する。   For example, the registered position / posture relationship is a position / posture relationship as shown in FIG. 7 (A), and the second position / posture relationship specified this time is also the position / posture relationship shown in FIG. 7 (A). If it is, it is determined that the two position and orientation relationships correspond to each other, and it is determined that no erroneous detection of the feature quantity of the work target has occurred.

ここで、第2の撮像画像とは、マーカーと作業対象の位置姿勢関係の登録処理後に撮像又は取得された撮像画像のことをいう。   Here, the second captured image refers to a captured image that is captured or acquired after the registration processing of the position and orientation relationship between the marker and the work target.

そして、第2の位置姿勢関係とは、第2の撮像画像におけるマーカーと作業対象との位置姿勢関係のことをいう。   The second position / posture relationship refers to the position / posture relationship between the marker and the work target in the second captured image.

また、第2の位置姿勢関係と、登録された位置姿勢関係とが対応しているか否かは、例えば図9(C)に示すように、第2の位置姿勢関係における重複領域RA1(斜線で示す領域)と、登録された位置姿勢関係における重複領域RA2(斜線で示す領域)との差分領域DAの面積に基づいて特定する。例えば、差分領域DAの面積が、所与の閾値よりも大きい場合には、2つの位置姿勢関係が対応していないと判定する。一方、差分領域DAの面積が、所与の閾値未満である場合には、2つの位置姿勢関係が対応していると判定する。   Further, whether or not the second position / posture relationship corresponds to the registered position / posture relationship, for example, as shown in FIG. Specified area) and the area of the difference area DA between the overlapping area RA2 (area shown by oblique lines) in the registered position and orientation relationship. For example, when the area of the difference area DA is larger than a given threshold, it is determined that the two position / orientation relationships do not correspond. On the other hand, when the area of the difference area DA is less than a given threshold value, it is determined that the two position / orientation relationships correspond to each other.

ここで、2つの位置姿勢関係の比較処理において、所与の閾値を設ける理由について説明する。ビジュアルサーボによりロボット300が期待通りに動作した場合であっても、撮像部200に対するマーカーと作業対象の位置姿勢は変化する。そのため、撮像画像におけるマーカーと作業対象の映り方も変化して、撮像画像に基づいてマーカーと作業対象の位置姿勢を特定する際に誤差が生じることがある。しかし、この誤差は、マーカーと作業対象の位置姿勢関係の特定時に発生したものであり、実際のマーカーと作業対象の位置姿勢関係の変化を表すものではない。したがって、この誤差を許容するために、前述した所与の閾値を設けている。   Here, the reason why a given threshold value is provided in the comparison process between two positions and orientations will be described. Even when the robot 300 operates as expected by visual servoing, the marker and the position and orientation of the work target with respect to the imaging unit 200 change. Therefore, how the marker and the work target are reflected in the captured image also changes, and an error may occur when the position and orientation of the marker and the work target are specified based on the captured image. However, this error occurs when the position / posture relationship between the marker and the work target is specified, and does not represent a change in the position / posture relationship between the actual marker and the work target. Therefore, in order to allow this error, the given threshold value described above is provided.

これにより、作業対象の特徴量の誤検出が発生していない場合を判別すること等が可能になる。そして、マーカーと作業対象との位置姿勢関係を更新すること等が可能になる。   As a result, it is possible to determine a case where no erroneous detection of the feature quantity of the work target has occurred. Then, it becomes possible to update the position and orientation relationship between the marker and the work target.

一方で、比較処理において、2つの位置姿勢関係が対応していないと判定した場合には、作業対象の特徴量の誤検出が発生していると判定し、作業対象の特徴量が誤検出された場合(第4のケース時)の処理を行う。すなわち、処理部150は、比較処理において、第2の位置姿勢関係と、登録された位置姿勢関係とが対応していないと判定した場合には、マーカー検出処理の結果に基づいて、第2の撮像画像における作業対象の特徴量の特定処理を行い、特定した特徴量に基づいて、ロボットを動作させる(ビジュアルサーボを行う)。   On the other hand, if it is determined in the comparison process that the two positions and orientations do not correspond to each other, it is determined that the feature amount of the work target is erroneously detected, and the feature amount of the work target is erroneously detected. If this is the case (in the fourth case), the process is performed. In other words, when it is determined in the comparison process that the second position / orientation relationship does not correspond to the registered position / orientation relationship, the processing unit 150 determines whether the second position / orientation relationship is based on the result of the marker detection process. Processing for specifying the feature quantity of the work target in the captured image is performed, and the robot is operated based on the specified feature quantity (visual servo is performed).

例えば、登録された位置姿勢関係が、前述した図7(A)に示すような位置姿勢関係であるが、今回特定した第2の位置姿勢関係は、前述した図7(C)に示すような位置姿勢関係である場合には、作業対象の特徴量の誤検出が発生していると判定する。そして、前述した図8(B)のように、ワークの輪郭線OLを特定するなどの作業対象の特徴量の特定処理を行う。   For example, the registered position / posture relationship is a position / posture relationship as shown in FIG. 7 (A), but the second position / posture relationship specified this time is as shown in FIG. 7 (C). In the case of the position / orientation relationship, it is determined that an erroneous detection of the feature amount of the work target has occurred. Then, as shown in FIG. 8B described above, processing for specifying the feature amount of the work target such as specifying the contour line OL of the workpiece is performed.

これにより、撮像画像において、作業対象の特徴量の誤検出が生じていることを判別すること等が可能になり、作業対象の特徴量が誤検出された場合(第4のケース時)の処理を行うことができる。   As a result, it is possible to determine that an erroneous detection of the feature quantity of the work target has occurred in the captured image, and the process when the feature quantity of the work target is erroneously detected (during the fourth case). It can be performed.

2.3.フレームアウト発生時の処理の詳細
次に、今回のケースが前述した第2のケースに相当するか否かの判定処理と、第2のケースであると判定された後に行う処理(作業対象がフレームアウトしている場合の処理)の詳細について説明する。
2.3. Details of processing when frame-out occurs Next, processing for determining whether or not the current case corresponds to the second case described above, and processing performed after it is determined that the case is the second case (work target is frame The details of the process when it is out will be described.

まず、今回のケースが前述した第2のケースに相当するか否かの判定処理は、マーカー検出処理において検出されたマーカーの数又は第1の領域の有無に基づいて行う。   First, the determination process of whether or not the current case corresponds to the second case described above is performed based on the number of markers detected in the marker detection process or the presence or absence of the first region.

具体的には、処理部150は、マーカー検出処理において、マーカーが検出されなかった場合、又は検出されたマーカーの数が所与の閾値以下である場合には、作業対象が撮像範囲外に位置すると判定する。   Specifically, the processing unit 150 determines that the work target is positioned outside the imaging range when no marker is detected in the marker detection process or when the number of detected markers is equal to or less than a given threshold. Judge that.

例えば、前述した図7(E)の例では、検出されたマーカーの数が1であり、所与の閾値の3以下である。よって、図7(E)の例では、作業対象が撮像範囲外に位置する、すなわち撮像画像において作業対象がフレームアウトしていると判定できる。これは、前述した第2のケースに相当する。   For example, in the example of FIG. 7E described above, the number of detected markers is 1, which is 3 or less of a given threshold. Therefore, in the example of FIG. 7E, it can be determined that the work target is located outside the imaging range, that is, the work target is out of frame in the captured image. This corresponds to the second case described above.

一方で、図7(A)〜図7(D)の例はどれも、3つ以上のマーカーが検出されているため、作業対象が撮像範囲内に位置すると判定できる。   On the other hand, in all of the examples of FIGS. 7A to 7D, since three or more markers are detected, it can be determined that the work target is located within the imaging range.

ここで、撮像範囲とは、撮像部200により撮像された撮像画像に映る実空間上の範囲のことである。例えば、撮像範囲は、後述する図10(A)に示す範囲PAのことである。   Here, the imaging range is a range in real space reflected in a captured image captured by the imaging unit 200. For example, the imaging range is a range PA shown in FIG.

これにより、作業対象が撮像範囲外に位置するか否かを判別し、この場合に適した処理を行うこと等が可能になる。   Thereby, it is possible to determine whether or not the work target is located outside the imaging range, and to perform processing suitable for this case.

また、前述した第1の領域は、図9(A)に示すように、マーカー検出位置を結んで特定できる領域であるため、3つ以上のマーカーが検出されていなければ、第1の領域を特定することができない。逆に言えば、図6(A)及び図6(B)のようにマーカーを配置して取得した撮像画像において、第1の領域が特定できない場合には、マーカーが2つ以下しか検出されていないと判定でき、他のマーカーが撮像範囲外に位置していると判定できる。この場合には、作業対象もフレームアウトしている可能性が極めて高い。   In addition, as shown in FIG. 9A, the first area described above is an area that can be identified by connecting the marker detection positions. Therefore, if three or more markers are not detected, the first area is It cannot be specified. Conversely, in the captured image obtained by arranging the markers as shown in FIGS. 6A and 6B, if the first region cannot be specified, only two or less markers are detected. It can be determined that the other marker is located outside the imaging range. In this case, there is a high possibility that the work target is also out of frame.

そこで、処理部150は、第1の領域が特定できる場合には、作業対象が撮像範囲内に位置すると判定し、第1の領域が特定できない場合には、作業対象が撮像範囲外に位置すると判定してもよい。   Therefore, the processing unit 150 determines that the work target is located within the imaging range when the first region can be identified, and determines that the work target is located outside the imaging range when the first region cannot be identified. You may judge.

これによっても、作業対象が撮像範囲外に位置するか否かを判別し、この場合に適した処理を行うこと等が可能になる。   This also makes it possible to determine whether or not the work target is located outside the imaging range, and to perform processing suitable for this case.

また具体的に、作業対象がフレームアウトしていると判定した場合、すなわち、マーカー検出処理が失敗したと判定した場合には、処理部150は、ロボット300の動作(ビジュアルサーボ)の開始位置の変更処理を行ってもよい。   Specifically, when it is determined that the work target is out of frame, that is, when it is determined that the marker detection process has failed, the processing unit 150 determines the start position of the operation (visual servo) of the robot 300. Change processing may be performed.

例えば、図10(A)に示すように、ワークWKを把持したハンドHDが、ポイントP1に位置しており、この時に撮像部CMにより撮像された撮像画像において、ワークWKがフレームアウトしているものとする。   For example, as shown in FIG. 10A, the hand HD holding the work WK is positioned at the point P1, and the work WK is out of frame in the captured image captured by the imaging unit CM at this time. Shall.

この場合に、図10(B)に示すように、あらかじめ撮像範囲PA内に設定していたポイントP2〜P4のいずれかに、ハンドHDを移動させ、移動後のポイントから再度ビジュアルサーボを開始する。図10(B)では、ポイントP1からポイントP2へハンドHDを移動させている。   In this case, as shown in FIG. 10B, the hand HD is moved to any of the points P2 to P4 set in advance within the imaging range PA, and the visual servo is started again from the moved point. . In FIG. 10B, the hand HD is moved from the point P1 to the point P2.

このポイントP2〜P4は、ビジュアルサーボの開始位置である。これらのビジュアルサーボの開始位置は、エンドエフェクター(ハンドHD)又は作業対象(ワークWK)がこれらのポイントに位置して撮像された撮像画像に、作業対象が必ず映るように設定される。なお、ビジュアルサーボの開始位置は、3つに限らず、いくつ設定していてもよい。   Points P2 to P4 are visual servo start positions. The start positions of these visual servos are set so that the work target is always reflected in the captured image obtained by imaging the end effector (hand HD) or the work target (work WK) at these points. Note that the start position of the visual servo is not limited to three, and any number may be set.

これにより、作業対象がフレームアウトした場合でも、撮像画像において作業対象が映る位置にエンドエフェクターを移動させて、ビジュアルサーボを再開すること等が可能になる。よって、作業対象がフレームアウトした場合でも、ビジュアルサーボを終了させずに継続できるため、撮像部200の設置位置を柔軟に変更することが可能になる。つまり、必ずしも撮像部200が、ロボット300の作業現場の全体を映すように配置しなくても済むようになる。   As a result, even when the work target is out of frame, it is possible to move the end effector to a position where the work target appears in the captured image and restart the visual servo. Therefore, even when the work target is out of the frame, the visual servo can be continued without ending, so that the installation position of the imaging unit 200 can be flexibly changed. That is, it is not always necessary to arrange the imaging unit 200 so as to reflect the entire work site of the robot 300.

2.4.処理の流れ
次に、本実施形態の処理の流れを図11及び図12のフローチャート用いて説明する。
2.4. Processing Flow Next, the processing flow of this embodiment will be described with reference to the flowcharts of FIGS. 11 and 12.

図11は、ビジュアルサーボの準備のフローチャートである。ここでは、事前準備として、参照画像及びビジュアルサーボの開始位置を複数設定しておく。   FIG. 11 is a flowchart of visual servo preparation. Here, as a preliminary preparation, a plurality of reference image and visual servo start positions are set.

まず、ハンドで作業対象物を把持し(S201)、目標位置へ精密に位置合わせを行う(S202)。この位置合わせは、ジョグツールなどを用いて行う。   First, a work object is grasped with a hand (S201), and precisely aligned with a target position (S202). This alignment is performed using a jog tool or the like.

そして、位置合わせ後の作業対象物を撮像部により撮像し、例えば前述した図3(A)のRIMのような参照画像を生成する(S203)。なお、参照画像を生成する時に、ハンド等にマーカーを配置しておく必要はない。   Then, the work target after alignment is imaged by the imaging unit, and for example, a reference image such as the RIM in FIG. 3A described above is generated (S203). It is not necessary to place a marker on the hand or the like when generating the reference image.

さらに、参照画像に対して、作業対象物の特徴量検出処理を行い、検出した作業対象物の特徴量を記憶しておく(S204)。   Furthermore, the feature amount detection process of the work object is performed on the reference image, and the detected feature value of the work object is stored (S204).

次に、例えば前述した図10(B)のポイントP2〜ポイントP4のようなビジュアルサーボの開始位置を複数設定し、登録しておく(S205)。以上が、ビジュアルサーボの事前準備の流れである。   Next, for example, a plurality of visual servo start positions such as point P2 to point P4 in FIG. 10B described above are set and registered (S205). The above is the flow of preparation for visual servo.

次に、図12のフローチャート用いて、本実施形態のビジュアルサーボの処理の流れを説明する。   Next, the flow of processing of the visual servo of this embodiment will be described using the flowchart of FIG.

まず、ビジュアルサーボを行う前に、ロボットがハンドで作業対象物を把持する(S301)。なお、この時に、例えば図6(A)及び図6(B)に示すように、ハンドにマーカーを配置しておく。そして、作業対象物を把持したハンドを、ビジュアルサーボの初期開始位置へ移動させる(S302)。このビジュアルサーボの初期開始位置は、前述した図11のステップS205において登録した開始位置のうちの一つである。   First, before performing visual servoing, the robot holds a work object with a hand (S301). At this time, for example, as shown in FIGS. 6A and 6B, markers are arranged on the hand. Then, the hand holding the work object is moved to the initial start position of the visual servo (S302). The initial start position of this visual servo is one of the start positions registered in step S205 in FIG.

そして、図7(A)〜図7(E)に示すような撮像画像を撮像し(S303)、撮像画像に対して作業対象物の特徴量検出処理を行い(S304)、作業対象物の特徴量が検出されたか否かを判定する(S305)。   Then, the captured images as shown in FIGS. 7A to 7E are captured (S303), the feature amount detection processing of the work object is performed on the captured image (S304), and the features of the work object are detected. It is determined whether or not an amount has been detected (S305).

作業対象物の特徴量が検出されたと判定した場合には、撮像画像においてマーカー検出処理を行い(S306)、検出されたマーカーの数が所与の閾値以上であるか否かを判定する(S307)。なお、この際には、前述した第1の領域の有無により、マーカー検出処理が成功したか否かを判定してもよい。   When it is determined that the feature amount of the work object has been detected, marker detection processing is performed on the captured image (S306), and it is determined whether the number of detected markers is equal to or greater than a given threshold value (S307). ). In this case, whether or not the marker detection process is successful may be determined based on the presence or absence of the first region.

そして、検出されたマーカーの数が所与の閾値以上であると判定した場合には、撮像画像において作業対象物とマーカーとが、ビジュアルサーボを行う上で理想的な状態で映っていると判定する。つまり、ビジュアルサーボ中は、撮像画像において、この時の位置姿勢関係のまま、作業対象物とマーカーとが検出されることが望ましいと判定する。よって、作業対象物とマーカーとの位置姿勢関係が、この時の位置姿勢関係から変化がないかを比較して判定するために、この時に検出した作業対象物の特徴量により表される作業対象物の位置と、マーカーの検出位置との相対位置姿勢関係を記憶しておく(S309)。例えば図9(B)の表のように記憶する。これは、前述したように、以降の処理において、作業対象物の特徴量が誤検出されたか否かを判定するためである。   If it is determined that the number of detected markers is equal to or greater than a given threshold value, it is determined that the work object and the marker appear in an ideal state for visual servoing in the captured image. To do. That is, during visual servoing, it is determined that it is desirable to detect the work object and the marker in the captured image while maintaining the position and orientation relationship at this time. Therefore, in order to determine whether the position / orientation relationship between the work object and the marker is unchanged from the position / orientation relationship at this time, the work object represented by the feature amount of the work object detected at this time is used. The relative position and orientation relationship between the position of the object and the detection position of the marker is stored (S309). For example, it is stored as shown in the table of FIG. As described above, this is for determining whether or not the feature amount of the work object has been erroneously detected in the subsequent processing.

一方で、ステップS305において、作業対象物の特徴量が検出されていないと判定した場合、又はステップS307において、検出されたマーカーの数が所与の閾値よりも少ないと判定した場合には、撮像画像において作業対象物とマーカーとが、ビジュアルサーボを行う上で理想的な状態で映っていないと判定する。そのため、図11のステップS205において登録したビジュアルサーボの開始位置のうち、次の開始位置へハンドを移動させ(S308)、ステップS303から処理をやり直す。   On the other hand, if it is determined in step S305 that the feature amount of the work object has not been detected, or if it is determined in step S307 that the number of detected markers is less than a given threshold, imaging is performed. In the image, it is determined that the work object and the marker are not shown in an ideal state for visual servoing. Therefore, the hand is moved to the next start position among the start positions of the visual servo registered in step S205 in FIG. 11 (S308), and the process is repeated from step S303.

さて、ステップS309の後には、撮像画像における作業対象物の特徴量と、参照画像における作業対象物の特徴量とに基づいて、アームの動作量(サーボ量)を計算する(S310)。なお、参照画像における作業対象物の特徴量は、図11のステップS204において、あらかじめ検出しておいた値を用いる。   After step S309, the arm movement amount (servo amount) is calculated based on the feature amount of the work object in the captured image and the feature amount of the work object in the reference image (S310). Note that the value detected in advance in step S204 in FIG. 11 is used as the feature amount of the work object in the reference image.

そして、算出したアームの動作量が所与の閾値以下である場合には、アームの移動が不要である、すなわちビジュアルサーボが収束したと判定して(S311)、処理を終了する。   If the calculated arm movement amount is equal to or less than a given threshold, it is determined that the movement of the arm is unnecessary, that is, the visual servo has converged (S311), and the process is terminated.

一方で、算出したアームの動作量が所与の閾値よりも大きい場合には、アームの動作量に基づいて、アームを実際に動作させる(S312)。   On the other hand, when the calculated movement amount of the arm is larger than a given threshold value, the arm is actually operated based on the movement amount of the arm (S312).

さらに、アームの動作が終了した後に、撮像画像を再度撮像し(S313)、新たに撮像した撮像画像において作業対象物の特徴量検出処理(S314)と、マーカー検出処理(S315)とを行う。   Furthermore, after the operation of the arm is completed, the captured image is captured again (S313), and the feature amount detection process (S314) and the marker detection process (S315) of the work object are performed on the newly captured image.

そして、作業対象物の特徴量とマーカーの両方の検出に成功したか否かを判定し(S316)、作業対象物の特徴量とマーカーの両方の検出に成功したと判定した場合には、前回登録された(比較対象の)相対位置姿勢関係と、今回の作業対象物とマーカーとの相対位置姿勢関係の比較処理を行う(S317)。なお、前回登録された相対位置姿勢関係とは、ステップS309又は後述するステップS319において登録(又は更新)された作業対象物とマーカーとの相対位置姿勢関係のことである。また、この際に、図9(A)を用いて前述した第1の領域と第2の領域との重複領域の有無を判定し、重複領域の有無に基づいて、作業対象物の特徴量が誤検出されているか否かを判定してもよい。   Then, it is determined whether or not the detection of both the feature quantity and the marker of the work object is successful (S316), and if it is determined that the detection of both the feature quantity and the marker of the work object is successful, The registered relative position / posture relationship (comparison target) is compared with the relative position / posture relationship between the current work object and the marker (S317). The previously registered relative position / posture relationship is the relative position / posture relationship between the work object and the marker registered (or updated) in step S309 or step S319 described later. At this time, the presence / absence of the overlapping region between the first region and the second region described above with reference to FIG. 9A is determined, and the feature amount of the work object is determined based on the presence / absence of the overlapping region. It may be determined whether or not it is erroneously detected.

次に、ステップS317の比較処理の結果、今回特定した相対位置姿勢関係が、登録された相対位置姿勢関係に対応(一致)すると判定された場合には(S318)、今回特定した相対位置姿勢関係に基づいて、比較処理において比較対象となる相対位置姿勢関係を更新する(S319)。そして、ステップS310に戻り、ビジュアルサーボが収束するまで処理を繰り返す。この場合は、前述した第1のケースに相当する。   Next, as a result of the comparison processing in step S317, when it is determined that the relative position / posture relationship specified this time corresponds to (matches) the registered relative position / posture relationship (S318), the relative position / posture relationship specified this time is determined. Based on the above, the relative position and orientation relation to be compared in the comparison process is updated (S319). Then, the process returns to step S310, and the process is repeated until the visual servo converges. This case corresponds to the first case described above.

また、ステップS316において、作業対象物の特徴量とマーカーのどちらかの検出に失敗したと判定した場合には、続けてマーカーの検出処理のみが成功したか否かを判定する(S320)。   If it is determined in step S316 that the detection of either the feature quantity or the marker of the work object has failed, it is subsequently determined whether only the marker detection process has succeeded (S320).

マーカーの検出処理のみが成功したと判定した場合には、作業対象物の特徴量のみ検出に失敗した前述の第3のケースであると判定する。この場合には、前述の図4のステップS110で述べた非検出時の処理として、検出されたマーカーの位置に基づいて、図8(B)のように、作業対象物の特徴量を推定する処理を行い(S321)、ステップS310に戻り、ビジュアルサーボが収束するまで処理を繰り返す。   If it is determined that only the marker detection process has succeeded, it is determined that this is the above-described third case in which only the feature amount of the work target has failed to be detected. In this case, as the non-detection process described in step S110 of FIG. 4 described above, the feature amount of the work target is estimated as shown in FIG. 8B based on the detected marker position. The process is performed (S321), the process returns to step S310, and the process is repeated until the visual servo converges.

一方、ステップS320において、マーカーの検出処理のみが成功したのではないと判定した場合には、作業対象物の特徴量の検出処理のみが成功したか否か判定する(S322)。作業対象物の特徴量の検出処理のみが成功したと判定した場合には、ステップS310に戻り、処理をやり直す。一方、作業対象物の特徴量の検出処理も失敗したと判定した場合には、ビジュアルサーボが失敗したと判定して処理を終了する(S323)。また、この場合には、前述した第2のケースに相当すると判定し、前述の図4のステップS111のフレームアウト時の処理として、他のビジュアルサーボの開始位置にハンドを移動させて、ビジュアルサーボをやり直す処理などを行っても良い。   On the other hand, if it is determined in step S320 that only the marker detection process is not successful, it is determined whether only the feature amount detection process for the work target is successful (S322). If it is determined that only the feature amount detection process of the work target has been successful, the process returns to step S310 and the process is performed again. On the other hand, if it is determined that the feature amount detection process of the work object has also failed, it is determined that the visual servo has failed and the process ends (S323). In this case, it is determined that this corresponds to the second case described above, and as a process at the time of frame out in step S111 in FIG. 4 described above, the hand is moved to the start position of another visual servo, and the visual servo is You may perform the process which redoes.

また、ステップS318において、比較処理の結果、今回特定した相対位置姿勢関係が、登録された相対位置姿勢関係に対応(一致)しないと判定された場合には、前述した第4のケースに相当すると判定する。そして、前述の図4のステップS108の誤検出時の処理として、検出されたマーカーの位置に基づいて、作業対象物の特徴量を推定する処理を行い(S321)、ステップS310に戻り、ビジュアルサーボが収束するまで処理を繰り返す。以上が本実施形態のビジュアルサーボの処理の流れである。   If it is determined in step S318 that the relative position / posture relationship specified this time does not correspond to (match) the registered relative position / posture relationship as a result of the comparison processing, this corresponds to the above-described fourth case. judge. Then, as processing at the time of erroneous detection in step S108 of FIG. 4 described above, processing for estimating the feature amount of the work object is performed based on the position of the detected marker (S321), and the process returns to step S310, and visual servoing is performed. Repeat the process until converges. The above is the processing flow of the visual servo of this embodiment.

また、以上の本実施形態で用いる撮像部(カメラ)200は、例えばCCD(charge-coupled device)等の撮像素子と光学系とを含む。撮像部200は、例えば天井や作業台の上などに、ビジュアルサーボにおける検出対象(作業対象物又はロボット300のエンドエフェクター310等)が、撮像部200の画角内に入るような角度で配置される。そして、撮像部200は、撮像画像の情報を制御装置100等に出力する。ただし、本実施形態においては、撮像画像の情報をそのまま制御装置100に出力するものとするが、これに限定されるものではない。例えば、撮像部200は、画像処理用等に用いられるデバイス(プロセッサー)を含むことができる。   Further, the imaging unit (camera) 200 used in the above-described embodiment includes an imaging element such as a charge-coupled device (CCD) and an optical system. The imaging unit 200 is arranged at an angle such that a detection target (work target or the end effector 310 of the robot 300) in the visual servo is within the angle of view of the imaging unit 200, for example, on a ceiling or a work table. The Then, the imaging unit 200 outputs information of the captured image to the control device 100 or the like. However, in the present embodiment, the information of the captured image is output as it is to the control device 100, but the present invention is not limited to this. For example, the imaging unit 200 can include a device (processor) used for image processing or the like.

3.ロボットシステム及びロボット
次に、図13(A)及び図13(B)に、本実施形態の制御装置100が適用されるロボットシステム及びロボット300の構成例を示す。図13(A)及び図13(B)のどちらの場合にも、ロボット300は、エンドエフェクター310を有する。また、ロボットシステムは、ロボット300と、マーカーと、撮像部200と、を含む。
3. Robot System and Robot Next, FIGS. 13A and 13B show a configuration example of the robot system and the robot 300 to which the control device 100 of the present embodiment is applied. In both cases of FIG. 13A and FIG. 13B, the robot 300 includes an end effector 310. The robot system includes a robot 300, a marker, and an imaging unit 200.

エンドエフェクター310とは、ワーク(作業対象物)を把持したり、持ち上げたり、吊り上げたり、吸着させたり、ワークに加工を施したりするために、アームのエンドポイントに取り付ける部品のことをいう。エンドエフェクター310は、例えばハンド(把持部)であってもよいし、フックであってもよいし、吸盤等であってもよい。さらに、1本のアームに対して、複数のエンドエフェクターを設けても良い。なお、アームとは、ロボット300のパーツであって、一つ以上の関節を含む可動パーツのことをいう。   The end effector 310 is a component attached to an end point of an arm in order to grip, lift, lift, attract, or process a workpiece (work object). The end effector 310 may be, for example, a hand (gripping unit), a hook, a suction cup, or the like. Further, a plurality of end effectors may be provided for one arm. The arm is a part of the robot 300 and refers to a movable part including one or more joints.

例えば、図13(A)のロボットは、ロボット本体300(ロボット)と制御装置100とが別体に構成されている。この場合には、制御装置100の一部又は全部の機能は、例えばPC(Personal Computer)により実現される。   For example, in the robot of FIG. 13A, the robot main body 300 (robot) and the control device 100 are configured separately. In this case, some or all of the functions of the control device 100 are realized by, for example, a PC (Personal Computer).

また、本実施形態のロボットは図13(A)の構成に限定されず、図13(B)のようにロボット本体300と制御装置100とが一体に構成されていてもよい。すなわち、ロボット300は、制御装置100を含んでいても良い。具体的には図13(B)に示したように、ロボット300は、ロボット本体(アーム及びエンドエフェクター310を有する)及びロボット本体を支えるベースユニット部を有し、当該ベースユニット部に制御装置100が格納されるものであってもよい。図13(B)のロボット300には、ベースユニット部に車輪等が設けられ、ロボット全体が移動可能な構成となっている。なお、図13(A)は単腕型の例であるが、ロボット300は図13(B)に示すように双腕型等の多腕型のロボットであってもよい。また、ロボット300は、人手により移動させられるものであってもよいし、車輪を駆動させるモーターを設け、当該モーターを制御装置100により制御することにより、移動させられるものであってもよい。また、制御装置100は、図13(B)のようにロボット300の下に設けられたベースユニット部に設けられるとは限られない。   Further, the robot according to the present embodiment is not limited to the configuration shown in FIG. 13A, and the robot body 300 and the control device 100 may be configured integrally as shown in FIG. 13B. That is, the robot 300 may include the control device 100. Specifically, as illustrated in FIG. 13B, the robot 300 includes a robot body (having an arm and an end effector 310) and a base unit portion that supports the robot body, and the control device 100 is included in the base unit portion. May be stored. The robot 300 in FIG. 13B has a structure in which wheels and the like are provided in the base unit portion so that the entire robot can move. Although FIG. 13A shows an example of a single arm type, the robot 300 may be a multi-arm type robot such as a double arm type as shown in FIG. 13B. The robot 300 may be moved manually, or may be moved by providing a motor for driving wheels and controlling the motor by the control device 100. Moreover, the control apparatus 100 is not necessarily provided in the base unit part provided under the robot 300 as shown in FIG.

また、図14に示すように、制御装置100の機能は、有線及び無線の少なくとも一方を含むネットワーク400を介して、ロボット300と通信接続されたサーバー500により実現されてもよい。   As illustrated in FIG. 14, the function of the control device 100 may be realized by a server 500 that is connected to the robot 300 via a network 400 including at least one of wired and wireless.

或いは本実施形態では、本発明の制御装置の処理の一部を、サーバー500側の制御装置が行ってもよい。この場合には、ロボット300側に設けられた制御装置との分散処理により、当該処理を実現する。なお、ロボット300側の制御装置は、例えばロボット300に設置される端末装置330(制御部)により実現される。   Alternatively, in the present embodiment, a part of the processing of the control device of the present invention may be performed by the control device on the server 500 side. In this case, the processing is realized by distributed processing with the control device provided on the robot 300 side. The control device on the robot 300 side is realized by a terminal device 330 (control unit) installed in the robot 300, for example.

そして、この場合に、サーバー500側の制御装置は、本発明の制御装置における各処理のうち、サーバー500の制御装置に割り当てられた処理を行う。一方、ロボット300に設けられた制御装置は、本発明の制御装置の各処理のうち、ロボット300の制御装置に割り当てられた処理を行う。なお、本発明の制御装置の各処理は、サーバー500側に割り当てられた処理であってもよいし、ロボット300側に割り当てられた処理であってもよい。   In this case, the control device on the server 500 side performs a process assigned to the control device of the server 500 among the processes in the control device of the present invention. On the other hand, the control device provided in the robot 300 performs the process assigned to the control device of the robot 300 among the processes of the control device of the present invention. Each process of the control apparatus of the present invention may be a process assigned to the server 500 side or a process assigned to the robot 300 side.

これにより、例えば端末装置330よりも処理能力の高いサーバー500が、処理量の多い処理を行うこと等が可能になる。さらに、例えばサーバー500が各ロボット300の動作を一括して制御することができ、複数のロボット300に協調動作をさせること等が容易になる。   Thereby, for example, the server 500 having a higher processing capability than the terminal device 330 can perform processing with a large processing amount. Further, for example, the server 500 can collectively control the operations of the robots 300, and it is easy to cause a plurality of robots 300 to perform cooperative operations.

また近年は、多品種少数の部品を製造することが増えてきている。そして、製造する部品の種類を変更する場合には、ロボットが行う動作を変更する必要がある。図14に示すような構成であれば、複数のロボット300の各ロボットへ教示作業をし直さなくても、サーバー500が一括して、ロボット300が行う動作を変更すること等が可能になる。   In recent years, the production of a small number of various types of parts has been increasing. And when changing the kind of components to manufacture, it is necessary to change the operation | movement which a robot performs. With the configuration as shown in FIG. 14, it is possible to change the operation performed by the robot 300 in a batch without the server 500 performing the teaching operation on each robot of the plurality of robots 300 again.

さらに、図14に示すような構成であれば、各ロボット300に対して一つの制御装置100を設ける場合に比べて、制御装置100のソフトウェアアップデートを行う際の手間を大幅に減らすこと等が可能になる。   Furthermore, with the configuration as shown in FIG. 14, it is possible to significantly reduce the trouble of performing software update of the control device 100 as compared with the case where one control device 100 is provided for each robot 300. become.

4.ビジュアルサーボ
ここでは、ビジュアルサーボの概要と、位置ベースビジュアルサーボの流れ、特徴ベースビジュアルサーボの流れについて説明する。
4). Visual Servo Here, the outline of visual servo, the flow of position-based visual servo, and the flow of feature-based visual servo will be described.

ビジュアルサーボとは、目標物の位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによって目標物を追跡するサーボ系の一種である。ビジュアルサーボは、サーボ系への入力情報(制御量)によって、位置ベースビジュアルサーボと特徴ベースビジュアルサーボの二つに大別される。位置ベースビジュアルサーボは、物体の位置情報や姿勢情報がサーボ系への入力情報となり、特徴ベースビジュアルサーボは、画像の特徴量がサーボ系への入力情報となる。他にも、位置ベースと特徴ベースをハイブリッドした手法もある。本発明で扱うビジュアルサーボは、これら全ての手法を対象とする。   The visual servo is a kind of servo system that tracks a target by measuring a change in the position of the target as visual information and using it as feedback information. Visual servo is roughly classified into position-based visual servo and feature-based visual servo according to input information (control amount) to the servo system. In the position-based visual servo, the position information and posture information of the object are input information to the servo system, and in the feature-based visual servo, the feature amount of the image is input information to the servo system. In addition, there is a method that hybridizes the position base and the feature base. The visual servo handled in the present invention covers all these methods.

これらのビジュアルサーボは、参照画像と撮像画像を元にサーボ系への入力情報を求める点で共通している。   These visual servos are common in that the input information to the servo system is obtained based on the reference image and the captured image.

4.1.位置ベースビジュアルサーボの流れ
まず、図15のフローチャートにおいて、位置ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボでは、まず参照画像を設定する(S1)。ここで、参照画像とは、目標画像やゴール画像とも呼ばれ、ビジュアルサーボの制御目標となる画像であり、ロボット300の目標状態を表す画像をいう。すなわち、参照画像とは、ロボット300の目標位置や目標姿勢を表す画像、もしくはロボット300が目標位置に位置する状態を表す画像である。また、参照画像はあらかじめ用意しておき、記憶部に記憶しておく必要がある。
4.1. Flow of Position-Based Visual Servo First, the flow of position-based visual servo is shown in the flowchart of FIG. In the position-based visual servo, first, a reference image is set (S1). Here, the reference image is also referred to as a target image or a goal image, and is an image serving as a visual servo control target, which is an image representing the target state of the robot 300. That is, the reference image is an image that represents the target position or target posture of the robot 300 or an image that represents a state where the robot 300 is located at the target position. Also, the reference image must be prepared in advance and stored in the storage unit.

次に、撮像部200によって作業スペースを撮像し、撮像画像を取得する(S2)。撮像画像は、作業スペースの現在の状態を表しており、撮像画像内にロボット300やワークが映りこんでいる場合には、ロボット300やワークの現在の状態を表している。なお、撮像部200の性能によっては処理遅延が生じるが、ここでは、処理遅延が生じている場合でも、撮像画像には現在の状態が映されているものとして扱う。   Next, a work space is imaged by the imaging unit 200, and a captured image is acquired (S2). The captured image represents the current state of the work space. When the robot 300 and the workpiece are reflected in the captured image, the captured image represents the current state of the robot 300 and the workpiece. Although a processing delay occurs depending on the performance of the imaging unit 200, it is assumed here that the captured image shows the current state even when the processing delay occurs.

例えば、図16(A)に参照画像RIMの具体例を、図16(B)に撮像画像PIMの具体例を示す。撮像画像PIMにおいて、ロボットRBはアームAMとハンドHD(もしくはエンドポイントEP)を上方へ向けているが、参照画像RIMでは、ロボットRBはアームAMを折り曲げて、ハンドHDをワークWKに近づけている。したがって、この具体例においては、ロボットRBのアームAMを折り曲げ、ハンドHDをワークWKに近づけるようにロボットRBを制御することになる。   For example, FIG. 16A shows a specific example of the reference image RIM, and FIG. 16B shows a specific example of the captured image PIM. In the captured image PIM, the robot RB points the arm AM and the hand HD (or end point EP) upward, but in the reference image RIM, the robot RB bends the arm AM and brings the hand HD closer to the work WK. . Therefore, in this specific example, the robot RB is controlled so that the arm AM of the robot RB is bent and the hand HD is brought close to the work WK.

次に、制御指令を生成する(S3)。例えば、制御指令生成は、参照画像と撮像画像に基づいて、座標変換の一つであるホモグラフィー等を用いることにより行われる。この場合には、ホモグラフィー行列を求め、ホモグラフィー行列からロボット300の制御信号として速度指令を生成する。   Next, a control command is generated (S3). For example, the control command generation is performed by using homography, which is one of coordinate transformations, based on the reference image and the captured image. In this case, a homography matrix is obtained, and a speed command is generated as a control signal for the robot 300 from the homography matrix.

ここで、制御信号(制御指令)とは、ロボット300を制御するための情報を含む信号のことをいう。例えば、制御信号としては速度指令などがある。また、速度指令とは、ロボット300の各部を制御するための情報として、ロボット300のアームのエンドポイント等の移動速度や回転速度を与える指令の方法を指す。   Here, the control signal (control command) refers to a signal including information for controlling the robot 300. For example, the control signal includes a speed command. The speed command refers to a command method for giving a moving speed or a rotating speed of an end point or the like of the arm of the robot 300 as information for controlling each part of the robot 300.

そして、生成された制御信号に基づいて、制御量(ここではロボット300の位置や姿勢)が目標値に収束したか否かを判定する(S4)。例えば、ホモグラフィーを用いる場合において、速度指令により表される速度ベクトルが0である場合には、制御量である位置や姿勢が目標状態に到達したとみなすことができるため、制御量が目標値に収束したと判定し、速度ベクトルが0でない場合には、制御量が目標値に収束していないと判定する。ここで、収束とは、目標値に限りなく近づくこと、又は目標値に到達することを意味する。   Then, based on the generated control signal, it is determined whether or not the control amount (here, the position and posture of the robot 300) has converged to the target value (S4). For example, in the case of using homography, when the velocity vector represented by the velocity command is 0, it can be considered that the position or orientation that is the controlled variable has reached the target state. If the speed vector is not 0, it is determined that the control amount has not converged to the target value. Here, convergence means approaching the target value as much as possible, or reaching the target value.

制御量が目標値に収束したと判定した場合にはビジュアルサーボを終了する。一方、制御量が目標値に収束していないと判定した場合には、処理部150はロボット300に制御指令を送出する(S5)。   If it is determined that the control amount has converged to the target value, the visual servo is terminated. On the other hand, when it is determined that the control amount has not converged to the target value, the processing unit 150 sends a control command to the robot 300 (S5).

位置ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。   In the position-based visual servo, the above processing is repeated until the control amount converges to the target value.

4.2.特徴ベースビジュアルサーボの流れ
次に、図17のフローチャートにおいて、特徴ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボと同様に、まず参照画像を設定し(S10)、次に、撮像部200によって作業スペースを撮像し、撮像画像を取得する(S11)。なお、特徴ベースビジュアルサーボを用いる場合には、参照画像を設定する際に参照画像の特徴抽出(特徴量検出処理)を行い、特徴量を算出しておくことが望ましい。または、参照画像の特徴(特徴量)を抽出した参照画像情報を記憶部に記憶しておいてもよい。画像の特徴抽出については、例えば、コーナー検出やガウスフィルター等を用いて行う。
4.2. Flow of Feature-Based Visual Servo Next, the flow of feature-based visual servo is shown in the flowchart of FIG. As with the position-based visual servo, a reference image is first set (S10), and then the work space is imaged by the imaging unit 200 to obtain a captured image (S11). When using feature-based visual servoing, it is desirable to perform feature extraction (feature amount detection processing) of the reference image and calculate the feature amount when setting the reference image. Alternatively, reference image information obtained by extracting features (feature amounts) of the reference image may be stored in the storage unit. The feature extraction of the image is performed using, for example, corner detection or a Gaussian filter.

次に、撮像画像の特徴を抽出する(S12)。なお、参照画像の特徴抽出は、参照画像設定の際に行っておくことが望ましいが、本ステップで行ってもよい。特徴抽出では、ビジュアルサーボ系への入力情報(制御量)として、画像の特徴量を求める。   Next, the feature of the captured image is extracted (S12). Note that the feature extraction of the reference image is preferably performed at the time of setting the reference image, but may be performed in this step. In the feature extraction, an image feature amount is obtained as input information (control amount) to the visual servo system.

そして、画像の特徴量に基づいて、参照画像と撮像画像が一致するか否かを比較する(S13)。画像が一致すると判定した場合(S14)には、ビジュアルサーボを終了する。一方、画像が一致しないと判定した場合(S14)には、制御指令を生成し(S15)、ロボット300に制御指令を送出する(S16)。   Then, based on the feature amount of the image, it is compared whether or not the reference image matches the captured image (S13). If it is determined that the images match (S14), the visual servo is terminated. On the other hand, if it is determined that the images do not match (S14), a control command is generated (S15), and the control command is sent to the robot 300 (S16).

特徴ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。   In the feature-based visual servo, the above processing is repeated until the control amount converges to the target value.

なお、本実施形態の制御装置、ロボットシステム及びロボット等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の制御装置、ロボットシステム及びロボット等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   Note that a part or most of the processing of the control device, the robot system, the robot, and the like of the present embodiment may be realized by a program. In this case, a control device, a robot system, a robot, and the like according to the present embodiment are realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage medium. That is, in the information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit) Is memorized.

以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、制御装置、ロボットシステム及びロボットの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. The configurations and operations of the control device, the robot system, and the robot are not limited to those described in the present embodiment, and various modifications can be made.

100 制御装置、110 参照画像記憶部、130 撮像画像受付部、
150 処理部、200 撮像部、300 ロボット、310 エンドエフェクター、
330 端末装置、400 ネットワーク、500 サーバー
100 control device, 110 reference image storage unit, 130 captured image reception unit,
150 processing unit, 200 imaging unit, 300 robot, 310 end effector,
330 terminal devices, 400 networks, 500 servers

Claims (16)

作業対象物を動かすエンドエフェクターを備えるロボットを動作させる処理部と、
前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上のマーカーが、撮像部により撮像されて得られた撮像画像を受け付ける撮像画像受付部と、
を含み、
前記処理部は、
前記撮像画像において前記作業対象物の特徴量が検出できない場合でも、前記ロボットが第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して、前記ロボットを動作させることを特徴とする制御装置。
A processing unit for operating a robot having an end effector for moving a work object;
A captured image receiving unit that receives a captured image obtained by imaging the work target and the marker on the work target or the end effector by an imaging unit;
Including
The processor is
Even when the feature amount of the work object cannot be detected in the captured image, the work object and the marker are moved while the robot moves from the first position to the second position different from the first position. A control device characterized in that the robot is operated by imaging a plurality of times.
請求項1において、
前記処理部は、
前記撮像画像において前記作業対象物の特徴量検出処理を行い、
前記特徴量検出処理において、前記作業対象物の特徴量が検出できない場合、又は前記作業対象物の前記特徴量が誤って検出される場合でも、前記ロボットが前記第1の姿勢から前記第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像し、
前記マーカーのマーカー検出処理の結果に基づいて、前記ロボットを動作させることを特徴とする制御装置。
In claim 1,
The processor is
Performing feature amount detection processing of the work object in the captured image,
In the feature amount detection process, even when the feature amount of the work object cannot be detected, or even when the feature amount of the work object is erroneously detected, the robot moves from the first posture to the second position. Imaging the work object and the marker multiple times while moving to a posture,
A control device that operates the robot based on a result of marker detection processing of the marker.
請求項2において、
前記処理部は、
前記特徴量検出処理において、前記撮像画像における前記作業対象物の前記特徴量が検出されなかったが、前記マーカー検出処理において検出された前記マーカーの数が所与の閾値以上である場合に、
前記マーカー検出処理の結果に基づいて、前記ロボットを動作させることを特徴とする制御装置。
In claim 2,
The processor is
In the feature amount detection process, the feature amount of the work object in the captured image is not detected, but when the number of markers detected in the marker detection process is equal to or greater than a given threshold,
A control apparatus that operates the robot based on a result of the marker detection process.
請求項2又は3において、
前記処理部は、
前記特徴量検出処理において、前記撮像画像における前記作業対象物の前記特徴量が検出され、前記マーカー検出処理において検出された前記マーカーの数が所与の閾値以上である場合に、
前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との位置姿勢関係を特定し、特定した前記位置姿勢関係に基づいて、前記特徴量検出処理において、前記作業対象物の前記特徴量が誤って検出されたか否かを判定することを特徴とする制御装置。
In claim 2 or 3,
The processor is
In the feature amount detection process, when the feature amount of the work object in the captured image is detected, and the number of markers detected in the marker detection process is equal to or greater than a given threshold,
Based on the result of the marker detection process and the result of the feature amount detection process, the position / posture relationship between the marker and the work object is specified, and the feature amount detection is performed based on the specified position / posture relationship. In the processing, it is determined whether or not the feature amount of the work object is erroneously detected.
請求項2乃至4のいずれかにおいて、
前記処理部は、
前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との位置姿勢関係を特定し、特定した前記位置姿勢関係の登録処理を行うことを特徴とする制御装置。
In any of claims 2 to 4,
The processor is
Based on the result of the marker detection process and the result of the feature amount detection process, the position and orientation relationship between the marker and the work object is specified, and the specified position and orientation relationship is registered. Control device.
請求項5において、
前記処理部は、
前記登録処理後に、前記撮像画像受付部が受け付けた第2の撮像画像に基づいて、前記マーカー検出処理と、前記特徴量検出処理とを行い、
前記第2の撮像画像における前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との第2の位置姿勢関係を特定し、
前記第2の位置姿勢関係と、登録された前記位置姿勢関係との比較処理を行い、
前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していると判定した場合には、前記第2の位置姿勢関係の前記登録処理を行うことを特徴とする制御装置。
In claim 5,
The processor is
After the registration process, based on the second captured image received by the captured image reception unit, the marker detection process and the feature amount detection process are performed,
Based on the result of the marker detection process in the second captured image and the result of the feature amount detection process, the second position and orientation relationship between the marker and the work object is specified,
A comparison process between the second position and orientation relationship and the registered position and orientation relationship is performed,
The control apparatus, wherein when the second position / orientation relationship is determined to correspond to the registered position / orientation relationship, the registration processing of the second position / orientation relationship is performed.
請求項6において、
前記処理部は、
前記比較処理において、前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していないと判定した場合には、
前記マーカー検出処理の結果に基づいて、前記第2の撮像画像における前記作業対象物の前記特徴量の特定処理を行い、特定した前記特徴量に基づいて、前記ロボットを動作させることを特徴とする制御装置。
In claim 6,
The processor is
In the comparison process, when it is determined that the second position / orientation relationship does not correspond to the registered position / orientation relationship,
Based on the result of the marker detection processing, the feature amount of the work object in the second captured image is specified, and the robot is operated based on the specified feature amount. Control device.
請求項2乃至6のいずれかにおいて、
前記処理部は、
前記特徴量検出処理において、前記撮像画像における前記作業対象物の前記特徴量が検出できなかった又は誤って検出されたと判定されたが、前記マーカー検出処理において検出された前記マーカーの数が所与の閾値以上である場合には、
前記マーカー検出処理の結果に基づいて、前記作業対象物の前記特徴量の特定処理を行い、特定した前記特徴量に基づいて、前記ロボットを動作させることを特徴とする制御装置。
In any one of Claims 2 thru | or 6.
The processor is
In the feature amount detection process, it is determined that the feature amount of the work object in the captured image has not been detected or has been erroneously detected, but the number of markers detected in the marker detection process is given. If it is greater than or equal to the threshold,
A control device that performs a process for specifying the feature amount of the work object based on a result of the marker detection process, and operates the robot based on the specified feature amount.
請求項2乃至8のいずれかにおいて、
前記処理部は、
前記マーカー検出処理において、前記マーカーが検出されなかった場合、又は検出された前記マーカーの数が所与の閾値以下である場合には、前記作業対象物が撮像範囲外に位置すると判定することを特徴とする制御装置。
In any of claims 2 to 8,
The processor is
In the marker detection process, when the marker is not detected, or when the number of the detected markers is equal to or less than a given threshold, it is determined that the work target is located outside the imaging range. Control device characterized.
請求項2乃至9のいずれかにおいて、
前記処理部は、
前記特徴量検出処理及び前記マーカー検出処理の少なくとも一方が失敗したと判定した場合には、前記ロボットの動作の開始位置の変更処理を行うことを特徴とする制御装置。
In any one of Claims 2 thru | or 9.
The processor is
A control apparatus that performs a change process of a start position of the operation of the robot when it is determined that at least one of the feature amount detection process and the marker detection process has failed.
作業対象物を動かすエンドエフェクターを備えるロボットを動作させる処理部と、
前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上の複数のマーカーが、撮像部により撮像されて得られた撮像画像を受け付ける撮像画像受付部と、
を含み、
前記処理部は、
前記撮像画像において、マーカーのマーカー検出処理によって検出された前記複数のマーカーにより特定される第1の領域と、前記作業対象物の特徴量検出処理により検出された前記作業対象物の特徴量に基づいて特定される第2の領域との重複領域の検出結果に基づいて、前記マーカーと前記作業対象物の位置姿勢関係を特定し、特定した前記位置姿勢関係に基づいて、前記ロボットを動作させることを特徴とする制御装置。
A processing unit for operating a robot having an end effector for moving a work object;
A captured image receiving unit that receives a captured image obtained by imaging the work object and the work object or a plurality of markers on the end effector by an imaging unit;
Including
The processor is
In the captured image, based on a first region specified by the plurality of markers detected by marker detection processing of a marker, and a feature amount of the work object detected by the feature amount detection processing of the work object. Identifying the position and orientation relationship between the marker and the work object based on the detection result of the overlapping region with the second region identified in this way, and operating the robot based on the identified position and orientation relationship A control device characterized by.
請求項11において、
前記処理部は、
特定した前記位置姿勢関係の登録処理を行い、
前記登録処理後に、前記撮像画像受付部が受け付けた第2の撮像画像に基づいて、前記マーカー検出処理と、前記特徴量検出処理とを行い、
前記第2の撮像画像における前記マーカー検出処理の結果と、前記特徴量検出処理の結果とに基づいて、前記マーカーと前記作業対象物との第2の位置姿勢関係を特定し、
前記第2の位置姿勢関係と、登録された前記位置姿勢関係との比較処理を行い、
前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していると判定した場合には、前記特徴量検出処理において、前記作業対象物の前記特徴量が誤って検出されなかったと判定し、
前記第2の位置姿勢関係と、登録された前記位置姿勢関係とが対応していないと判定した場合には、前記特徴量検出処理において、前記作業対象物の前記特徴量が誤って検出されたと判定することを特徴とする制御装置。
In claim 11,
The processor is
Perform registration processing of the identified position and orientation relationship,
After the registration process, based on the second captured image received by the captured image reception unit, the marker detection process and the feature amount detection process are performed,
Based on the result of the marker detection process in the second captured image and the result of the feature amount detection process, the second position and orientation relationship between the marker and the work object is specified,
A comparison process between the second position and orientation relationship and the registered position and orientation relationship is performed,
When it is determined that the second position / posture relationship corresponds to the registered position / posture relationship, the feature amount of the work target is not erroneously detected in the feature amount detection process. And
If it is determined that the second position and orientation relationship does not correspond to the registered position and orientation relationship, the feature amount of the work object is erroneously detected in the feature amount detection process. A control device characterized by determining.
請求項11又は12において、
前記処理部は、
前記第1の領域が特定できる場合には、前記作業対象物が撮像範囲内に位置すると判定し、
前記第1の領域が特定できない場合には、前記作業対象物が前記撮像範囲外に位置すると判定することを特徴とする制御装置。
In claim 11 or 12,
The processor is
If the first area can be specified, it is determined that the work object is located within the imaging range;
When the first area cannot be specified, it is determined that the work object is located outside the imaging range.
作業対象物を動かすエンドエフェクターを備えるロボットと、
前記作業対象物又は前記エンドエフェクター上のマーカーと、
前記作業対象物及び前記マーカーを撮像する撮像部と、
を含み、
前記ロボットは、
前記撮像部が前記作業対象物及び前記マーカーを撮像した撮像画像において前記作業対象物の特徴量が検出できない場合でも、第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して、前記ロボットを動作させることを特徴とするロボットシステム。
A robot having an end effector for moving a work object;
A marker on the work object or the end effector;
An imaging unit for imaging the work object and the marker;
Including
The robot is
Even when the feature amount of the work object cannot be detected in the captured image obtained by capturing the work object and the marker by the imaging unit, the first posture is changed to a second posture different from the first posture. A robot system that moves the robot by imaging the work object and the marker a plurality of times while moving.
作業対象物を動かすエンドエフェクターを含み、
前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上のマーカーを撮像した撮像画像において、前記作業対象物の特徴量が検出できない場合でも、第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して動作することを特徴とするロボット。
Including an end effector to move the work object,
In the captured image obtained by imaging the work object and the marker on the work object or the end effector, even if the feature amount of the work object cannot be detected, the first posture is the first posture. A robot characterized in that it operates by imaging the work object and the marker a plurality of times while moving to a different second posture.
作業対象物を動かすエンドエフェクターを備えるロボットを動作させるロボット制御方法であって、
前記作業対象物及び、前記作業対象物又は前記エンドエフェクター上のマーカーを撮像することと、
前記作業対象物及び前記マーカーを撮像した撮像画像において前記作業対象物の特徴量が検出できない場合でも、前記ロボットが第1の姿勢から、前記第1の姿勢とは異なる第2の姿勢へと移る間に前記作業対象物及び前記マーカーを複数回撮像して、前記ロボットを動作させることと、
を含むロボット制御方法。
A robot control method for operating a robot having an end effector for moving a work object,
Imaging the work object and the marker on the work object or the end effector;
Even when the feature amount of the work object cannot be detected in the captured image obtained by capturing the work object and the marker, the robot moves from the first position to the second position different from the first position. In between, imaging the work object and the marker a plurality of times and operating the robot;
A robot control method including:
JP2014010150A 2014-01-23 2014-01-23 Control device, robot system, robot and robot control method Expired - Fee Related JP6424432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014010150A JP6424432B2 (en) 2014-01-23 2014-01-23 Control device, robot system, robot and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014010150A JP6424432B2 (en) 2014-01-23 2014-01-23 Control device, robot system, robot and robot control method

Publications (2)

Publication Number Publication Date
JP2015136764A true JP2015136764A (en) 2015-07-30
JP6424432B2 JP6424432B2 (en) 2018-11-21

Family

ID=53768136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014010150A Expired - Fee Related JP6424432B2 (en) 2014-01-23 2014-01-23 Control device, robot system, robot and robot control method

Country Status (1)

Country Link
JP (1) JP6424432B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017085811A1 (en) * 2015-11-18 2018-09-06 株式会社Fuji Teaching apparatus and control information generation method
JP2019025572A (en) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 Control device of robot, the robot, robot system, and method of checking abnormality of the robot
DE102017127025B4 (en) 2017-02-08 2019-08-08 Omron Corporation Image processing system, image processing device, method for reconfiguring a circuit in an FPGA and program for reconfiguring a circuit in an FPGA
CN110740841A (en) * 2017-06-13 2020-01-31 川崎重工业株式会社 Operation system
WO2023277095A1 (en) * 2021-07-02 2023-01-05 川崎重工業株式会社 Correction system and teaching data correction method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976185A (en) * 1995-07-12 1997-03-25 Fanuc Ltd Movement control method of robot
JPH09323280A (en) * 1996-06-04 1997-12-16 Nippon Telegr & Teleph Corp <Ntt> Control method and system of manupulator
JP2003211382A (en) * 2002-01-16 2003-07-29 Denso Wave Inc Robot control device
JP2012236266A (en) * 2011-05-13 2012-12-06 Seiko Epson Corp Robot control system, robot system, and program
JP2012254518A (en) * 2011-05-16 2012-12-27 Seiko Epson Corp Robot control system, robot system and program
JP2013010160A (en) * 2011-06-29 2013-01-17 Seiko Epson Corp Robot control system, robot system, and marker processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976185A (en) * 1995-07-12 1997-03-25 Fanuc Ltd Movement control method of robot
JPH09323280A (en) * 1996-06-04 1997-12-16 Nippon Telegr & Teleph Corp <Ntt> Control method and system of manupulator
JP2003211382A (en) * 2002-01-16 2003-07-29 Denso Wave Inc Robot control device
JP2012236266A (en) * 2011-05-13 2012-12-06 Seiko Epson Corp Robot control system, robot system, and program
JP2012254518A (en) * 2011-05-16 2012-12-27 Seiko Epson Corp Robot control system, robot system and program
JP2013010160A (en) * 2011-06-29 2013-01-17 Seiko Epson Corp Robot control system, robot system, and marker processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017085811A1 (en) * 2015-11-18 2018-09-06 株式会社Fuji Teaching apparatus and control information generation method
DE102017127025B4 (en) 2017-02-08 2019-08-08 Omron Corporation Image processing system, image processing device, method for reconfiguring a circuit in an FPGA and program for reconfiguring a circuit in an FPGA
US10474124B2 (en) 2017-02-08 2019-11-12 Omron Corporation Image processing system, image processing device, method of reconfiguring circuit in FPGA, and program for reconfiguring circuit in FPGA
CN110740841A (en) * 2017-06-13 2020-01-31 川崎重工业株式会社 Operation system
CN110740841B (en) * 2017-06-13 2023-10-27 川崎重工业株式会社 Operating system
JP2019025572A (en) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 Control device of robot, the robot, robot system, and method of checking abnormality of the robot
WO2023277095A1 (en) * 2021-07-02 2023-01-05 川崎重工業株式会社 Correction system and teaching data correction method

Also Published As

Publication number Publication date
JP6424432B2 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
US9259844B2 (en) Vision-guided electromagnetic robotic system
US11772267B2 (en) Robotic system control method and controller
JP2012254518A (en) Robot control system, robot system and program
CN111452040B (en) System and method for associating machine vision coordinate space in a pilot assembly environment
JP4940715B2 (en) Picking system
US20190099891A1 (en) Information processing apparatus, method, and robot system
JP5787642B2 (en) Object holding device, method for controlling object holding device, and program
JP6424432B2 (en) Control device, robot system, robot and robot control method
JP7197971B2 (en) Information processing device, control method and program for information processing device
EP3782119A1 (en) Detection, tracking and 3d modeling of objects with sparse rgb-d slam and interactive perception
JP2014029664A (en) Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program
US20230137715A1 (en) Vision-guided picking and placing method, mobile robot and computer-readable storage medium
KAYMAK et al. Implementation of object detection and recognition algorithms on a robotic arm platform using raspberry pi
JP2014188617A (en) Robot control system, robot, robot control method, and program
WO2022188410A1 (en) Automatic device assembly control method and apparatus based on manipulator
CN113172636B (en) Automatic hand-eye calibration method and device and storage medium
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
JP6067547B2 (en) Object recognition device, robot, and object recognition method
JP2015136763A (en) Control device, robot system, robot and robot control method
CN111470244B (en) Control method and control device for robot system
US20230311308A1 (en) Machine-learning device
WO2019176450A1 (en) Information processing device, information processing method, and program
JP2012236266A (en) Robot control system, robot system, and program
JP2013010157A (en) Robot control system, robot system, and marker processing method
JP2013010160A (en) Robot control system, robot system, and marker processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180510

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181008

R150 Certificate of patent or registration of utility model

Ref document number: 6424432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees