JP2014188617A - Robot control system, robot, robot control method, and program - Google Patents
Robot control system, robot, robot control method, and program Download PDFInfo
- Publication number
- JP2014188617A JP2014188617A JP2013065754A JP2013065754A JP2014188617A JP 2014188617 A JP2014188617 A JP 2014188617A JP 2013065754 A JP2013065754 A JP 2013065754A JP 2013065754 A JP2013065754 A JP 2013065754A JP 2014188617 A JP2014188617 A JP 2014188617A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- reference image
- captured
- reflecting mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、ロボット制御システム、ロボット、ロボット制御方法及びプログラム等に関係する。 The present invention relates to a robot control system, a robot, a robot control method, a program, and the like.
近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。 In recent years, industrial robots have been increasingly introduced to mechanize and automate work performed by humans at production sites. However, precise positioning is a prerequisite for positioning the robot arm and hand, which is a barrier to robot introduction.
ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。 Here, there is a visual servo as one of methods for positioning a robot arm or hand. Certain types of visual servos are useful in that they do not require precision in calibration, and are attracting attention as a technology that lowers the barrier for robot introduction.
これらのビジュアルサーボに関する発明としては特許文献1に記載される従来技術がある。
As an invention related to these visual servos, there is a conventional technique described in
ビジュアルサーボには以下のような課題が存在する。まず、ある方向から精密に位置合わせができているように見えていても、他の方向から見ると位置合わせができていない状況が発生し得る。また、ロボットのアームの姿勢や障害物等により、撮像画像に対象物が映らなくなるオクルージョンが発生する場合もある。 The following problems exist in visual servoing. First, even if it seems that the position is precisely aligned from a certain direction, there may be a situation where the position is not aligned when viewed from the other direction. Further, there may be an occlusion in which the target object is not reflected in the captured image due to the posture of the robot arm or an obstacle.
本発明の幾つかの態様によれば、一つの撮像部が撮像した撮像画像に基づいて、複数の方向からの位置合わせをすることができるロボット制御システム、ロボット、ロボット制御方法及びプログラム等を提供することができる。 According to some aspects of the present invention, a robot control system, a robot, a robot control method, a program, and the like that can perform alignment from a plurality of directions based on a captured image captured by one imaging unit are provided. can do.
本発明の一態様は、ロボットの目標状態を表す画像である参照画像を記憶する参照画像記憶部と、前記ロボットの制御信号を出力する処理部と、前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、を含み、前記参照画像記憶部は、対象物の反射画像を含む前記参照画像を記憶し、前記処理部は、前記対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像と、前記参照画像とに基づいて、ビジュアルサーボを行うロボット制御システムに関係する。 In one embodiment of the present invention, a reference image storage unit that stores a reference image that is an image representing a target state of a robot, a processing unit that outputs a control signal of the robot, and the robot is controlled based on the control signal The reference image storage unit stores the reference image including a reflection image of the target object, and the processing unit includes a reflector that reflects the target object within an imaging range of the imaging unit. The present invention relates to a robot control system that performs visual servoing based on a captured image that enters and the reference image.
本発明の一態様では、処理部が、対象物の反射画像を含む参照画像を参照画像記憶部から取得する。一方で、対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像を、撮像部が撮像し、処理部が撮像画像を取得する。そして、処理部は、取得した撮像画像と参照画像とに基づいて、ビジュアルサーボを行う。 In one aspect of the present invention, the processing unit acquires a reference image including a reflection image of the object from the reference image storage unit. On the other hand, the imaging unit captures a captured image in which the reflecting mirror that reflects the object falls within the imaging range of the imaging unit, and the processing unit acquires the captured image. Then, the processing unit performs visual servoing based on the acquired captured image and the reference image.
よって、一つの撮像部が撮像した撮像画像と、これに対応する参照画像とに基づいて、複数の方向からの位置合わせをすることが可能となる。 Therefore, it is possible to perform alignment from a plurality of directions based on a captured image captured by one imaging unit and a reference image corresponding to the captured image.
また、本発明の一態様では、前記参照画像記憶部は、前記対象物が映り、前記対象物の前記反射画像を含む前記参照画像を記憶し、前記処理部は、前記反射鏡及び前記対象物が前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行ってもよい。 In the aspect of the invention, the reference image storage unit stores the reference image including the reflection image of the object, the processing unit including the reflection mirror and the object. The visual servo may be performed based on the captured image that falls within the imaging range and the reference image.
これにより、一度のビジュアルサーボを行うだけで、撮像部から対象物への方向と、反射鏡から対象物への方向の2つの方向から、位置合わせをすること等が可能になる。 Accordingly, it is possible to perform alignment and the like from two directions, ie, the direction from the imaging unit to the object and the direction from the reflector to the object, by performing only one visual servo.
また、本発明の一態様では、前記参照画像記憶部は、前記対象物の前記反射画像を2つ以上含む前記参照画像を記憶し、前記処理部は、2つ以上の前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行ってもよい。 In the aspect of the invention, the reference image storage unit stores the reference image including two or more reflection images of the object, and the processing unit includes two or more reflectors that capture the image. The visual servo may be performed based on the captured image that falls within the imaging range of the unit and the reference image.
これにより、一度のビジュアルサーボを行うだけで、撮像部から対象物への方向と、第1の反射鏡から対象物への方向と、第2の反射鏡から対象物への方向の3つの方向から、位置合わせをすること等が可能になる。 Thereby, only by performing one visual servo, the three directions of the direction from the imaging unit to the target, the direction from the first reflecting mirror to the target, and the direction from the second reflecting mirror to the target are provided. Therefore, it is possible to perform alignment.
また、本発明の一態様では、前記撮像部の撮像方向を制御するカメラ制御部を有し、前記処理部は、前記撮像部を前記対象物に向けた時に撮像される第1の撮像画像と、前記対象物が映る第1の参照画像とに基づく第1のビジュアルサーボと、前記撮像部を前記反射鏡に向けた時に撮像される第2の撮像画像と、前記対象物の前記反射画像を含む第2の参照画像とに基づく第2のビジュアルサーボとを行ってもよい。 Moreover, in 1 aspect of this invention, it has a camera control part which controls the imaging direction of the said imaging part, and the said process part is a 1st captured image imaged when the said imaging part is pointed at the said target object, A first visual servo based on the first reference image in which the object is reflected, a second captured image captured when the imaging unit is directed to the reflecting mirror, and the reflected image of the object. You may perform the 2nd visual servo based on the 2nd reference image containing.
これにより、反射鏡をより自由な位置に設置できるため、より適切な参照画像を利用すること等が可能になる。 Thereby, since a reflecting mirror can be installed in a more free position, it becomes possible to use a more appropriate reference image.
また、本発明の一態様では、前記処理部は、前記撮像部を第2の反射鏡に向けた時に撮像される第3の撮像画像と、前記対象物の第2の反射画像を含む第3の参照画像とに基づく第3のビジュアルサーボを行ってもよい。 In the aspect of the invention, the processing unit includes a third captured image captured when the imaging unit is directed to the second reflecting mirror, and a third reflected image including the second reflected image of the object. A third visual servo based on the reference image may be performed.
これにより、対象物に対してオクルージョンが発生した場合でも、適切にビジュアルサーボを実施すること等が可能になる。 As a result, even when occlusion occurs on the object, it is possible to appropriately perform visual servoing and the like.
また、本発明の一態様では、前記反射鏡は、作業エリアにおいて、前記撮像部と前記対象物とを結ぶ直線に対して垂直な直線であって、前記対象物を通る前記垂直な直線を基準として、前記撮像部の位置とは逆側に設置されてもよい。 In one aspect of the present invention, the reflecting mirror is a straight line perpendicular to a straight line connecting the imaging unit and the object in a work area, and the vertical line passing through the object is used as a reference. As above, it may be installed on the opposite side to the position of the imaging unit.
これにより、対象物が反射鏡に映った撮像画像を撮像すること等が可能となる。 Thereby, it is possible to capture a captured image in which the object is reflected on the reflecting mirror.
また、本発明の一態様では、前記反射鏡は、前記ロボットの前記アームに取り付けられてもよい。 In the aspect of the invention, the reflecting mirror may be attached to the arm of the robot.
これにより、ロボットのアームを移動させることにより、反射鏡の位置を変えること等が可能になる。 Thereby, the position of the reflecting mirror can be changed by moving the arm of the robot.
また、本発明の一態様では、前記ロボットは、第1のアームと第2のアームを有し、前記反射鏡は、前記第1のアームに取り付けられ、前記処理部は、前記第1のアームに取り付けられた前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記第2のアームを動かす前記ビジュアルサーボを行ってもよい。 In one embodiment of the present invention, the robot includes a first arm and a second arm, the reflecting mirror is attached to the first arm, and the processing unit includes the first arm. The visual servo that moves the second arm may be performed based on the captured image in which the reflecting mirror attached to the imaging unit falls within the imaging range of the imaging unit and the reference image.
これにより、ビジュアルサーボ中にオクルージョンが発生した場合などにも、柔軟にビジュアルサーボを実施すること等が可能になる。 As a result, even when occlusion occurs during visual servoing, visual servoing can be performed flexibly.
また、本発明の一態様では、前記参照画像記憶部は、前記対象物の前記反射画像を前記参照画像として記憶し、前記処理部は、前記撮像画像において前記反射鏡が映る反射鏡領域の検出処理を行い、前記撮像画像における前記反射鏡領域の画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行ってもよい。 In the aspect of the invention, the reference image storage unit stores the reflection image of the object as the reference image, and the processing unit detects a reflector region where the reflector is reflected in the captured image. Processing may be performed, and the visual servo may be performed based on the image of the reflector region in the captured image and the reference image.
これにより、参照画像の生成を容易にすること等が可能になる。 Thereby, it is possible to facilitate the generation of the reference image.
また、本発明の一態様では、前記処理部は、前記反射鏡領域の前記検出処理として、前記反射鏡に設けられたマーカー又は枠を検出する処理を行ってもよい。 In the aspect of the invention, the processing unit may perform a process of detecting a marker or a frame provided on the reflector as the detection process of the reflector region.
これにより、反射鏡領域を容易に検出すること等が可能になる。 This makes it possible to easily detect the reflector region.
また、本発明の一態様では、前記処理部は、前記ビジュアルサーボとして、前記撮像画像が前記参照画像に一致又は近づくように前記ロボットを制御する処理を行ってもよい。 In one aspect of the present invention, the processing unit may perform a process of controlling the robot as the visual servo so that the captured image matches or approaches the reference image.
これにより、ロボットの目標姿勢が映る参照画像を用いれば、目標姿勢と同じ又は近い姿勢をロボットに取らせること等が可能になる。 Thus, if a reference image showing the target posture of the robot is used, it is possible to cause the robot to take a posture that is the same as or close to the target posture.
また、本発明の一態様では、前記処理部は、前記対象物を映す第1の反射鏡が前記撮像範囲内に入る撮像画像に含まれる前記反射画像において、第2の反射鏡のマーカー又は枠が映る領域を検出し、検出結果に基づいて、第2の反射鏡が映る領域をマスクしてもよい。 In the aspect of the invention, the processing unit may include a marker or a frame of the second reflecting mirror in the reflected image included in the captured image in which the first reflecting mirror that reflects the object falls within the imaging range. May be detected, and the area in which the second reflecting mirror is reflected may be masked based on the detection result.
これにより、不要な反射鏡の映りこみにより、ビジュアルサーボが収束しなくなることを抑制すること等が可能になる。 As a result, it is possible to prevent the visual servo from converging due to unnecessary reflection of the reflecting mirror.
また、本発明の他の態様では、撮像部により撮像された撮像画像が、参照画像に一致又は近づくようにロボットを制御するロボット制御システムであって、前記撮像画像及び前記参照画像は、反射鏡に映った対象物の鏡像を含むロボット制御システムに関係する。 According to another aspect of the present invention, there is provided a robot control system that controls a robot so that a captured image captured by an imaging unit matches or approaches a reference image, wherein the captured image and the reference image are a reflecting mirror. This is related to a robot control system including a mirror image of an object reflected in
また、本発明の他の態様では、前記ロボット制御システムを含むロボットに関係する。 Another aspect of the present invention relates to a robot including the robot control system.
また、本発明の他の態様では、ロボットの目標状態を表し、対象物の反射画像を含む参照画像を記憶し、撮像部から得られ、前記対象物を映す反射鏡が前記撮像部の撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行い、前記ロボットの制御信号を出力し、前記制御信号に基づいて、前記ロボットを制御するロボット制御方法に関係する。 In another aspect of the present invention, a reference image that represents a target state of a robot, stores a reference image including a reflection image of an object, is obtained from an imaging unit, and a reflecting mirror that reflects the object is an imaging range of the imaging unit. The present invention relates to a robot control method that performs the visual servoing based on the captured image and the reference image that are contained therein, outputs a control signal for the robot, and controls the robot based on the control signal.
また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラムに関係する。 Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.
以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次にシステム構成例について説明する。そして、ビジュアルサーボの概要について説明した後で、フローチャート等を用いて本実施形態で行う処理の詳細と第1の変形例と第2の変形例について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. First, an overview of the present embodiment will be described, and then a system configuration example will be described. Then, after describing the outline of the visual servo, details of processing performed in the present embodiment, a first modification, and a second modification will be described using a flowchart and the like. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.概要
近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。
1. Outline In recent years, industrial robots have been increasingly introduced in production sites to mechanize and automate work performed by humans. However, precise positioning is a prerequisite for positioning the robot arm and hand, which is a barrier to robot introduction.
ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ビジュアルサーボは、参照画像(ゴール画像、目標画像)と撮像画像(現在の画像)との差が小さくなるように、ロボットを制御する技術である。ビジュアルサーボに用いる参照画像は、あらかじめワーク等の作業対象等を撮像した画像であって、ロボットの目標状態を表す画像のことである。一方で、撮像画像は、ロボットを実際に動作させる際にワークやアーム等の現在の様子を撮像した画像である。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。 Here, there is a visual servo as one of methods for positioning a robot arm or hand. Visual servo is a technique for controlling a robot so that a difference between a reference image (goal image, target image) and a captured image (current image) becomes small. The reference image used for the visual servo is an image obtained by capturing a work target such as a workpiece in advance, and is an image representing the target state of the robot. On the other hand, the captured image is an image obtained by capturing a current state of a work, an arm, or the like when the robot is actually operated. Certain types of visual servos are useful in that they do not require precision in calibration, and are attracting attention as a technology that lowers the barrier for robot introduction.
そして、ビジュアルサーボには以下のような課題が存在する。まず、ある方向から精密に位置合わせができているように見えていても、他の方向から見ると位置合わせができていない状況が発生し得る。これが第1の課題である。そのため、このようなケースが発生しないように必要十分な方向から撮像された画像を利用する必要がある。この第1の課題については、一般的に以下のような対策がとられるが、それぞれに副次的な課題がある。 The following problems exist in visual servoing. First, even if it seems that the position is precisely aligned from a certain direction, there may be a situation where the position is not aligned when viewed from the other direction. This is the first problem. Therefore, it is necessary to use an image captured from a necessary and sufficient direction so that such a case does not occur. For the first problem, the following measures are generally taken, but each has a secondary problem.
まず、第1の課題への第1の対応策として、複数台のカメラを用いて多方向から参照画像と撮像画像を撮像する方法がある。しかし、この場合には、作業エリア内に複数台のカメラを設置するための場所の確保が必要であるという問題と、カメラ台数分だけの画像を撮像するため、処理が複雑で遅いという更なる問題がある。 First, as a first countermeasure to the first problem, there is a method of capturing a reference image and a captured image from multiple directions using a plurality of cameras. However, in this case, there is a problem that it is necessary to secure a place for installing a plurality of cameras in the work area, and the processing is complicated and slow because images corresponding to the number of cameras are captured. There's a problem.
次に、第1の課題への第2の対応策として、ロボットのアームに設置したカメラを用いて複数の姿勢から参照画像と撮像画像を撮像する方法がある。しかし、この場合には、ロボットのアームに設置したカメラが取り得る姿勢からの画像しか取得できないという問題と、撮像画像の撮像毎にロボットのアームを移動する必要があるため、サーボ処理に時間がかかるという問題がある。 Next, as a second countermeasure to the first problem, there is a method of capturing a reference image and a captured image from a plurality of postures using a camera installed on a robot arm. However, in this case, it is necessary to move the arm of the robot every time the captured image is taken, and there is a problem that only an image from a posture that can be taken by the camera installed on the robot arm is taken. There is a problem that it takes.
次に、ビジュアルサーボを行うに当たり、ロボットのアームの姿勢等により、撮像画像に対象物が映らなくなるオクルージョンが発生することがある。これが第2の課題である。前述した特許文献1は、この課題を解決する発明であり、オクルージョンが発生する位置又は姿勢を禁止領域に設定し、ロボットのアームが禁止領域内に移動することを防ぐものである。
Next, when performing visual servoing, there may occur an occlusion in which an object does not appear in the captured image due to the posture of the robot arm or the like. This is the second problem.
本実施形態のロボット制御システムは、上記のような課題を解決するために、反射鏡を用いて効率的に撮像画像と参照画像を撮像する。具体的には、作業エリアにおいてカメラの撮像範囲内に入るように反射鏡を設置して、撮像画像を撮像する。これにより、一つの撮像部が撮像した撮像画像と、それに対応する参照画像とに基づいて、複数の方向からの位置合わせをすることが可能になる。 In order to solve the above-described problems, the robot control system according to the present embodiment efficiently captures a captured image and a reference image using a reflecting mirror. Specifically, a reflecting mirror is installed so as to fall within the imaging range of the camera in the work area, and a captured image is captured. Accordingly, it is possible to perform alignment from a plurality of directions based on the captured image captured by one imaging unit and the corresponding reference image.
2.システム構成例
次に、本実施形態のロボット制御システム10及びロボット30の構成例を図1に示す。
2. System Configuration Example Next, a configuration example of the
ロボット制御システム10は、参照画像記憶部110と、処理部120と、ロボット制御部130と、カメラ制御部140と、I/F部(入力部)150と、を含む。なお、ロボット制御システム10は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
The
次に、ロボット制御システム10の各部で行われる処理について説明する。
Next, processing performed in each unit of the
まず、参照画像記憶部110は、ロボット30の目標状態を表す画像である参照画像を記憶したり、処理部120、ロボット制御部130及びカメラ制御部140のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
First, the reference
次に、処理部120は、後述する撮像部40から得られる撮像画像と、参照画像記憶部110から取得される参照画像とに基づいて、ロボット30のビジュアルサーボを行い、ロボット30の制御信号を出力する。
Next, the
そして、ロボット制御部130は、制御信号に基づいて、ロボット30を制御する。
Then, the
また、カメラ制御部140は、撮像部40の撮像方向を制御する。なお、処理部120と、ロボット制御部130と、カメラ制御部140の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
In addition, the
さらに、入力部(I/F部)150は、ロボット制御システム10に対する作業者からの入力を受け付けたり、ロボット30及び撮像部40との間で情報をやり取りしたりするためのインターフェースである。作業者からの入力等を受け付ける場合には、入力部(I/F部)150は、スイッチやボタン、キーボード或いはマウス等から構成されてもよい。また、ロボット制御システム10とロボット30間で情報をやり取りする場合には、入力部(I/F部)150は、有線又は無線の少なくとも一方を含むネットワークを介して通信を行う通信部であってもよい。
Furthermore, the input unit (I / F unit) 150 is an interface for receiving input from the operator to the
また、図1に示すように、ロボット30は、制御部310と、第1のアーム320と、第2のアーム330と、第1のエンドエフェクター340と、第2のエンドエフェクター350と、を含む。さらに、図2(A)及び図2(B)に示すように、ロボット30では、第1のアーム320のエンドポイントには第1のエンドエフェクター340が、第2のアーム330のエンドポイントには第2のエンドエフェクター350が設けられる。なお、ロボット30は、図1、図2(A)及び図2(B)の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
As shown in FIG. 1, the
次に、ロボット30の各部で行われる処理について説明する。
Next, processing performed in each part of the
制御部310は、ロボット制御部130からの情報に基づいて、ロボット30の各部(第1のアーム320、第2のアーム330、第1のエンドエフェクター340及び第2のエンドエフェクター350等)の制御を行う。
The
本実施形態のロボット30は双腕のロボットであり、ロボット30には、第1のアーム320と、第1のアーム320とは異なる第2のアーム330が設けられている。ここで、アームとは、ロボット30のパーツであって、一つ以上の関節を含む可動パーツのことをいう。
The
また、エンドエフェクターは、アームのエンドポイントに設けられる把持部又はツールのことをいう。 The end effector refers to a gripping part or tool provided at the end point of the arm.
そして、把持部とは、ワークを把持したり、持ち上げたり、吊り上げたり、吸着させたりするために用いる部品のことをいう。把持部は、ハンドであってもよいし、フックであってもよいし、吸盤等であってもよい。なお、1本のアームに対して、複数のハンドを設けても良い。 The gripping part is a part used for gripping, lifting, lifting, or attracting a workpiece. The gripping part may be a hand, a hook, a suction cup or the like. A plurality of hands may be provided for one arm.
また、ツールとは、ワークや作業対象に対して加工等の作業を行うための道具であって、例えばドリルやドライバーなどの工具を指す。なお、ツールは、ハンドにより把持されるものであってもよいし、アームのエンドポイントに直接設けられるものであってもよい。ここで、アームのエンドポイントとは、アームの先端部分のポイントであって、ロボット30のハンド以外の他の部分と接続されていない部分のことをいう。
The tool is a tool for performing work such as machining on a workpiece or work target, and refers to a tool such as a drill or a driver, for example. The tool may be gripped by a hand or may be provided directly at the end point of the arm. Here, the end point of the arm refers to a point at the tip of the arm and a portion that is not connected to other parts other than the hand of the
さらに、撮像部40は、ロボット30の作業現場等を撮像し、制御部310とI/F部150を介して処理部120に撮像画像を出力する。例えば撮像部40は、可視カメラであってもよいし、赤外線カメラであってもよい。さらに、例えば可視カメラは、撮像素子としてCCDやCMOSを用いるカメラであっても良く、また、白黒カメラであっても、カラーカメラであっても良い。白黒カメラを使う場合には、撮像画像として濃淡画像が撮像され、カラーカメラを使う場合には、撮像画像として色画像が撮像される。なお、可視カメラ及び赤外線カメラは、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、撮像部40は撮像画像そのものを出力するが、これに限定されるものではない。例えば、処理部120において行う画像処理の一部を、撮像部40が行っても良い。その場合、撮像画像に対して、画像処理が施された後の撮像情報が処理部120に出力されることになる。
Further, the
次に、ロボット制御システム10とロボット30の一例を図2(A)及び図2(B)に示す。例えば図2(A)のロボット30では、ロボット本体30(ロボット)とロボット制御システム10とが一体に構成されている。しかし、本実施形態のロボット制御システム10及びロボット30は図2(A)の構成に限定されず、図2(B)のようにロボット本体30とロボット制御システム10とが別体に構成されていてもよい。具体的には図2(A)に示したように、ロボット30は、ロボット本体(第1のアーム320、第2のアーム330、第1のエンドエフェクター340及びエンドエフェクター350を有する)及びロボット本体を支えるベースユニット部を有し、当該ベースユニット部にロボット制御システム10が格納されるものであってもよい。図2(A)のロボット30には、ベースユニット部に車輪等が設けられ、ロボット30全体が移動可能な構成となっていてもよい。なお、図2(A)のロボット30は双腕型の例であるが、ロボット30は単腕型や多腕型のロボットであってもよい。なお、ロボット30は、人手により移動させられるものであってもよいし、車輪を駆動するモーターを設け、当該モーターをロボット制御システム10により制御することにより、移動させられるものであってもよい。また、ロボット制御システム10は、図2(A)のようにロボット30の下に設けられたベースユニット部に設けられるとは限られない。
Next, an example of the
3.ビジュアルサーボの概要
本実施形態の処理の詳細を説明する前に、ビジュアルサーボの概要と、位置ベースビジュアルサーボの流れ、特徴ベースビジュアルサーボの流れについて説明する。
3. Overview of Visual Servo Before describing the details of the processing of this embodiment, an overview of visual servo, the flow of position-based visual servo, and the flow of feature-based visual servo will be described.
ビジュアルサーボとは、目標物の位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによって目標物を追跡するサーボ系の一種である。ビジュアルサーボは、サーボ系への入力情報(制御量)によって、位置ベースビジュアルサーボと特徴ベースビジュアルサーボの二つに大別される。位置ベースビジュアルサーボは、物体の位置情報や姿勢情報がサーボ系への入力情報となり、特徴ベースビジュアルサーボは、画像の特徴量がサーボ系への入力情報となる。他にも、位置ベースと特徴ベースをハイブリッドした手法もある。本実施形態で扱うビジュアルサーボは、これら全ての手法を対象とする。 The visual servo is a kind of servo system that tracks a target by measuring a change in the position of the target as visual information and using it as feedback information. Visual servo is roughly classified into position-based visual servo and feature-based visual servo according to input information (control amount) to the servo system. In the position-based visual servo, the position information and posture information of the object are input information to the servo system, and in the feature-based visual servo, the feature amount of the image is input information to the servo system. In addition, there is a method in which the position base and the feature base are hybridized. The visual servo handled in the present embodiment targets all these methods.
これらのビジュアルサーボは、参照画像と撮像画像を元にサーボ系への入力情報を求める点で共通している。 These visual servos are common in that the input information to the servo system is obtained based on the reference image and the captured image.
3.1 位置ベースビジュアルサーボの流れ
まず、図3のフローチャートにおいて、位置ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボでは、まず参照画像を設定する(S1)。ここで、参照画像とは、目標画像やゴール画像とも呼ばれ、ビジュアルサーボの制御目標となる画像であり、ロボット30の目標状態を表す画像をいう。すなわち、参照画像とは、ロボット30の目標位置や目標姿勢を表す画像、もしくはロボット30が目標位置に位置する状態を表す画像である。また、参照画像はあらかじめ用意しておき、参照画像記憶部110に記憶しておく必要がある。
3.1 Flow of Position-Based Visual Servo First, the flow of position-based visual servo is shown in the flowchart of FIG. In the position-based visual servo, first, a reference image is set (S1). Here, the reference image is also called a target image or a goal image, and is an image serving as a visual servo control target, which is an image representing the target state of the
次に、撮像部40によって作業スペースを撮像し、撮像画像を取得する(S2)。撮像画像とは、撮像部40によって撮像された画像である。撮像画像は、作業スペースの現在の状態を表しており、撮像画像内にロボット30やワークが映りこんでいる場合には、ロボット30やワークの現在の状態を表している。なお、撮像部40の性能によっては処理遅延が生じるが、ここでは、処理遅延が生じている場合でも、撮像画像には現在の状態が映されているものとして扱う。
Next, a work space is imaged by the
例えば、図4(A)に参照画像RIMの具体例を、図4(B)に撮像画像PIMの具体例を示す。撮像画像PIMにおいて、ロボットRBはアームAMとハンドHD(もしくはエンドポイントEP)を上方へ向けているが、参照画像RIMでは、ロボットRBはアームAMを折り曲げて、ハンドHDをワークWKに近づけている。したがって、この具体例においては、ロボットRBのアームAMを折り曲げ、ハンドHDをワークWKに近づけるようにロボットRBを制御することになる。 For example, FIG. 4A shows a specific example of the reference image RIM, and FIG. 4B shows a specific example of the captured image PIM. In the captured image PIM, the robot RB points the arm AM and the hand HD (or end point EP) upward, but in the reference image RIM, the robot RB bends the arm AM and brings the hand HD closer to the work WK. . Therefore, in this specific example, the robot RB is controlled so that the arm AM of the robot RB is bent and the hand HD is brought close to the work WK.
次に、制御指令を生成する(S3)。例えば、制御指令生成は、参照画像と撮像画像に基づいて、座標変換の一つであるホモグラフィー等を用いることにより行われる。この場合には、ホモグラフィー行列を求め、ホモグラフィー行列からロボット30の制御信号として速度指令を生成する。
Next, a control command is generated (S3). For example, the control command generation is performed by using homography, which is one of coordinate transformations, based on the reference image and the captured image. In this case, a homography matrix is obtained, and a speed command is generated as a control signal for the
ここで、制御信号(制御指令)とは、ロボット30を制御するための情報を含む信号のことをいう。例えば、制御信号としては速度指令などがある。また、速度指令とは、ロボット30の各部を制御するための情報として、ロボット30のアームのエンドポイント等の移動速度や回転速度を与える指令の方法を指す。
Here, the control signal (control command) refers to a signal including information for controlling the
そして、生成された制御信号に基づいて、制御量(ここではロボット30の位置や姿勢)が目標値に収束したか否かを判断する(S4)。例えば、ホモグラフィーを用いる場合において、速度指令により表される速度ベクトルが0である場合には、制御量である位置や姿勢が目標状態に到達したとみなすことができるため、制御量が目標値に収束したと判断し、速度ベクトルが0でない場合には、制御量が目標値に収束していないと判断する。ここで、収束とは、目標値に限りなく近づくこと、又は目標値に到達することを意味する。 Then, based on the generated control signal, it is determined whether or not the control amount (here, the position and posture of the robot 30) has converged to the target value (S4). For example, in the case of using homography, when the velocity vector represented by the velocity command is 0, it can be considered that the position or orientation that is the controlled variable has reached the target state. If the velocity vector is not 0, it is determined that the control amount has not converged to the target value. Here, convergence means approaching the target value as much as possible, or reaching the target value.
制御量が目標値に収束したと判断する場合にはビジュアルサーボを終了する。一方、制御量が目標値に収束していないと判断する場合には、処理部120はロボット制御部130に制御指令を送出する(S5)。
When it is determined that the control amount has converged to the target value, the visual servo is terminated. On the other hand, when determining that the control amount has not converged to the target value, the
位置ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。 In the position-based visual servo, the above processing is repeated until the control amount converges to the target value.
3.2 特徴ベースビジュアルサーボの流れ
次に、図5のフローチャートにおいて、特徴ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボと同様に、まず参照画像を設定し(S10)、次に、撮像部40によって作業スペースを撮像し、撮像画像を取得する(S11)。なお、特徴ベースビジュアルサーボを用いる場合には、参照画像を設定する際に参照画像の特徴抽出を行い、特徴量を算出しておくことが望ましい。または、参照画像の特徴を抽出した参照画像情報を参照画像記憶部110に記憶しておいてもよい。画像の特徴抽出については、例えば、コーナー検出やガウスフィルタ等を用いて行なう。
3.2 Flow of Feature-Based Visual Servo Next, the flow of feature-based visual servo is shown in the flowchart of FIG. Similar to the position-based visual servo, a reference image is first set (S10), and then the work space is imaged by the
次に、撮像画像の特徴を抽出する(S12)。なお、参照画像の特徴抽出は、参照画像設定の際に行っておくことが望ましいが、本ステップで行ってもよい。特徴抽出では、ビジュアルサーボ系への入力情報(制御量)として、画像の特徴量を求める。 Next, the feature of the captured image is extracted (S12). Note that the feature extraction of the reference image is preferably performed at the time of setting the reference image, but may be performed in this step. In the feature extraction, an image feature amount is obtained as input information (control amount) to the visual servo system.
そして、画像の特徴量に基づいて、参照画像と撮像画像が一致するか否かを比較する(S13)。画像が一致すると判断する場合(S14)には、ビジュアルサーボを終了する。一方、画像が一致しないと判断する場合(S14)には、制御指令を生成し(S15)、ロボット制御部130に制御指令を送出する(S16)。 Then, based on the feature amount of the image, it is compared whether or not the reference image matches the captured image (S13). If it is determined that the images match (S14), the visual servo is terminated. On the other hand, if it is determined that the images do not match (S14), a control command is generated (S15), and the control command is sent to the robot controller 130 (S16).
特徴ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。 In the feature-based visual servo, the above processing is repeated until the control amount converges to the target value.
4.処理の詳細
以上の本実施形態のロボット制御システム10は、ロボット30の目標状態を表す画像である参照画像を記憶する参照画像記憶部110と、ロボット30の制御信号を出力する処理部120と、制御信号に基づいて、ロボット30を制御するロボット制御部130と、を含む。そして、参照画像記憶部110は、対象物の反射画像を含む参照画像を記憶する。さらに、処理部120は、対象物を映す反射鏡が撮像部40の撮像範囲内に入る撮像画像と、参照画像とに基づいて、ビジュアルサーボを行う。
4). Details of Processing The
本実施形態では、処理部120が、対象物の反射画像を含む参照画像を参照画像記憶部110から取得する。
In the present embodiment, the
ここで、反射画像とは、対象物が反射鏡に映っているように見える画像のことをいう。具体的に反射画像は、実際に対象物が映っている反射鏡を撮像して得られる画像であってもよい。また、反射画像は、反射鏡が設置されている位置から対象物を撮像し、撮像した画像に対して傾き補正などの画像処理を行って得られた画像であってもよい。さらに、反射画像は、CG(Computer Graphics)等により生成された画像であってもよい。 Here, the reflection image refers to an image in which an object appears to be reflected on a reflecting mirror. Specifically, the reflected image may be an image obtained by imaging a reflecting mirror that actually shows the object. The reflected image may be an image obtained by capturing an object from a position where a reflecting mirror is installed and performing image processing such as tilt correction on the captured image. Further, the reflection image may be an image generated by CG (Computer Graphics) or the like.
これに対して、対象物を映す反射鏡が撮像部40の撮像範囲内に入る撮像画像を、撮像部40が撮像し、処理部120が撮像画像を取得する。そして、処理部120は、取得した撮像画像と参照画像とに基づいて、ビジュアルサーボを行う。
In contrast, the
ここで、撮像範囲とは、撮像部により撮像される実空間の領域のことをいう。具体的には、後述する図6(A)の領域PAなどのことを指す。 Here, the imaging range refers to an area in real space that is imaged by the imaging unit. Specifically, it refers to a region PA in FIG.
このように、参照画像と撮像画像には、少なくとも2方向から見た対象物が映っている。よって、一つの撮像部が撮像した撮像画像と、これに対応する参照画像とに基づいて、複数の方向からの位置合わせをすることが可能となる。 In this way, the reference image and the captured image show the object viewed from at least two directions. Therefore, it is possible to perform alignment from a plurality of directions based on a captured image captured by one imaging unit and a reference image corresponding to the captured image.
また、撮像部と比較して、反射鏡は薄く、配線も不要であるため、より狭い場所(面積)で、かつ自由な場所に設置することが可能である。よって、撮像部の設置場所の問題を解決することができる。また、撮像部を複数設けた時に比べて、処理の複雑さを緩和し、処理速度も向上させることもできる。 In addition, since the reflecting mirror is thinner than the imaging unit and wiring is not required, it can be installed in a narrower place (area) and in a free place. Therefore, the problem of the installation location of the imaging unit can be solved. In addition, the processing complexity can be reduced and the processing speed can be improved as compared with the case where a plurality of imaging units are provided.
さらに、複数の方向からの対象物の様子をタイミングのずれなく撮像することも可能となる。 Furthermore, it is possible to image the state of the object from a plurality of directions without a timing shift.
また、参照画像記憶部110は、対象物が映り、対象物の反射画像を含む参照画像を記憶してもよい。そして、処理部120は、反射鏡及び対象物が撮像範囲内に入る撮像画像と、参照画像とに基づいて、ビジュアルサーボを行ってもよい。
Further, the reference
すなわち、この場合、参照画像と撮像画像には、対象物の撮像部と向き合っている面と、対象物の反射鏡と向き合っている面の2つの面が映っている。なお、参照画像には、前述したように、対象物を映す反射鏡が映っていても良いし、CG等により生成された反射画像が、参照画像内の反射鏡に対応する位置に埋め込まれていても良い。 That is, in this case, the reference image and the captured image show two surfaces, a surface facing the imaging unit of the object and a surface facing the reflector of the object. Note that, as described above, the reference image may include a reflecting mirror that reflects the object, and the reflecting image generated by CG or the like is embedded at a position corresponding to the reflecting mirror in the reference image. May be.
これにより、一度のビジュアルサーボを行うだけで、撮像部40から対象物への方向と、反射鏡から対象物への方向の2つの方向から、位置合わせをすること等が可能になる。
Thereby, it is possible to perform alignment and the like from two directions, ie, the direction from the
また、参照画像記憶部110は、対象物の反射画像を2つ以上含む参照画像を記憶してもよい。そして、処理部120は、2つ以上の反射鏡が撮像部40の撮像範囲内に入る撮像画像と、参照画像とに基づいて、ビジュアルサーボを行ってもよい。
Further, the reference
具体例を図6(A)及び図6(B)に示す。本例では、図6(A)に示すように、撮像部CMから見て対象物OBの後方に、二枚の反射鏡(ML1及びML2)を配置する。そして、対象物OBと第1の反射鏡ML1と第2の反射鏡ML2とが入るように、撮像部CMの撮像範囲PAを設定し、作業エリアを撮像する。 Specific examples are shown in FIGS. 6A and 6B. In this example, as shown in FIG. 6A, two reflecting mirrors (ML1 and ML2) are arranged behind the object OB when viewed from the imaging unit CM. Then, the imaging range PA of the imaging unit CM is set so that the object OB, the first reflecting mirror ML1, and the second reflecting mirror ML2 enter, and the work area is imaged.
すると、図6(B)に示すような撮像画像PIMが得られる。撮像画像PIMでは、撮像部CMから見た対象物OBと、第1の反射鏡ML1に映った対象物OBと、第2の反射鏡ML2に映った対象物OBの様子が1枚の画像内で確認することができる。本例では、この撮像画像と、これに対応する参照画像とに基づいて、ビジュアルサーボを行う。 Then, a captured image PIM as shown in FIG. 6B is obtained. In the captured image PIM, the state of the object OB viewed from the imaging unit CM, the object OB reflected on the first reflecting mirror ML1, and the object OB reflected on the second reflecting mirror ML2 is within one image. Can be confirmed. In this example, visual servoing is performed based on this captured image and the corresponding reference image.
これにより、一度のビジュアルサーボを行うだけで、撮像部40から対象物への方向と、第1の反射鏡から対象物への方向と、第2の反射鏡から対象物への方向の3つの方向から、位置合わせをすること等が可能になる。よって、複数の撮像部を用意しなくても、複数の方向からの位置合わせを行うこと等が可能になる。同様に、ロボットのアームにカメラを取り付けて、アームを移動させながら、複数の方向から対象物を撮像しなくても、複数方向からの位置合わせをすること等が可能になる。
Thus, with only one visual servo, the direction from the
また、反射鏡は、対象物が映っている様子を撮像部40の位置から見ることができるように配置されている必要がある。
Further, the reflecting mirror needs to be arranged so that a state in which the object is reflected can be seen from the position of the
そのため、反射鏡は、作業エリアにおいて、撮像部40と対象物とを結ぶ直線に対して垂直な直線であって、対象物を通る垂直な直線を基準として、撮像部40の位置とは逆側に設置されてもよい。
Therefore, the reflecting mirror is a straight line perpendicular to the straight line connecting the
具体的に図7を用いて説明する。図7では、反射鏡として、第1の反射鏡ML1と第2の反射鏡ML2を設置することとする。そして、撮像部CMと対象物OBとを結ぶ直線とは、直線STのことを指し、直線STに対して垂直な直線であって、対象物を通る直線とは、直線PDのことを指す。さらに、直線PDを基準として撮像部CMの位置とは逆側とは、図7の斜線で示すエリアSAのことを指し、この斜線で示すエリアSA内のいずれかの位置に反射鏡(ML1及びML2)を設置することが望ましい。 This will be specifically described with reference to FIG. In FIG. 7, the first reflecting mirror ML1 and the second reflecting mirror ML2 are installed as reflecting mirrors. The straight line connecting the imaging unit CM and the object OB indicates the straight line ST, the straight line perpendicular to the straight line ST and the straight line passing through the object indicates the straight line PD. Further, the side opposite to the position of the imaging unit CM with respect to the straight line PD refers to the area SA indicated by the oblique lines in FIG. 7, and the reflecting mirror (ML1 and ML1) is located at any position within the area SA indicated by the oblique lines. It is desirable to install ML2).
これにより、対象物が映っている様子を撮像部40の位置から見ることができるような位置に反射鏡を配置すること等が可能になる。そして、対象物が反射鏡に映った撮像画像を撮像部40が撮像すること等が可能となる。
Thereby, it is possible to arrange the reflecting mirror at a position where the appearance of the object can be seen from the position of the
また、参照画像記憶部110は、対象物の反射画像を参照画像として記憶してもよい。そして、処理部120は、撮像画像において反射鏡が映る反射鏡領域の検出処理を行い、撮像画像における反射鏡領域の画像と、参照画像とに基づいて、ビジュアルサーボを行ってもよい。
Further, the reference
例えば前述した図6(B)の例において、撮像画像PIMから、対象物が映る領域CIM1と、反射鏡が映る反射鏡領域CIM2及びCIM3を検出してもよい。そして、対象物の反射画像そのものを参照画像として、検出した各領域(CIM1〜CIM3)の画像と参照画像とに基づいて、ビジュアルサーボを行ってもよい。 For example, in the example of FIG. 6B described above, the region CIM1 in which the object is reflected and the reflector regions CIM2 and CIM3 in which the reflector is reflected may be detected from the captured image PIM. Then, the visual servo may be performed based on the detected images of the respective regions (CIM1 to CIM3) and the reference image with the reflected image of the object itself as the reference image.
この場合には、各領域の画像毎に順番にビジュアルサーボを行ってもよいし、各領域の画像毎に同時にビジュアルサーボを行ってもよい。 In this case, visual servo may be performed in order for each image in each area, or visual servo may be performed for each image in each area simultaneously.
一方で、対象物が映る領域と反射鏡領域以外の部分を考慮せずに、ビジュアルサーボを行うことができるという利点もある。そのため、画像処理やCGを用いて参照画像を生成する場合には、利便性が高い。 On the other hand, there is also an advantage that visual servoing can be performed without taking into consideration parts other than the area where the object is reflected and the reflector area. Therefore, convenience is high when a reference image is generated using image processing or CG.
これにより、対象物が映る領域と反射鏡領域以外の領域を考慮する必要がなくなるため、参照画像の生成を容易にすること等が可能になる。 This eliminates the need to consider the area other than the area where the object is reflected and the reflector area, thereby facilitating the generation of a reference image.
また、処理部120は、反射鏡領域の検出処理として、反射鏡に設けられたマーカー又は枠を検出する処理を行ってもよい。
Moreover, the
具体的には図8に示すように、対象物OBを映す反射鏡ML1及びML2の四隅にマーカーMKが付されており、このマーカーMKを検出する。 Specifically, as shown in FIG. 8, markers MK are attached to the four corners of the reflecting mirrors ML1 and ML2 that reflect the object OB, and this marker MK is detected.
これにより、反射鏡領域を容易に検出すること等が可能になる。 This makes it possible to easily detect the reflector region.
また、処理部120は、ビジュアルサーボとして、撮像画像が参照画像に一致又は近づくようにロボット30を制御する処理を行ってもよい。
Further, the
これにより、ロボット30の目標姿勢が映る参照画像を用いれば、目標姿勢と同じ又は近い姿勢をロボット30に取らせること等が可能になる。
As a result, if a reference image showing the target posture of the
また、本実施形態では、反射及び透過の制御が可能な調光ミラーデバイスを反射鏡として利用し、反射鏡を映す時にのみ、光を反射するように制御してもよい。 In the present embodiment, a dimming mirror device capable of controlling reflection and transmission may be used as a reflecting mirror, and control may be performed so that light is reflected only when the reflecting mirror is projected.
これにより、他の画像処理への悪影響を避けることが可能になる。 This makes it possible to avoid adverse effects on other image processing.
以下では、図9のフローチャートを用いて、本実施形態の処理の流れについて説明する。 Below, the flow of the process of this embodiment is demonstrated using the flowchart of FIG.
まず、撮像部が撮像画像を撮像する(S101)。そして、撮像画像において対象物が映る領域と反射鏡領域を検出し(S102)、対象物が映る領域の画像と反射鏡領域の画像を撮像画像から分離する(S103)。 First, the imaging unit captures a captured image (S101). Then, an area where the object is reflected and a reflector area are detected in the captured image (S102), and an image of the area where the object is reflected and an image of the reflector area are separated from the captured image (S103).
そして、対象物が正しく映っていない画像を除外する(S104)。なお、対象物が正しく映っていない画像とは、例えば後述する図11(B)のようにオクルージョンが発生している画像などを指す。 Then, an image in which the object is not correctly reflected is excluded (S104). Note that the image in which the object is not correctly reflected refers to an image in which occlusion occurs, for example, as illustrated in FIG.
さらに、各領域の画像と対応する参照画像を比較して、誤差を計算し(S105)、誤差が十分小さくなったか否かを判定する(S106)。なお、誤差が十分小さいか否かの判定は、例えば所与の閾値との比較により判定する。 Further, the image of each region and the corresponding reference image are compared to calculate an error (S105), and it is determined whether or not the error is sufficiently small (S106). Note that whether or not the error is sufficiently small is determined, for example, by comparison with a given threshold value.
そして、誤差が十分小さくなったと判定した場合には、処理を終了する。一方、誤差が十分小さくないと判定した場合には、ステップS101の処理に戻る。以上が本実施形態の処理の流れである。 If it is determined that the error has become sufficiently small, the process ends. On the other hand, if it is determined that the error is not sufficiently small, the process returns to step S101. The above is the processing flow of this embodiment.
5.第1の変形例
次に、第1の変形例として、撮像部の方向を機械的に変えられる三脚等を用い、作業エリア内に設置した対象物と各反射鏡を一つずつ撮像していくことで、ビジュアルサーボに利用する複数方向からの参照画像と撮像画像を取得する手法が考えられる。
5. First Modified Example Next, as a first modified example, a tripod or the like that can mechanically change the direction of the imaging unit is used, and an object placed in the work area and each reflecting mirror are imaged one by one. Thus, a method of acquiring reference images and captured images from a plurality of directions used for visual servoing can be considered.
すなわち、本実施形態のロボット制御システム10は、撮像部40の撮像方向を制御するカメラ制御部140を有してもよい。そして、処理部120は、撮像部40を対象物に向けた時に撮像される第1の撮像画像と、対象物が映る第1の参照画像とに基づく第1のビジュアルサーボと、撮像部40を反射鏡に向けた時に撮像される第2の撮像画像と、対象物の反射画像を含む第2の参照画像とに基づく第2のビジュアルサーボとを行ってもよい。
That is, the
具体例を図10(A)及び図10(B)を用いて説明する。まず、図10(A)に示すように、対象物OBが撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、第1の撮像画像を得る。そして、第1の撮像画像に対応するように生成(又は撮像)された第1の参照画像と、第1の撮像画像とに基づいて第1のビジュアルサーボを行う。 A specific example will be described with reference to FIGS. First, as shown in FIG. 10A, the imaging unit CM images the work area so that the object OB falls within the imaging range PA, and obtains a first captured image. Then, first visual servoing is performed based on the first reference image generated (or imaged) so as to correspond to the first captured image and the first captured image.
一方、図10(B)に示すように、反射鏡ML2が撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、第2の撮像画像を得る。そして、第2の撮像画像に対応するように生成(又は撮像)された第2の参照画像と、第2の撮像画像とに基づいて第2のビジュアルサーボを行う。 On the other hand, as shown in FIG. 10B, the imaging unit CM images the work area so that the reflecting mirror ML2 falls within the imaging range PA, and obtains a second captured image. Then, second visual servoing is performed based on the second reference image generated (or imaged) so as to correspond to the second captured image and the second captured image.
なお、第1のビジュアルサーボと第2のビジュアルサーボは、後述する例のように連続して行ってもよいし、どちらか一方のみを行ってもよい。 The first visual servo and the second visual servo may be performed continuously as in an example described later, or only one of them may be performed.
前述した例のように、撮像部40の撮像方向が固定である場合には、撮像部40の撮像範囲内に反射鏡を設置しなければならなかった。それに対して、本例では、反射鏡をより自由な位置に設置できるため、より適切な参照画像を利用すること等が可能になる。
As in the example described above, when the imaging direction of the
また、処理部120は、撮像部40を第2の反射鏡に向けた時に撮像される第3の撮像画像と、対象物の第2の反射画像を含む第3の参照画像とに基づく第3のビジュアルサーボを行ってもよい。
In addition, the
つまり、前述した図10(A)及び図10(B)の例で説明すると、反射鏡ML1が撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、第3の撮像画像を得る。そして、第3の撮像画像に対応するように生成(又は撮像)された第3の参照画像と、第3の撮像画像とに基づいて第3のビジュアルサーボを行う。 That is, in the example of FIGS. 10A and 10B described above, the imaging unit CM images the work area so that the reflecting mirror ML1 is within the imaging range PA, and the third captured image is captured. Get. Then, the third visual servo is performed based on the third reference image generated (or imaged) so as to correspond to the third captured image and the third captured image.
また、図11(A)に示すように、対象物OBと撮像部CMの間に障害物HUがある場合などには、図11(B)に示すような撮像画像PIMが撮像される。このような、撮像画像では、適切にビジュアルサーボを行うことができない。しかし、本例のように、対象物を正面から撮像した撮像画像と、反射鏡を撮像した2枚の撮像画像がある場合には、取得した撮像画像のうち、適切にビジュアルサーボを行うことができると判断できる撮像画像のみを用いてビジュアルサーボを行うことができる。 Further, as shown in FIG. 11A, when there is an obstacle HU between the object OB and the imaging unit CM, a captured image PIM as shown in FIG. 11B is captured. With such a captured image, visual servoing cannot be performed appropriately. However, as in this example, when there are a captured image obtained by imaging the object from the front and two captured images obtained by imaging the reflector, visual servoing can be appropriately performed among the obtained captured images. Visual servo can be performed using only captured images that can be determined to be possible.
これにより、例えば正しく対象物が写っている画像のみを利用してビジュアルサーボを実施すること等が可能になる。その結果、撮像画像において対象物にオクルージョンが発生している場合でも、適切にビジュアルサーボを実施すること等が可能になる。 Thus, for example, visual servoing can be performed by using only an image in which an object is correctly reflected. As a result, even when occlusion occurs in the target object in the captured image, it is possible to appropriately perform visual servoing and the like.
以下では、図12のフローチャートと、図10(A)及び図10(B)を用いて、第1の変形例の処理の流れについて説明する。 Hereinafter, the flow of processing of the first modification will be described with reference to the flowchart of FIG. 12 and FIGS. 10 (A) and 10 (B).
まず、図10(A)のように、対象物が撮像範囲に入った状態で、撮像部40が作業エリアを撮像し(S201)、処理部120が、取得された撮像画像の特徴量を抽出する(S202)。
First, as shown in FIG. 10A, the
次に、カメラ制御部140が、撮像部40の撮像方向を変更する(S203)。例えば、図10(B)に示すように、反射鏡ML2が撮像範囲に入るように撮像部40の向きを変える。
Next, the
そして、撮像部40が撮像を行い(S204)、処理部120が、取得した撮像画像において反射鏡領域を検出して(S205)、検出した反射鏡領域の画像の特徴量を抽出する(S206)。
Then, the
さらに、処理部120は、ビジュアルサーボを行うにあたり、必要十分な反射鏡領域の画像の特徴量が抽出されているか否かを判定する(S207)。
Furthermore, the
そして、必要十分な反射鏡領域の画像の特徴量が抽出されていないと判定した場合には、ステップS203に戻り、例えばカメラ制御部140が、反射鏡ML1が撮像範囲に入るように撮像部40の向きを変えて、撮像部40が撮像を行い(S204)、処理部120が、撮像された撮像画像の反射鏡領域の画像の特徴量を抽出する(S205、S206)。
Then, when it is determined that the necessary and sufficient image feature amount of the reflector region has not been extracted, the process returns to step S203, and for example, the
一方で、ステップS207において、必要十分な反射鏡領域の画像の特徴量が抽出されていると判定した場合には、処理部120は、抽出した特徴量と、あらかじめ算出しておいた参照画像の特徴量とを比較して、2つの特徴量の差を算出し(S208)、2つの特徴量の差が十分小さいか否かを判定する(S209)。そして、2つの特徴量の差が十分小さいと判定した場合には、処理を終了する。
On the other hand, if it is determined in step S207 that the necessary and sufficient feature value of the reflector region image has been extracted, the
一方で、2つの特徴量の差が大きいと判定した場合には、2つの特徴量の差に基づいて、ロボット30のアームの移動方向を決定し(S210)、ロボット制御部130がロボット30のアームを移動させる(S211)。そして、ステップS201の処理に戻り、以降の処理を繰り返す。以上が第1の変形例の処理の流れである。
On the other hand, if it is determined that the difference between the two feature amounts is large, the movement direction of the arm of the
6.第2の変形例
次に、第2の変形例では、反射鏡は、ロボット30のアームに取り付けられてもよい。
6). Second Modification Example Next, in a second modification example, the reflecting mirror may be attached to the arm of the
すなわち、ロボット30は、第1のアーム320と第2のアーム330を有していてもよい。そして、反射鏡は、第1のアーム320に取り付けられてもよい。さらに、処理部120は、第1のアーム320に取り付けられた反射鏡が撮像部40の撮像範囲内に入る撮像画像と、参照画像とに基づいて、第2のアーム330を動かすビジュアルサーボを行ってもよい。
That is, the
具体的には図13に示すように、第1のアームAM1に取り付けられた反射鏡MLが撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、撮像画像を得る。そして、撮像画像に対応するように生成(又は撮像)された参照画像と、撮像画像とに基づいて、第2のアームAM2を動かすためのビジュアルサーボを行う。 Specifically, as illustrated in FIG. 13, the imaging unit CM images the work area so that the reflecting mirror ML attached to the first arm AM1 falls within the imaging range PA, and obtains a captured image. Then, visual servo for moving the second arm AM2 is performed based on the reference image generated (or imaged) so as to correspond to the captured image and the captured image.
このように、ロボット30のアームを移動させることにより、反射鏡の位置を変えること等が可能になる。これにより、ビジュアルサーボ中にオクルージョンが発生した場合などにも、柔軟にビジュアルサーボを実施すること等が可能になる。
Thus, by moving the arm of the
また、反射鏡は平面鏡に限らず、例えば凹面鏡であってもよい。 The reflecting mirror is not limited to a plane mirror, and may be a concave mirror, for example.
これにより、1枚の反射鏡だけで複数の角度から対象物を撮像することが可能となり、ビジュアルサーボ中にオクルージョンが発生した場合などにも、柔軟にビジュアルサーボを実施すること等が可能になる。 This makes it possible to pick up an image of an object from a plurality of angles with only one reflector, and even when occlusion occurs during visual servoing, it is possible to flexibly implement visual servoing, etc. .
また、反射鏡が複数あって、1つの反射鏡に別の反射鏡が映りこんでいる場合には、映りこんでいる反射鏡をマスクしてもよい。 Further, when there are a plurality of reflecting mirrors and another reflecting mirror is reflected in one reflecting mirror, the reflecting mirror reflected may be masked.
例えば、処理部120は、対象物を映す第1の反射鏡が撮像範囲内に入る撮像画像に含まれる反射画像において、第2の反射鏡のマーカー又は枠が映る領域を検出し、検出結果に基づいて、第2の反射鏡が映る領域をマスクしてもよい。
For example, the
これにより、不要な反射鏡の映りこみにより、ビジュアルサーボが収束しなくなることを抑制すること等が可能になる。なお、マスクにより不要な反射鏡が映る領域を完全に消しても良いし、ぼかすだけでもよい。また、反射鏡が映る領域の検出を、反射鏡に設けられたマーカーや枠を利用しても良い。これにより、不要な反射鏡の検出を簡易にすること等が可能になる。 As a result, it is possible to prevent the visual servo from converging due to unnecessary reflection of the reflecting mirror. Note that an area where an unnecessary reflecting mirror is reflected by the mask may be completely erased or only blurred. In addition, a marker or a frame provided on the reflecting mirror may be used to detect the area where the reflecting mirror is reflected. Thereby, it becomes possible to simplify the detection of unnecessary reflecting mirrors.
以下では、図14のフローチャートを用いて、第2の変形例の処理の流れについて説明する。なお、ステップS301〜ステップS306は、図12のステップS201〜ステップS206に対応し、ステップS310〜ステップS313は、図12のステップS208〜ステップS211に対応するため、説明を省略する。 Hereinafter, the processing flow of the second modification will be described with reference to the flowchart of FIG. Steps S301 to S306 correspond to steps S201 to S206 in FIG. 12, and steps S310 to S313 correspond to steps S208 to S211 in FIG.
ステップS307において、必要十分な反射鏡領域の画像の特徴量が抽出されていると判定した場合には、図12の場合と同様に、ステップS310以降の処理を行う。 If it is determined in step S307 that the necessary and sufficient reflector region image feature amount has been extracted, the processing from step S310 is performed as in the case of FIG.
一方で、ステップS307において、必要十分な反射鏡領域の画像の特徴量が抽出されていないと判定した場合には、反射鏡がロボット30のアームに設置されており、かつアームの移動回数が既定の回数以下であるか否かを判定する(S308)。
On the other hand, in step S307, when it is determined that the necessary and sufficient image feature amount of the reflector region has not been extracted, the reflector is installed on the arm of the
反射鏡がロボット30のアームに設置されていない、又はアームの移動回数が既定の回数よりも多いと判定した場合には、ステップS303の処理に戻る。
If it is determined that the reflecting mirror is not installed on the arm of the
一方で、反射鏡がロボット30のアームに設置されており、かつアームの移動回数が既定の回数以下であると判定した場合には、反射鏡が取り付けられているアームを動かして、反射鏡の位置を変更する(S309)。そして、ステップS304の処理に戻る。以上が第2の変形例の処理の流れである。
On the other hand, if it is determined that the reflecting mirror is installed on the arm of the
なお、本実施形態のロボット制御システム10及びロボット30等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態のロボット制御システム10及びロボット30等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
Note that the
以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、ロボット制御システム及びロボットの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the robot control system and the robot are not limited to those described in this embodiment, and various modifications can be made.
10 ロボット制御システム、30 ロボット、40 撮像部、
110 参照画像記憶部、120 処理部、130 ロボット制御部、
140 カメラ制御部、150 I/F部(入力部)、310 制御部、
320 第1のアーム、330 第2のアーム、340 第1のエンドエフェクター、
350 第2のエンドエフェクター
10 robot control system, 30 robot, 40 imaging unit,
110 reference image storage unit, 120 processing unit, 130 robot control unit,
140 camera control unit, 150 I / F unit (input unit), 310 control unit,
320 first arm, 330 second arm, 340 first end effector,
350 Second end effector
Claims (16)
前記ロボットの制御信号を出力する処理部と、
前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、
を含み、
前記参照画像記憶部は、
対象物の反射画像を含む前記参照画像を記憶し、
前記処理部は、
前記対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像と、前記参照画像とに基づいて、ビジュアルサーボを行うことを特徴とするロボット制御システム。 A reference image storage unit that stores a reference image that is an image representing the target state of the robot;
A processing unit for outputting a control signal of the robot;
A robot control unit for controlling the robot based on the control signal;
Including
The reference image storage unit
Storing the reference image including a reflection image of the object;
The processor is
A robot control system, wherein visual servoing is performed based on a captured image in which a reflecting mirror that reflects the object falls within an imaging range of an imaging unit and the reference image.
前記参照画像記憶部は、
前記対象物が映り、前記対象物の前記反射画像を含む前記参照画像を記憶し、
前記処理部は、
前記反射鏡及び前記対象物が前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行うことを特徴とするロボット制御システム。 In claim 1,
The reference image storage unit
The object is reflected, the reference image including the reflected image of the object is stored,
The processor is
The robot control system, wherein the visual servoing is performed based on the captured image in which the reflecting mirror and the target object fall within the imaging range and the reference image.
前記参照画像記憶部は、
前記対象物の前記反射画像を2つ以上含む前記参照画像を記憶し、
前記処理部は、
2つ以上の前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行うことを特徴とするロボット制御システム。 In claim 1 or 2,
The reference image storage unit
Storing the reference image including two or more reflection images of the object;
The processor is
2. The robot control system according to claim 1, wherein the visual servoing is performed based on the captured image in which two or more of the reflecting mirrors fall within the imaging range of the imaging unit and the reference image.
前記撮像部の撮像方向を制御するカメラ制御部を有し、
前記処理部は、
前記撮像部を前記対象物に向けた時に撮像される第1の撮像画像と、前記対象物が映る第1の参照画像とに基づく第1のビジュアルサーボと、
前記撮像部を前記反射鏡に向けた時に撮像される第2の撮像画像と、前記対象物の前記反射画像を含む第2の参照画像とに基づく第2のビジュアルサーボとを行うことを特徴とするロボット制御システム。 In claim 1,
A camera control unit that controls an imaging direction of the imaging unit;
The processor is
A first visual servo based on a first captured image captured when the imaging unit is directed toward the object, and a first reference image in which the object is reflected;
Performing a second visual servo based on a second captured image captured when the imaging unit is directed toward the reflecting mirror and a second reference image including the reflected image of the object. Robot control system.
前記処理部は、
前記撮像部を第2の反射鏡に向けた時に撮像される第3の撮像画像と、前記対象物の第2の反射画像を含む第3の参照画像とに基づく第3のビジュアルサーボを行うことを特徴とするロボット制御システム。 In claim 4,
The processor is
Performing a third visual servo based on a third captured image captured when the imaging unit is directed to a second reflecting mirror and a third reference image including a second reflected image of the object. Robot control system characterized by
前記反射鏡は、
作業エリアにおいて、前記撮像部と前記対象物とを結ぶ直線に対して垂直な直線であって、前記対象物を通る前記垂直な直線を基準として、前記撮像部の位置とは逆側に設置されることを特徴とするロボット制御システム。 In any one of Claims 1 thru | or 5,
The reflector is
In the work area, the straight line is perpendicular to the straight line connecting the imaging unit and the object, and is set on the opposite side of the position of the imaging unit with respect to the vertical straight line passing through the object. A robot control system characterized by that.
前記反射鏡は、
前記ロボットの前記アームに取り付けられていることを特徴とするロボット制御システム。 In any one of Claims 1 thru | or 6.
The reflector is
A robot control system, wherein the robot control system is attached to the arm of the robot.
前記ロボットは、
第1のアームと第2のアームを有し、
前記反射鏡は、
前記第1のアームに取り付けられ、
前記処理部は、
前記第1のアームに取り付けられた前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記第2のアームを動かす前記ビジュアルサーボを行うことを特徴とするロボット制御システム。 In any one of Claims 1 thru | or 6.
The robot is
Having a first arm and a second arm;
The reflector is
Attached to the first arm;
The processor is
Performing the visual servo for moving the second arm based on the captured image in which the reflecting mirror attached to the first arm falls within the imaging range of the imaging unit and the reference image; Characteristic robot control system.
前記参照画像記憶部は、
前記対象物の前記反射画像を前記参照画像として記憶し、
前記処理部は、
前記撮像画像において前記反射鏡が映る反射鏡領域の検出処理を行い、前記撮像画像における前記反射鏡領域の画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行うことを特徴とするロボット制御システム。 In any one of Claims 1 thru | or 8.
The reference image storage unit
Storing the reflected image of the object as the reference image;
The processor is
Robot control characterized by performing a detection process of a reflecting mirror area in which the reflecting mirror is reflected in the captured image, and performing the visual servo based on the image of the reflecting mirror area in the captured image and the reference image. system.
前記処理部は、
前記反射鏡領域の前記検出処理として、前記反射鏡に設けられたマーカー又は枠を検出する処理を行うことを特徴とするロボット制御システム。 In claim 9,
The processor is
The robot control system characterized by performing the process which detects the marker or frame provided in the said reflective mirror as the said detection process of the said reflective mirror area | region.
前記処理部は、
前記ビジュアルサーボとして、前記撮像画像が前記参照画像に一致又は近づくように前記ロボットを制御する処理を行うことを特徴とするロボット制御システム。 In any one of Claims 1 thru | or 10.
The processor is
As the visual servo, a process for controlling the robot so that the captured image matches or approaches the reference image is performed.
前記処理部は、
前記対象物を映す第1の反射鏡が前記撮像範囲内に入る撮像画像に含まれる前記反射画像において、第2の反射鏡のマーカー又は枠が映る領域を検出し、検出結果に基づいて、第2の反射鏡が映る領域をマスクすることを特徴とするロボット制御システム。 In any one of Claims 1 thru | or 11,
The processor is
In the reflected image included in the captured image in which the first reflecting mirror that reflects the object falls within the imaging range, a region where the marker or frame of the second reflecting mirror is reflected is detected, and based on the detection result, A robot control system characterized by masking an area where two reflecting mirrors are reflected.
前記撮像画像及び前記参照画像は、
反射鏡に映った対象物の鏡像を含むことを特徴とするロボット制御システム。 A robot control system that controls a robot so that a captured image captured by an imaging unit matches or approaches a reference image,
The captured image and the reference image are:
A robot control system comprising a mirror image of an object reflected on a reflecting mirror.
撮像部から得られ、前記対象物を映す反射鏡が前記撮像部の撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行い、
前記ロボットの制御信号を出力し、
前記制御信号に基づいて、前記ロボットを制御することを特徴とするロボット制御方法。 Represents the target state of the robot, stores a reference image including a reflection image of the object,
Based on the captured image obtained from the imaging unit and reflecting the mirror reflecting the object within the imaging range of the imaging unit, and the reference image, the visual servo is performed,
Outputting a control signal of the robot;
A robot control method, comprising: controlling the robot based on the control signal.
前記ロボットの制御信号を出力する処理部と、
前記制御信号に基づいて、前記ロボットを制御するロボット制御部として、
コンピューターを機能させ、
前記参照画像記憶部は、
対象物の反射画像を含む前記参照画像を記憶し、
前記処理部は、
前記対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像と、前記参照画像とに基づいて、ビジュアルサーボを行うことを特徴とするプログラム。 A reference image storage unit that stores a reference image that is an image representing the target state of the robot;
A processing unit for outputting a control signal of the robot;
As a robot controller that controls the robot based on the control signal,
Make the computer work,
The reference image storage unit
Storing the reference image including a reflection image of the object;
The processor is
A program that performs visual servoing based on a captured image in which a reflecting mirror that reflects the object falls within an imaging range of an imaging unit and the reference image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013065754A JP2014188617A (en) | 2013-03-27 | 2013-03-27 | Robot control system, robot, robot control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013065754A JP2014188617A (en) | 2013-03-27 | 2013-03-27 | Robot control system, robot, robot control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014188617A true JP2014188617A (en) | 2014-10-06 |
Family
ID=51835479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013065754A Withdrawn JP2014188617A (en) | 2013-03-27 | 2013-03-27 | Robot control system, robot, robot control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014188617A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016113836A1 (en) * | 2015-01-13 | 2016-07-21 | 株式会社日立製作所 | Manipulator control method, system, and manipulator |
JP2016190309A (en) * | 2015-03-31 | 2016-11-10 | 川田工業株式会社 | Imaging direction change device for robot |
JP2017052053A (en) * | 2015-09-10 | 2017-03-16 | 株式会社Ihiエアロスペース | Method of creating image for remote-control in unmanned vehicle, and remote control system of unmanned vehicle |
CN109493381A (en) * | 2017-09-13 | 2019-03-19 | 富士施乐株式会社 | Information processing unit, computer-readable medium and information processing method |
WO2020129706A1 (en) | 2018-12-21 | 2020-06-25 | オムロン株式会社 | Alignment device |
CN112799408A (en) * | 2021-01-15 | 2021-05-14 | 深港产学研基地(北京大学香港科技大学深圳研修院) | Floor sweeping robot and navigation control method thereof |
JP6913833B1 (en) * | 2021-01-19 | 2021-08-04 | Dmg森精機株式会社 | Work mounting system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60217094A (en) * | 1984-04-13 | 1985-10-30 | 株式会社日立製作所 | Visual device with multiple freedom-degree movable mirror hand |
JPH0477806A (en) * | 1990-07-13 | 1992-03-11 | Toyota Motor Corp | Detecting device for position error of robot |
JPH10227622A (en) * | 1997-02-14 | 1998-08-25 | Tosok Corp | Inspection method of lead and lead inspecting instrument |
JP2002037441A (en) * | 2000-07-19 | 2002-02-06 | Kawasaki Heavy Ind Ltd | Aligning method and aligning apparatus for random work |
JP2005525709A (en) * | 2002-04-19 | 2005-08-25 | アプライド マテリアルズ インコーポレイテッド | Visual system |
JP2012254518A (en) * | 2011-05-16 | 2012-12-27 | Seiko Epson Corp | Robot control system, robot system and program |
-
2013
- 2013-03-27 JP JP2013065754A patent/JP2014188617A/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60217094A (en) * | 1984-04-13 | 1985-10-30 | 株式会社日立製作所 | Visual device with multiple freedom-degree movable mirror hand |
JPH0477806A (en) * | 1990-07-13 | 1992-03-11 | Toyota Motor Corp | Detecting device for position error of robot |
JPH10227622A (en) * | 1997-02-14 | 1998-08-25 | Tosok Corp | Inspection method of lead and lead inspecting instrument |
JP2002037441A (en) * | 2000-07-19 | 2002-02-06 | Kawasaki Heavy Ind Ltd | Aligning method and aligning apparatus for random work |
JP2005525709A (en) * | 2002-04-19 | 2005-08-25 | アプライド マテリアルズ インコーポレイテッド | Visual system |
JP2012254518A (en) * | 2011-05-16 | 2012-12-27 | Seiko Epson Corp | Robot control system, robot system and program |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016113836A1 (en) * | 2015-01-13 | 2016-07-21 | 株式会社日立製作所 | Manipulator control method, system, and manipulator |
JPWO2016113836A1 (en) * | 2015-01-13 | 2017-06-22 | 株式会社日立製作所 | Manipulator control method, system, and manipulator |
JP2016190309A (en) * | 2015-03-31 | 2016-11-10 | 川田工業株式会社 | Imaging direction change device for robot |
JP2017052053A (en) * | 2015-09-10 | 2017-03-16 | 株式会社Ihiエアロスペース | Method of creating image for remote-control in unmanned vehicle, and remote control system of unmanned vehicle |
CN109493381A (en) * | 2017-09-13 | 2019-03-19 | 富士施乐株式会社 | Information processing unit, computer-readable medium and information processing method |
JP2019053426A (en) * | 2017-09-13 | 2019-04-04 | 富士ゼロックス株式会社 | Information processing device and program |
WO2020129706A1 (en) | 2018-12-21 | 2020-06-25 | オムロン株式会社 | Alignment device |
JP2020099969A (en) * | 2018-12-21 | 2020-07-02 | オムロン株式会社 | Positioning device |
KR20210082202A (en) | 2018-12-21 | 2021-07-02 | 오므론 가부시키가이샤 | positioning device |
CN113165188A (en) * | 2018-12-21 | 2021-07-23 | 欧姆龙株式会社 | Aligning device |
US11922616B2 (en) | 2018-12-21 | 2024-03-05 | Omron Corporation | Alignment device |
CN112799408A (en) * | 2021-01-15 | 2021-05-14 | 深港产学研基地(北京大学香港科技大学深圳研修院) | Floor sweeping robot and navigation control method thereof |
JP6913833B1 (en) * | 2021-01-19 | 2021-08-04 | Dmg森精機株式会社 | Work mounting system |
JP2022110731A (en) * | 2021-01-19 | 2022-07-29 | Dmg森精機株式会社 | Workpiece attachment system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014188617A (en) | Robot control system, robot, robot control method, and program | |
US10173324B2 (en) | Facilitating robot positioning | |
CN110640730B (en) | Method and system for generating three-dimensional model for robot scene | |
JP6427972B2 (en) | Robot, robot system and control device | |
JP2012254518A (en) | Robot control system, robot system and program | |
JP5949242B2 (en) | Robot system, robot, robot control apparatus, robot control method, and robot control program | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
TWI615691B (en) | Anti-collision system and anti-collision method | |
CN109794961A (en) | Robot and robot system | |
WO2018209592A1 (en) | Movement control method for robot, robot and controller | |
CN114080590A (en) | Robotic bin picking system and method using advanced scanning techniques | |
JP6390088B2 (en) | Robot control system, robot, program, and robot control method | |
JP5609760B2 (en) | Robot, robot operation method, and program | |
JP6424432B2 (en) | Control device, robot system, robot and robot control method | |
JP2006224291A (en) | Robot system | |
JP2015003348A (en) | Robot control system, control device, robot, control method for robot control system and robot control method | |
JP5561037B2 (en) | Robot and control method thereof | |
CN108711174B (en) | Approximate parallel vision positioning system for mechanical arm | |
JP2020142323A (en) | Robot control device, robot control method and robot control program | |
JP2005205519A (en) | Robot hand device | |
JPS6334093A (en) | Visual device | |
JP2007171018A (en) | Object position recognition method and device | |
JP2012236266A (en) | Robot control system, robot system, and program | |
JP2015136763A (en) | Control device, robot system, robot and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160304 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160610 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20170216 |