JP2014188617A - Robot control system, robot, robot control method, and program - Google Patents

Robot control system, robot, robot control method, and program Download PDF

Info

Publication number
JP2014188617A
JP2014188617A JP2013065754A JP2013065754A JP2014188617A JP 2014188617 A JP2014188617 A JP 2014188617A JP 2013065754 A JP2013065754 A JP 2013065754A JP 2013065754 A JP2013065754 A JP 2013065754A JP 2014188617 A JP2014188617 A JP 2014188617A
Authority
JP
Japan
Prior art keywords
robot
image
reference image
captured
reflecting mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013065754A
Other languages
Japanese (ja)
Inventor
Taro Ishige
太郎 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013065754A priority Critical patent/JP2014188617A/en
Publication of JP2014188617A publication Critical patent/JP2014188617A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot control system, a robot, a robot control method, and a program or the like which are capable of performing positioning from a plurality of directions based on a captured image captured by a single imaging unit.SOLUTION: A robot control system 10 includes: a reference image storage section 110 which stores a reference image being an image expressing a target state of a robot 30; a processing unit 120 which outputs a control signal of the robot 30; and a robot controller 130 which controls the robot 30 based on the control signal. Then, the reference image storage section 110 stores a reference image including a reflection image of an object. Further, the processing unit 120 performs visual servo based on a captured image in which a reflecting mirror reflecting the object enters an imaging range of an imaging units 40 and the reference image.

Description

本発明は、ロボット制御システム、ロボット、ロボット制御方法及びプログラム等に関係する。   The present invention relates to a robot control system, a robot, a robot control method, a program, and the like.

近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。   In recent years, industrial robots have been increasingly introduced to mechanize and automate work performed by humans at production sites. However, precise positioning is a prerequisite for positioning the robot arm and hand, which is a barrier to robot introduction.

ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。   Here, there is a visual servo as one of methods for positioning a robot arm or hand. Certain types of visual servos are useful in that they do not require precision in calibration, and are attracting attention as a technology that lowers the barrier for robot introduction.

これらのビジュアルサーボに関する発明としては特許文献1に記載される従来技術がある。   As an invention related to these visual servos, there is a conventional technique described in Patent Document 1.

特開2003−305675号公報JP 2003-305675 A

ビジュアルサーボには以下のような課題が存在する。まず、ある方向から精密に位置合わせができているように見えていても、他の方向から見ると位置合わせができていない状況が発生し得る。また、ロボットのアームの姿勢や障害物等により、撮像画像に対象物が映らなくなるオクルージョンが発生する場合もある。   The following problems exist in visual servoing. First, even if it seems that the position is precisely aligned from a certain direction, there may be a situation where the position is not aligned when viewed from the other direction. Further, there may be an occlusion in which the target object is not reflected in the captured image due to the posture of the robot arm or an obstacle.

本発明の幾つかの態様によれば、一つの撮像部が撮像した撮像画像に基づいて、複数の方向からの位置合わせをすることができるロボット制御システム、ロボット、ロボット制御方法及びプログラム等を提供することができる。   According to some aspects of the present invention, a robot control system, a robot, a robot control method, a program, and the like that can perform alignment from a plurality of directions based on a captured image captured by one imaging unit are provided. can do.

本発明の一態様は、ロボットの目標状態を表す画像である参照画像を記憶する参照画像記憶部と、前記ロボットの制御信号を出力する処理部と、前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、を含み、前記参照画像記憶部は、対象物の反射画像を含む前記参照画像を記憶し、前記処理部は、前記対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像と、前記参照画像とに基づいて、ビジュアルサーボを行うロボット制御システムに関係する。   In one embodiment of the present invention, a reference image storage unit that stores a reference image that is an image representing a target state of a robot, a processing unit that outputs a control signal of the robot, and the robot is controlled based on the control signal The reference image storage unit stores the reference image including a reflection image of the target object, and the processing unit includes a reflector that reflects the target object within an imaging range of the imaging unit. The present invention relates to a robot control system that performs visual servoing based on a captured image that enters and the reference image.

本発明の一態様では、処理部が、対象物の反射画像を含む参照画像を参照画像記憶部から取得する。一方で、対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像を、撮像部が撮像し、処理部が撮像画像を取得する。そして、処理部は、取得した撮像画像と参照画像とに基づいて、ビジュアルサーボを行う。   In one aspect of the present invention, the processing unit acquires a reference image including a reflection image of the object from the reference image storage unit. On the other hand, the imaging unit captures a captured image in which the reflecting mirror that reflects the object falls within the imaging range of the imaging unit, and the processing unit acquires the captured image. Then, the processing unit performs visual servoing based on the acquired captured image and the reference image.

よって、一つの撮像部が撮像した撮像画像と、これに対応する参照画像とに基づいて、複数の方向からの位置合わせをすることが可能となる。   Therefore, it is possible to perform alignment from a plurality of directions based on a captured image captured by one imaging unit and a reference image corresponding to the captured image.

また、本発明の一態様では、前記参照画像記憶部は、前記対象物が映り、前記対象物の前記反射画像を含む前記参照画像を記憶し、前記処理部は、前記反射鏡及び前記対象物が前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行ってもよい。   In the aspect of the invention, the reference image storage unit stores the reference image including the reflection image of the object, the processing unit including the reflection mirror and the object. The visual servo may be performed based on the captured image that falls within the imaging range and the reference image.

これにより、一度のビジュアルサーボを行うだけで、撮像部から対象物への方向と、反射鏡から対象物への方向の2つの方向から、位置合わせをすること等が可能になる。   Accordingly, it is possible to perform alignment and the like from two directions, ie, the direction from the imaging unit to the object and the direction from the reflector to the object, by performing only one visual servo.

また、本発明の一態様では、前記参照画像記憶部は、前記対象物の前記反射画像を2つ以上含む前記参照画像を記憶し、前記処理部は、2つ以上の前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行ってもよい。   In the aspect of the invention, the reference image storage unit stores the reference image including two or more reflection images of the object, and the processing unit includes two or more reflectors that capture the image. The visual servo may be performed based on the captured image that falls within the imaging range of the unit and the reference image.

これにより、一度のビジュアルサーボを行うだけで、撮像部から対象物への方向と、第1の反射鏡から対象物への方向と、第2の反射鏡から対象物への方向の3つの方向から、位置合わせをすること等が可能になる。   Thereby, only by performing one visual servo, the three directions of the direction from the imaging unit to the target, the direction from the first reflecting mirror to the target, and the direction from the second reflecting mirror to the target are provided. Therefore, it is possible to perform alignment.

また、本発明の一態様では、前記撮像部の撮像方向を制御するカメラ制御部を有し、前記処理部は、前記撮像部を前記対象物に向けた時に撮像される第1の撮像画像と、前記対象物が映る第1の参照画像とに基づく第1のビジュアルサーボと、前記撮像部を前記反射鏡に向けた時に撮像される第2の撮像画像と、前記対象物の前記反射画像を含む第2の参照画像とに基づく第2のビジュアルサーボとを行ってもよい。   Moreover, in 1 aspect of this invention, it has a camera control part which controls the imaging direction of the said imaging part, and the said process part is a 1st captured image imaged when the said imaging part is pointed at the said target object, A first visual servo based on the first reference image in which the object is reflected, a second captured image captured when the imaging unit is directed to the reflecting mirror, and the reflected image of the object. You may perform the 2nd visual servo based on the 2nd reference image containing.

これにより、反射鏡をより自由な位置に設置できるため、より適切な参照画像を利用すること等が可能になる。   Thereby, since a reflecting mirror can be installed in a more free position, it becomes possible to use a more appropriate reference image.

また、本発明の一態様では、前記処理部は、前記撮像部を第2の反射鏡に向けた時に撮像される第3の撮像画像と、前記対象物の第2の反射画像を含む第3の参照画像とに基づく第3のビジュアルサーボを行ってもよい。   In the aspect of the invention, the processing unit includes a third captured image captured when the imaging unit is directed to the second reflecting mirror, and a third reflected image including the second reflected image of the object. A third visual servo based on the reference image may be performed.

これにより、対象物に対してオクルージョンが発生した場合でも、適切にビジュアルサーボを実施すること等が可能になる。   As a result, even when occlusion occurs on the object, it is possible to appropriately perform visual servoing and the like.

また、本発明の一態様では、前記反射鏡は、作業エリアにおいて、前記撮像部と前記対象物とを結ぶ直線に対して垂直な直線であって、前記対象物を通る前記垂直な直線を基準として、前記撮像部の位置とは逆側に設置されてもよい。   In one aspect of the present invention, the reflecting mirror is a straight line perpendicular to a straight line connecting the imaging unit and the object in a work area, and the vertical line passing through the object is used as a reference. As above, it may be installed on the opposite side to the position of the imaging unit.

これにより、対象物が反射鏡に映った撮像画像を撮像すること等が可能となる。   Thereby, it is possible to capture a captured image in which the object is reflected on the reflecting mirror.

また、本発明の一態様では、前記反射鏡は、前記ロボットの前記アームに取り付けられてもよい。   In the aspect of the invention, the reflecting mirror may be attached to the arm of the robot.

これにより、ロボットのアームを移動させることにより、反射鏡の位置を変えること等が可能になる。   Thereby, the position of the reflecting mirror can be changed by moving the arm of the robot.

また、本発明の一態様では、前記ロボットは、第1のアームと第2のアームを有し、前記反射鏡は、前記第1のアームに取り付けられ、前記処理部は、前記第1のアームに取り付けられた前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記第2のアームを動かす前記ビジュアルサーボを行ってもよい。   In one embodiment of the present invention, the robot includes a first arm and a second arm, the reflecting mirror is attached to the first arm, and the processing unit includes the first arm. The visual servo that moves the second arm may be performed based on the captured image in which the reflecting mirror attached to the imaging unit falls within the imaging range of the imaging unit and the reference image.

これにより、ビジュアルサーボ中にオクルージョンが発生した場合などにも、柔軟にビジュアルサーボを実施すること等が可能になる。   As a result, even when occlusion occurs during visual servoing, visual servoing can be performed flexibly.

また、本発明の一態様では、前記参照画像記憶部は、前記対象物の前記反射画像を前記参照画像として記憶し、前記処理部は、前記撮像画像において前記反射鏡が映る反射鏡領域の検出処理を行い、前記撮像画像における前記反射鏡領域の画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行ってもよい。   In the aspect of the invention, the reference image storage unit stores the reflection image of the object as the reference image, and the processing unit detects a reflector region where the reflector is reflected in the captured image. Processing may be performed, and the visual servo may be performed based on the image of the reflector region in the captured image and the reference image.

これにより、参照画像の生成を容易にすること等が可能になる。   Thereby, it is possible to facilitate the generation of the reference image.

また、本発明の一態様では、前記処理部は、前記反射鏡領域の前記検出処理として、前記反射鏡に設けられたマーカー又は枠を検出する処理を行ってもよい。   In the aspect of the invention, the processing unit may perform a process of detecting a marker or a frame provided on the reflector as the detection process of the reflector region.

これにより、反射鏡領域を容易に検出すること等が可能になる。   This makes it possible to easily detect the reflector region.

また、本発明の一態様では、前記処理部は、前記ビジュアルサーボとして、前記撮像画像が前記参照画像に一致又は近づくように前記ロボットを制御する処理を行ってもよい。   In one aspect of the present invention, the processing unit may perform a process of controlling the robot as the visual servo so that the captured image matches or approaches the reference image.

これにより、ロボットの目標姿勢が映る参照画像を用いれば、目標姿勢と同じ又は近い姿勢をロボットに取らせること等が可能になる。   Thus, if a reference image showing the target posture of the robot is used, it is possible to cause the robot to take a posture that is the same as or close to the target posture.

また、本発明の一態様では、前記処理部は、前記対象物を映す第1の反射鏡が前記撮像範囲内に入る撮像画像に含まれる前記反射画像において、第2の反射鏡のマーカー又は枠が映る領域を検出し、検出結果に基づいて、第2の反射鏡が映る領域をマスクしてもよい。   In the aspect of the invention, the processing unit may include a marker or a frame of the second reflecting mirror in the reflected image included in the captured image in which the first reflecting mirror that reflects the object falls within the imaging range. May be detected, and the area in which the second reflecting mirror is reflected may be masked based on the detection result.

これにより、不要な反射鏡の映りこみにより、ビジュアルサーボが収束しなくなることを抑制すること等が可能になる。   As a result, it is possible to prevent the visual servo from converging due to unnecessary reflection of the reflecting mirror.

また、本発明の他の態様では、撮像部により撮像された撮像画像が、参照画像に一致又は近づくようにロボットを制御するロボット制御システムであって、前記撮像画像及び前記参照画像は、反射鏡に映った対象物の鏡像を含むロボット制御システムに関係する。   According to another aspect of the present invention, there is provided a robot control system that controls a robot so that a captured image captured by an imaging unit matches or approaches a reference image, wherein the captured image and the reference image are a reflecting mirror. This is related to a robot control system including a mirror image of an object reflected in

また、本発明の他の態様では、前記ロボット制御システムを含むロボットに関係する。   Another aspect of the present invention relates to a robot including the robot control system.

また、本発明の他の態様では、ロボットの目標状態を表し、対象物の反射画像を含む参照画像を記憶し、撮像部から得られ、前記対象物を映す反射鏡が前記撮像部の撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行い、前記ロボットの制御信号を出力し、前記制御信号に基づいて、前記ロボットを制御するロボット制御方法に関係する。   In another aspect of the present invention, a reference image that represents a target state of a robot, stores a reference image including a reflection image of an object, is obtained from an imaging unit, and a reflecting mirror that reflects the object is an imaging range of the imaging unit. The present invention relates to a robot control method that performs the visual servoing based on the captured image and the reference image that are contained therein, outputs a control signal for the robot, and controls the robot based on the control signal.

また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラムに関係する。   Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.

本実施形態のシステム構成例。The system configuration example of this embodiment. 図2(A)、図2(B)は、本実施形態のロボットの構成例。2A and 2B are configuration examples of the robot according to the present embodiment. 位置ベースビジュアルサーボの処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a position-based visual servo. 図4(A)、図4(B)は、参照画像と撮像画像の説明図。4A and 4B are explanatory diagrams of a reference image and a captured image. 特徴ベースビジュアルサーボの処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a feature-based visual servo. 図6(A)、図6(B)は、反射鏡を用いたビジュアルサーボの説明図。6A and 6B are explanatory diagrams of visual servoing using a reflecting mirror. 反射鏡の配置位置の説明図。Explanatory drawing of the arrangement position of a reflective mirror. マーカーを用いた反射鏡領域の検出処理の説明図。Explanatory drawing of the detection process of the reflective mirror area | region using a marker. 本実施形態の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of this embodiment. 図10(A)、図10(B)は、撮像部の撮像方向を変える手法の説明図。FIGS. 10A and 10B are explanatory diagrams of a method for changing the imaging direction of the imaging unit. 図11(A)、図11(B)は、オクルージョンが発生する場合の説明図。11A and 11B are explanatory diagrams when occlusion occurs. 第1の変形例の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a 1st modification. ロボットのアームに反射鏡を設置する手法の説明図。Explanatory drawing of the method of installing a reflective mirror in the arm of a robot. 第2の変形例の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a 2nd modification.

以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次にシステム構成例について説明する。そして、ビジュアルサーボの概要について説明した後で、フローチャート等を用いて本実施形態で行う処理の詳細と第1の変形例と第2の変形例について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. First, an overview of the present embodiment will be described, and then a system configuration example will be described. Then, after describing the outline of the visual servo, details of processing performed in the present embodiment, a first modification, and a second modification will be described using a flowchart and the like. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.概要
近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。
1. Outline In recent years, industrial robots have been increasingly introduced in production sites to mechanize and automate work performed by humans. However, precise positioning is a prerequisite for positioning the robot arm and hand, which is a barrier to robot introduction.

ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ビジュアルサーボは、参照画像(ゴール画像、目標画像)と撮像画像(現在の画像)との差が小さくなるように、ロボットを制御する技術である。ビジュアルサーボに用いる参照画像は、あらかじめワーク等の作業対象等を撮像した画像であって、ロボットの目標状態を表す画像のことである。一方で、撮像画像は、ロボットを実際に動作させる際にワークやアーム等の現在の様子を撮像した画像である。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。   Here, there is a visual servo as one of methods for positioning a robot arm or hand. Visual servo is a technique for controlling a robot so that a difference between a reference image (goal image, target image) and a captured image (current image) becomes small. The reference image used for the visual servo is an image obtained by capturing a work target such as a workpiece in advance, and is an image representing the target state of the robot. On the other hand, the captured image is an image obtained by capturing a current state of a work, an arm, or the like when the robot is actually operated. Certain types of visual servos are useful in that they do not require precision in calibration, and are attracting attention as a technology that lowers the barrier for robot introduction.

そして、ビジュアルサーボには以下のような課題が存在する。まず、ある方向から精密に位置合わせができているように見えていても、他の方向から見ると位置合わせができていない状況が発生し得る。これが第1の課題である。そのため、このようなケースが発生しないように必要十分な方向から撮像された画像を利用する必要がある。この第1の課題については、一般的に以下のような対策がとられるが、それぞれに副次的な課題がある。   The following problems exist in visual servoing. First, even if it seems that the position is precisely aligned from a certain direction, there may be a situation where the position is not aligned when viewed from the other direction. This is the first problem. Therefore, it is necessary to use an image captured from a necessary and sufficient direction so that such a case does not occur. For the first problem, the following measures are generally taken, but each has a secondary problem.

まず、第1の課題への第1の対応策として、複数台のカメラを用いて多方向から参照画像と撮像画像を撮像する方法がある。しかし、この場合には、作業エリア内に複数台のカメラを設置するための場所の確保が必要であるという問題と、カメラ台数分だけの画像を撮像するため、処理が複雑で遅いという更なる問題がある。   First, as a first countermeasure to the first problem, there is a method of capturing a reference image and a captured image from multiple directions using a plurality of cameras. However, in this case, there is a problem that it is necessary to secure a place for installing a plurality of cameras in the work area, and the processing is complicated and slow because images corresponding to the number of cameras are captured. There's a problem.

次に、第1の課題への第2の対応策として、ロボットのアームに設置したカメラを用いて複数の姿勢から参照画像と撮像画像を撮像する方法がある。しかし、この場合には、ロボットのアームに設置したカメラが取り得る姿勢からの画像しか取得できないという問題と、撮像画像の撮像毎にロボットのアームを移動する必要があるため、サーボ処理に時間がかかるという問題がある。   Next, as a second countermeasure to the first problem, there is a method of capturing a reference image and a captured image from a plurality of postures using a camera installed on a robot arm. However, in this case, it is necessary to move the arm of the robot every time the captured image is taken, and there is a problem that only an image from a posture that can be taken by the camera installed on the robot arm is taken. There is a problem that it takes.

次に、ビジュアルサーボを行うに当たり、ロボットのアームの姿勢等により、撮像画像に対象物が映らなくなるオクルージョンが発生することがある。これが第2の課題である。前述した特許文献1は、この課題を解決する発明であり、オクルージョンが発生する位置又は姿勢を禁止領域に設定し、ロボットのアームが禁止領域内に移動することを防ぐものである。   Next, when performing visual servoing, there may occur an occlusion in which an object does not appear in the captured image due to the posture of the robot arm or the like. This is the second problem. Patent Document 1 described above is an invention that solves this problem, and sets a position or posture at which occlusion occurs in a prohibited area to prevent a robot arm from moving into the prohibited area.

本実施形態のロボット制御システムは、上記のような課題を解決するために、反射鏡を用いて効率的に撮像画像と参照画像を撮像する。具体的には、作業エリアにおいてカメラの撮像範囲内に入るように反射鏡を設置して、撮像画像を撮像する。これにより、一つの撮像部が撮像した撮像画像と、それに対応する参照画像とに基づいて、複数の方向からの位置合わせをすることが可能になる。   In order to solve the above-described problems, the robot control system according to the present embodiment efficiently captures a captured image and a reference image using a reflecting mirror. Specifically, a reflecting mirror is installed so as to fall within the imaging range of the camera in the work area, and a captured image is captured. Accordingly, it is possible to perform alignment from a plurality of directions based on the captured image captured by one imaging unit and the corresponding reference image.

2.システム構成例
次に、本実施形態のロボット制御システム10及びロボット30の構成例を図1に示す。
2. System Configuration Example Next, a configuration example of the robot control system 10 and the robot 30 of this embodiment is shown in FIG.

ロボット制御システム10は、参照画像記憶部110と、処理部120と、ロボット制御部130と、カメラ制御部140と、I/F部(入力部)150と、を含む。なお、ロボット制御システム10は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。   The robot control system 10 includes a reference image storage unit 110, a processing unit 120, a robot control unit 130, a camera control unit 140, and an I / F unit (input unit) 150. Note that the robot control system 10 is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components or adding other components are possible.

次に、ロボット制御システム10の各部で行われる処理について説明する。   Next, processing performed in each unit of the robot control system 10 will be described.

まず、参照画像記憶部110は、ロボット30の目標状態を表す画像である参照画像を記憶したり、処理部120、ロボット制御部130及びカメラ制御部140のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。   First, the reference image storage unit 110 stores a reference image that is an image representing the target state of the robot 30, or serves as a work area for the processing unit 120, the robot control unit 130, and the camera control unit 140. The function can be realized by a memory such as a RAM or an HDD (hard disk drive).

次に、処理部120は、後述する撮像部40から得られる撮像画像と、参照画像記憶部110から取得される参照画像とに基づいて、ロボット30のビジュアルサーボを行い、ロボット30の制御信号を出力する。   Next, the processing unit 120 performs visual servoing of the robot 30 based on a captured image obtained from the imaging unit 40 described later and a reference image acquired from the reference image storage unit 110, and outputs a control signal of the robot 30. Output.

そして、ロボット制御部130は、制御信号に基づいて、ロボット30を制御する。   Then, the robot control unit 130 controls the robot 30 based on the control signal.

また、カメラ制御部140は、撮像部40の撮像方向を制御する。なお、処理部120と、ロボット制御部130と、カメラ制御部140の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   In addition, the camera control unit 140 controls the imaging direction of the imaging unit 40. Note that the functions of the processing unit 120, the robot control unit 130, and the camera control unit 140 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.

さらに、入力部(I/F部)150は、ロボット制御システム10に対する作業者からの入力を受け付けたり、ロボット30及び撮像部40との間で情報をやり取りしたりするためのインターフェースである。作業者からの入力等を受け付ける場合には、入力部(I/F部)150は、スイッチやボタン、キーボード或いはマウス等から構成されてもよい。また、ロボット制御システム10とロボット30間で情報をやり取りする場合には、入力部(I/F部)150は、有線又は無線の少なくとも一方を含むネットワークを介して通信を行う通信部であってもよい。   Furthermore, the input unit (I / F unit) 150 is an interface for receiving input from the operator to the robot control system 10 and exchanging information between the robot 30 and the imaging unit 40. When receiving an input from an operator, the input unit (I / F unit) 150 may be configured by a switch, a button, a keyboard, a mouse, or the like. When information is exchanged between the robot control system 10 and the robot 30, the input unit (I / F unit) 150 is a communication unit that performs communication via a network including at least one of wired and wireless. Also good.

また、図1に示すように、ロボット30は、制御部310と、第1のアーム320と、第2のアーム330と、第1のエンドエフェクター340と、第2のエンドエフェクター350と、を含む。さらに、図2(A)及び図2(B)に示すように、ロボット30では、第1のアーム320のエンドポイントには第1のエンドエフェクター340が、第2のアーム330のエンドポイントには第2のエンドエフェクター350が設けられる。なお、ロボット30は、図1、図2(A)及び図2(B)の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。   As shown in FIG. 1, the robot 30 includes a control unit 310, a first arm 320, a second arm 330, a first end effector 340, and a second end effector 350. . Further, as shown in FIGS. 2A and 2B, in the robot 30, the first end effector 340 is provided at the end point of the first arm 320, and the end point of the second arm 330 is provided at the end point of the second arm 330. A second end effector 350 is provided. Note that the robot 30 is not limited to the configurations shown in FIGS. 1, 2A, and 2B, and some of these components may be omitted or other components may be added. Various modifications are possible.

次に、ロボット30の各部で行われる処理について説明する。   Next, processing performed in each part of the robot 30 will be described.

制御部310は、ロボット制御部130からの情報に基づいて、ロボット30の各部(第1のアーム320、第2のアーム330、第1のエンドエフェクター340及び第2のエンドエフェクター350等)の制御を行う。   The control unit 310 controls each unit of the robot 30 (first arm 320, second arm 330, first end effector 340, second end effector 350, and the like) based on information from the robot control unit 130. I do.

本実施形態のロボット30は双腕のロボットであり、ロボット30には、第1のアーム320と、第1のアーム320とは異なる第2のアーム330が設けられている。ここで、アームとは、ロボット30のパーツであって、一つ以上の関節を含む可動パーツのことをいう。   The robot 30 of this embodiment is a double-armed robot, and the robot 30 is provided with a first arm 320 and a second arm 330 different from the first arm 320. Here, the arm is a part of the robot 30 and refers to a movable part including one or more joints.

また、エンドエフェクターは、アームのエンドポイントに設けられる把持部又はツールのことをいう。   The end effector refers to a gripping part or tool provided at the end point of the arm.

そして、把持部とは、ワークを把持したり、持ち上げたり、吊り上げたり、吸着させたりするために用いる部品のことをいう。把持部は、ハンドであってもよいし、フックであってもよいし、吸盤等であってもよい。なお、1本のアームに対して、複数のハンドを設けても良い。   The gripping part is a part used for gripping, lifting, lifting, or attracting a workpiece. The gripping part may be a hand, a hook, a suction cup or the like. A plurality of hands may be provided for one arm.

また、ツールとは、ワークや作業対象に対して加工等の作業を行うための道具であって、例えばドリルやドライバーなどの工具を指す。なお、ツールは、ハンドにより把持されるものであってもよいし、アームのエンドポイントに直接設けられるものであってもよい。ここで、アームのエンドポイントとは、アームの先端部分のポイントであって、ロボット30のハンド以外の他の部分と接続されていない部分のことをいう。   The tool is a tool for performing work such as machining on a workpiece or work target, and refers to a tool such as a drill or a driver, for example. The tool may be gripped by a hand or may be provided directly at the end point of the arm. Here, the end point of the arm refers to a point at the tip of the arm and a portion that is not connected to other parts other than the hand of the robot 30.

さらに、撮像部40は、ロボット30の作業現場等を撮像し、制御部310とI/F部150を介して処理部120に撮像画像を出力する。例えば撮像部40は、可視カメラであってもよいし、赤外線カメラであってもよい。さらに、例えば可視カメラは、撮像素子としてCCDやCMOSを用いるカメラであっても良く、また、白黒カメラであっても、カラーカメラであっても良い。白黒カメラを使う場合には、撮像画像として濃淡画像が撮像され、カラーカメラを使う場合には、撮像画像として色画像が撮像される。なお、可視カメラ及び赤外線カメラは、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、撮像部40は撮像画像そのものを出力するが、これに限定されるものではない。例えば、処理部120において行う画像処理の一部を、撮像部40が行っても良い。その場合、撮像画像に対して、画像処理が施された後の撮像情報が処理部120に出力されることになる。   Further, the imaging unit 40 images the work site of the robot 30 and outputs a captured image to the processing unit 120 via the control unit 310 and the I / F unit 150. For example, the imaging unit 40 may be a visible camera or an infrared camera. Further, for example, the visible camera may be a camera using a CCD or CMOS as an image pickup device, and may be a monochrome camera or a color camera. When a monochrome camera is used, a grayscale image is captured as a captured image, and when a color camera is used, a color image is captured as a captured image. The visible camera and the infrared camera may include a device (processor) used for image processing or the like. In the present embodiment, the imaging unit 40 outputs the captured image itself, but is not limited to this. For example, the imaging unit 40 may perform part of the image processing performed in the processing unit 120. In that case, the imaging information after the image processing is performed on the captured image is output to the processing unit 120.

次に、ロボット制御システム10とロボット30の一例を図2(A)及び図2(B)に示す。例えば図2(A)のロボット30では、ロボット本体30(ロボット)とロボット制御システム10とが一体に構成されている。しかし、本実施形態のロボット制御システム10及びロボット30は図2(A)の構成に限定されず、図2(B)のようにロボット本体30とロボット制御システム10とが別体に構成されていてもよい。具体的には図2(A)に示したように、ロボット30は、ロボット本体(第1のアーム320、第2のアーム330、第1のエンドエフェクター340及びエンドエフェクター350を有する)及びロボット本体を支えるベースユニット部を有し、当該ベースユニット部にロボット制御システム10が格納されるものであってもよい。図2(A)のロボット30には、ベースユニット部に車輪等が設けられ、ロボット30全体が移動可能な構成となっていてもよい。なお、図2(A)のロボット30は双腕型の例であるが、ロボット30は単腕型や多腕型のロボットであってもよい。なお、ロボット30は、人手により移動させられるものであってもよいし、車輪を駆動するモーターを設け、当該モーターをロボット制御システム10により制御することにより、移動させられるものであってもよい。また、ロボット制御システム10は、図2(A)のようにロボット30の下に設けられたベースユニット部に設けられるとは限られない。   Next, an example of the robot control system 10 and the robot 30 is shown in FIGS. 2 (A) and 2 (B). For example, in the robot 30 of FIG. 2A, the robot body 30 (robot) and the robot control system 10 are integrally configured. However, the robot control system 10 and the robot 30 of the present embodiment are not limited to the configuration of FIG. 2A, and the robot body 30 and the robot control system 10 are configured separately as shown in FIG. May be. Specifically, as shown in FIG. 2A, the robot 30 includes a robot body (having a first arm 320, a second arm 330, a first end effector 340, and an end effector 350) and a robot body. The base unit unit that supports the robot control system 10 may be stored in the base unit unit. The robot 30 in FIG. 2A may have a configuration in which wheels and the like are provided in the base unit portion so that the entire robot 30 can move. 2A is an example of a double-arm type, the robot 30 may be a single-arm type or a multi-arm type robot. The robot 30 may be moved manually, or may be moved by providing a motor for driving wheels and controlling the motor by the robot control system 10. Moreover, the robot control system 10 is not necessarily provided in the base unit part provided under the robot 30 as shown in FIG.

3.ビジュアルサーボの概要
本実施形態の処理の詳細を説明する前に、ビジュアルサーボの概要と、位置ベースビジュアルサーボの流れ、特徴ベースビジュアルサーボの流れについて説明する。
3. Overview of Visual Servo Before describing the details of the processing of this embodiment, an overview of visual servo, the flow of position-based visual servo, and the flow of feature-based visual servo will be described.

ビジュアルサーボとは、目標物の位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによって目標物を追跡するサーボ系の一種である。ビジュアルサーボは、サーボ系への入力情報(制御量)によって、位置ベースビジュアルサーボと特徴ベースビジュアルサーボの二つに大別される。位置ベースビジュアルサーボは、物体の位置情報や姿勢情報がサーボ系への入力情報となり、特徴ベースビジュアルサーボは、画像の特徴量がサーボ系への入力情報となる。他にも、位置ベースと特徴ベースをハイブリッドした手法もある。本実施形態で扱うビジュアルサーボは、これら全ての手法を対象とする。   The visual servo is a kind of servo system that tracks a target by measuring a change in the position of the target as visual information and using it as feedback information. Visual servo is roughly classified into position-based visual servo and feature-based visual servo according to input information (control amount) to the servo system. In the position-based visual servo, the position information and posture information of the object are input information to the servo system, and in the feature-based visual servo, the feature amount of the image is input information to the servo system. In addition, there is a method in which the position base and the feature base are hybridized. The visual servo handled in the present embodiment targets all these methods.

これらのビジュアルサーボは、参照画像と撮像画像を元にサーボ系への入力情報を求める点で共通している。   These visual servos are common in that the input information to the servo system is obtained based on the reference image and the captured image.

3.1 位置ベースビジュアルサーボの流れ
まず、図3のフローチャートにおいて、位置ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボでは、まず参照画像を設定する(S1)。ここで、参照画像とは、目標画像やゴール画像とも呼ばれ、ビジュアルサーボの制御目標となる画像であり、ロボット30の目標状態を表す画像をいう。すなわち、参照画像とは、ロボット30の目標位置や目標姿勢を表す画像、もしくはロボット30が目標位置に位置する状態を表す画像である。また、参照画像はあらかじめ用意しておき、参照画像記憶部110に記憶しておく必要がある。
3.1 Flow of Position-Based Visual Servo First, the flow of position-based visual servo is shown in the flowchart of FIG. In the position-based visual servo, first, a reference image is set (S1). Here, the reference image is also called a target image or a goal image, and is an image serving as a visual servo control target, which is an image representing the target state of the robot 30. That is, the reference image is an image representing the target position or target posture of the robot 30 or an image representing a state where the robot 30 is located at the target position. Further, the reference image must be prepared in advance and stored in the reference image storage unit 110.

次に、撮像部40によって作業スペースを撮像し、撮像画像を取得する(S2)。撮像画像とは、撮像部40によって撮像された画像である。撮像画像は、作業スペースの現在の状態を表しており、撮像画像内にロボット30やワークが映りこんでいる場合には、ロボット30やワークの現在の状態を表している。なお、撮像部40の性能によっては処理遅延が生じるが、ここでは、処理遅延が生じている場合でも、撮像画像には現在の状態が映されているものとして扱う。   Next, a work space is imaged by the imaging unit 40, and a captured image is acquired (S2). The captured image is an image captured by the image capturing unit 40. The captured image represents the current state of the work space. When the robot 30 and the work are reflected in the captured image, the captured image represents the current state of the robot 30 and the work. Note that a processing delay occurs depending on the performance of the imaging unit 40. Here, even if a processing delay occurs, it is assumed that the current state is shown in the captured image.

例えば、図4(A)に参照画像RIMの具体例を、図4(B)に撮像画像PIMの具体例を示す。撮像画像PIMにおいて、ロボットRBはアームAMとハンドHD(もしくはエンドポイントEP)を上方へ向けているが、参照画像RIMでは、ロボットRBはアームAMを折り曲げて、ハンドHDをワークWKに近づけている。したがって、この具体例においては、ロボットRBのアームAMを折り曲げ、ハンドHDをワークWKに近づけるようにロボットRBを制御することになる。   For example, FIG. 4A shows a specific example of the reference image RIM, and FIG. 4B shows a specific example of the captured image PIM. In the captured image PIM, the robot RB points the arm AM and the hand HD (or end point EP) upward, but in the reference image RIM, the robot RB bends the arm AM and brings the hand HD closer to the work WK. . Therefore, in this specific example, the robot RB is controlled so that the arm AM of the robot RB is bent and the hand HD is brought close to the work WK.

次に、制御指令を生成する(S3)。例えば、制御指令生成は、参照画像と撮像画像に基づいて、座標変換の一つであるホモグラフィー等を用いることにより行われる。この場合には、ホモグラフィー行列を求め、ホモグラフィー行列からロボット30の制御信号として速度指令を生成する。   Next, a control command is generated (S3). For example, the control command generation is performed by using homography, which is one of coordinate transformations, based on the reference image and the captured image. In this case, a homography matrix is obtained, and a speed command is generated as a control signal for the robot 30 from the homography matrix.

ここで、制御信号(制御指令)とは、ロボット30を制御するための情報を含む信号のことをいう。例えば、制御信号としては速度指令などがある。また、速度指令とは、ロボット30の各部を制御するための情報として、ロボット30のアームのエンドポイント等の移動速度や回転速度を与える指令の方法を指す。   Here, the control signal (control command) refers to a signal including information for controlling the robot 30. For example, the control signal includes a speed command. The speed command refers to a command method for giving a moving speed and a rotating speed of an end point of the arm of the robot 30 as information for controlling each part of the robot 30.

そして、生成された制御信号に基づいて、制御量(ここではロボット30の位置や姿勢)が目標値に収束したか否かを判断する(S4)。例えば、ホモグラフィーを用いる場合において、速度指令により表される速度ベクトルが0である場合には、制御量である位置や姿勢が目標状態に到達したとみなすことができるため、制御量が目標値に収束したと判断し、速度ベクトルが0でない場合には、制御量が目標値に収束していないと判断する。ここで、収束とは、目標値に限りなく近づくこと、又は目標値に到達することを意味する。   Then, based on the generated control signal, it is determined whether or not the control amount (here, the position and posture of the robot 30) has converged to the target value (S4). For example, in the case of using homography, when the velocity vector represented by the velocity command is 0, it can be considered that the position or orientation that is the controlled variable has reached the target state. If the velocity vector is not 0, it is determined that the control amount has not converged to the target value. Here, convergence means approaching the target value as much as possible, or reaching the target value.

制御量が目標値に収束したと判断する場合にはビジュアルサーボを終了する。一方、制御量が目標値に収束していないと判断する場合には、処理部120はロボット制御部130に制御指令を送出する(S5)。   When it is determined that the control amount has converged to the target value, the visual servo is terminated. On the other hand, when determining that the control amount has not converged to the target value, the processing unit 120 sends a control command to the robot control unit 130 (S5).

位置ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。   In the position-based visual servo, the above processing is repeated until the control amount converges to the target value.

3.2 特徴ベースビジュアルサーボの流れ
次に、図5のフローチャートにおいて、特徴ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボと同様に、まず参照画像を設定し(S10)、次に、撮像部40によって作業スペースを撮像し、撮像画像を取得する(S11)。なお、特徴ベースビジュアルサーボを用いる場合には、参照画像を設定する際に参照画像の特徴抽出を行い、特徴量を算出しておくことが望ましい。または、参照画像の特徴を抽出した参照画像情報を参照画像記憶部110に記憶しておいてもよい。画像の特徴抽出については、例えば、コーナー検出やガウスフィルタ等を用いて行なう。
3.2 Flow of Feature-Based Visual Servo Next, the flow of feature-based visual servo is shown in the flowchart of FIG. Similar to the position-based visual servo, a reference image is first set (S10), and then the work space is imaged by the imaging unit 40 to obtain a captured image (S11). Note that when feature-based visual servoing is used, it is desirable to perform feature extraction of the reference image and calculate the feature amount when setting the reference image. Alternatively, reference image information obtained by extracting features of the reference image may be stored in the reference image storage unit 110. The feature extraction of the image is performed using, for example, corner detection or a Gaussian filter.

次に、撮像画像の特徴を抽出する(S12)。なお、参照画像の特徴抽出は、参照画像設定の際に行っておくことが望ましいが、本ステップで行ってもよい。特徴抽出では、ビジュアルサーボ系への入力情報(制御量)として、画像の特徴量を求める。   Next, the feature of the captured image is extracted (S12). Note that the feature extraction of the reference image is preferably performed at the time of setting the reference image, but may be performed in this step. In the feature extraction, an image feature amount is obtained as input information (control amount) to the visual servo system.

そして、画像の特徴量に基づいて、参照画像と撮像画像が一致するか否かを比較する(S13)。画像が一致すると判断する場合(S14)には、ビジュアルサーボを終了する。一方、画像が一致しないと判断する場合(S14)には、制御指令を生成し(S15)、ロボット制御部130に制御指令を送出する(S16)。   Then, based on the feature amount of the image, it is compared whether or not the reference image matches the captured image (S13). If it is determined that the images match (S14), the visual servo is terminated. On the other hand, if it is determined that the images do not match (S14), a control command is generated (S15), and the control command is sent to the robot controller 130 (S16).

特徴ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。   In the feature-based visual servo, the above processing is repeated until the control amount converges to the target value.

4.処理の詳細
以上の本実施形態のロボット制御システム10は、ロボット30の目標状態を表す画像である参照画像を記憶する参照画像記憶部110と、ロボット30の制御信号を出力する処理部120と、制御信号に基づいて、ロボット30を制御するロボット制御部130と、を含む。そして、参照画像記憶部110は、対象物の反射画像を含む参照画像を記憶する。さらに、処理部120は、対象物を映す反射鏡が撮像部40の撮像範囲内に入る撮像画像と、参照画像とに基づいて、ビジュアルサーボを行う。
4). Details of Processing The robot control system 10 of this embodiment described above includes a reference image storage unit 110 that stores a reference image that is an image representing the target state of the robot 30, a processing unit 120 that outputs a control signal of the robot 30, And a robot controller 130 that controls the robot 30 based on the control signal. And the reference image memory | storage part 110 memorize | stores the reference image containing the reflective image of a target object. Further, the processing unit 120 performs visual servoing based on the captured image in which the reflecting mirror that reflects the object falls within the imaging range of the imaging unit 40 and the reference image.

本実施形態では、処理部120が、対象物の反射画像を含む参照画像を参照画像記憶部110から取得する。   In the present embodiment, the processing unit 120 acquires a reference image including a reflection image of the object from the reference image storage unit 110.

ここで、反射画像とは、対象物が反射鏡に映っているように見える画像のことをいう。具体的に反射画像は、実際に対象物が映っている反射鏡を撮像して得られる画像であってもよい。また、反射画像は、反射鏡が設置されている位置から対象物を撮像し、撮像した画像に対して傾き補正などの画像処理を行って得られた画像であってもよい。さらに、反射画像は、CG(Computer Graphics)等により生成された画像であってもよい。   Here, the reflection image refers to an image in which an object appears to be reflected on a reflecting mirror. Specifically, the reflected image may be an image obtained by imaging a reflecting mirror that actually shows the object. The reflected image may be an image obtained by capturing an object from a position where a reflecting mirror is installed and performing image processing such as tilt correction on the captured image. Further, the reflection image may be an image generated by CG (Computer Graphics) or the like.

これに対して、対象物を映す反射鏡が撮像部40の撮像範囲内に入る撮像画像を、撮像部40が撮像し、処理部120が撮像画像を取得する。そして、処理部120は、取得した撮像画像と参照画像とに基づいて、ビジュアルサーボを行う。   In contrast, the imaging unit 40 captures a captured image in which the reflecting mirror that reflects the object falls within the imaging range of the imaging unit 40, and the processing unit 120 acquires the captured image. Then, the processing unit 120 performs visual servoing based on the acquired captured image and reference image.

ここで、撮像範囲とは、撮像部により撮像される実空間の領域のことをいう。具体的には、後述する図6(A)の領域PAなどのことを指す。   Here, the imaging range refers to an area in real space that is imaged by the imaging unit. Specifically, it refers to a region PA in FIG.

このように、参照画像と撮像画像には、少なくとも2方向から見た対象物が映っている。よって、一つの撮像部が撮像した撮像画像と、これに対応する参照画像とに基づいて、複数の方向からの位置合わせをすることが可能となる。   In this way, the reference image and the captured image show the object viewed from at least two directions. Therefore, it is possible to perform alignment from a plurality of directions based on a captured image captured by one imaging unit and a reference image corresponding to the captured image.

また、撮像部と比較して、反射鏡は薄く、配線も不要であるため、より狭い場所(面積)で、かつ自由な場所に設置することが可能である。よって、撮像部の設置場所の問題を解決することができる。また、撮像部を複数設けた時に比べて、処理の複雑さを緩和し、処理速度も向上させることもできる。   In addition, since the reflecting mirror is thinner than the imaging unit and wiring is not required, it can be installed in a narrower place (area) and in a free place. Therefore, the problem of the installation location of the imaging unit can be solved. In addition, the processing complexity can be reduced and the processing speed can be improved as compared with the case where a plurality of imaging units are provided.

さらに、複数の方向からの対象物の様子をタイミングのずれなく撮像することも可能となる。   Furthermore, it is possible to image the state of the object from a plurality of directions without a timing shift.

また、参照画像記憶部110は、対象物が映り、対象物の反射画像を含む参照画像を記憶してもよい。そして、処理部120は、反射鏡及び対象物が撮像範囲内に入る撮像画像と、参照画像とに基づいて、ビジュアルサーボを行ってもよい。   Further, the reference image storage unit 110 may store a reference image including a reflection image of the target object in which the target object is reflected. Then, the processing unit 120 may perform visual servoing based on the captured image in which the reflecting mirror and the target object fall within the imaging range and the reference image.

すなわち、この場合、参照画像と撮像画像には、対象物の撮像部と向き合っている面と、対象物の反射鏡と向き合っている面の2つの面が映っている。なお、参照画像には、前述したように、対象物を映す反射鏡が映っていても良いし、CG等により生成された反射画像が、参照画像内の反射鏡に対応する位置に埋め込まれていても良い。   That is, in this case, the reference image and the captured image show two surfaces, a surface facing the imaging unit of the object and a surface facing the reflector of the object. Note that, as described above, the reference image may include a reflecting mirror that reflects the object, and the reflecting image generated by CG or the like is embedded at a position corresponding to the reflecting mirror in the reference image. May be.

これにより、一度のビジュアルサーボを行うだけで、撮像部40から対象物への方向と、反射鏡から対象物への方向の2つの方向から、位置合わせをすること等が可能になる。   Thereby, it is possible to perform alignment and the like from two directions, ie, the direction from the imaging unit 40 to the object and the direction from the reflecting mirror to the object, by performing only one visual servo.

また、参照画像記憶部110は、対象物の反射画像を2つ以上含む参照画像を記憶してもよい。そして、処理部120は、2つ以上の反射鏡が撮像部40の撮像範囲内に入る撮像画像と、参照画像とに基づいて、ビジュアルサーボを行ってもよい。   Further, the reference image storage unit 110 may store a reference image including two or more reflection images of the object. Then, the processing unit 120 may perform visual servoing based on the captured image in which two or more reflecting mirrors fall within the imaging range of the imaging unit 40 and the reference image.

具体例を図6(A)及び図6(B)に示す。本例では、図6(A)に示すように、撮像部CMから見て対象物OBの後方に、二枚の反射鏡(ML1及びML2)を配置する。そして、対象物OBと第1の反射鏡ML1と第2の反射鏡ML2とが入るように、撮像部CMの撮像範囲PAを設定し、作業エリアを撮像する。   Specific examples are shown in FIGS. 6A and 6B. In this example, as shown in FIG. 6A, two reflecting mirrors (ML1 and ML2) are arranged behind the object OB when viewed from the imaging unit CM. Then, the imaging range PA of the imaging unit CM is set so that the object OB, the first reflecting mirror ML1, and the second reflecting mirror ML2 enter, and the work area is imaged.

すると、図6(B)に示すような撮像画像PIMが得られる。撮像画像PIMでは、撮像部CMから見た対象物OBと、第1の反射鏡ML1に映った対象物OBと、第2の反射鏡ML2に映った対象物OBの様子が1枚の画像内で確認することができる。本例では、この撮像画像と、これに対応する参照画像とに基づいて、ビジュアルサーボを行う。   Then, a captured image PIM as shown in FIG. 6B is obtained. In the captured image PIM, the state of the object OB viewed from the imaging unit CM, the object OB reflected on the first reflecting mirror ML1, and the object OB reflected on the second reflecting mirror ML2 is within one image. Can be confirmed. In this example, visual servoing is performed based on this captured image and the corresponding reference image.

これにより、一度のビジュアルサーボを行うだけで、撮像部40から対象物への方向と、第1の反射鏡から対象物への方向と、第2の反射鏡から対象物への方向の3つの方向から、位置合わせをすること等が可能になる。よって、複数の撮像部を用意しなくても、複数の方向からの位置合わせを行うこと等が可能になる。同様に、ロボットのアームにカメラを取り付けて、アームを移動させながら、複数の方向から対象物を撮像しなくても、複数方向からの位置合わせをすること等が可能になる。   Thus, with only one visual servo, the direction from the imaging unit 40 to the object, the direction from the first reflector to the object, and the direction from the second reflector to the object are three. It is possible to perform alignment from the direction. Therefore, it is possible to perform alignment from a plurality of directions without preparing a plurality of imaging units. Similarly, it is possible to perform alignment from a plurality of directions without attaching a camera to the arm of the robot and moving the arm without imaging an object from a plurality of directions.

また、反射鏡は、対象物が映っている様子を撮像部40の位置から見ることができるように配置されている必要がある。   Further, the reflecting mirror needs to be arranged so that a state in which the object is reflected can be seen from the position of the imaging unit 40.

そのため、反射鏡は、作業エリアにおいて、撮像部40と対象物とを結ぶ直線に対して垂直な直線であって、対象物を通る垂直な直線を基準として、撮像部40の位置とは逆側に設置されてもよい。   Therefore, the reflecting mirror is a straight line perpendicular to the straight line connecting the imaging unit 40 and the object in the work area, and is opposite to the position of the imaging unit 40 with respect to the vertical straight line passing through the object. May be installed.

具体的に図7を用いて説明する。図7では、反射鏡として、第1の反射鏡ML1と第2の反射鏡ML2を設置することとする。そして、撮像部CMと対象物OBとを結ぶ直線とは、直線STのことを指し、直線STに対して垂直な直線であって、対象物を通る直線とは、直線PDのことを指す。さらに、直線PDを基準として撮像部CMの位置とは逆側とは、図7の斜線で示すエリアSAのことを指し、この斜線で示すエリアSA内のいずれかの位置に反射鏡(ML1及びML2)を設置することが望ましい。   This will be specifically described with reference to FIG. In FIG. 7, the first reflecting mirror ML1 and the second reflecting mirror ML2 are installed as reflecting mirrors. The straight line connecting the imaging unit CM and the object OB indicates the straight line ST, the straight line perpendicular to the straight line ST and the straight line passing through the object indicates the straight line PD. Further, the side opposite to the position of the imaging unit CM with respect to the straight line PD refers to the area SA indicated by the oblique lines in FIG. 7, and the reflecting mirror (ML1 and ML1) is located at any position within the area SA indicated by the oblique lines. It is desirable to install ML2).

これにより、対象物が映っている様子を撮像部40の位置から見ることができるような位置に反射鏡を配置すること等が可能になる。そして、対象物が反射鏡に映った撮像画像を撮像部40が撮像すること等が可能となる。   Thereby, it is possible to arrange the reflecting mirror at a position where the appearance of the object can be seen from the position of the imaging unit 40. And it becomes possible for the imaging part 40 to image the captured image in which the target object was reflected in the reflecting mirror.

また、参照画像記憶部110は、対象物の反射画像を参照画像として記憶してもよい。そして、処理部120は、撮像画像において反射鏡が映る反射鏡領域の検出処理を行い、撮像画像における反射鏡領域の画像と、参照画像とに基づいて、ビジュアルサーボを行ってもよい。   Further, the reference image storage unit 110 may store a reflection image of the object as a reference image. And the process part 120 may perform the detection process of the reflective mirror area | region in which a reflective mirror is reflected in a captured image, and may perform visual servo based on the image of the reflective mirror area | region in a captured image, and a reference image.

例えば前述した図6(B)の例において、撮像画像PIMから、対象物が映る領域CIM1と、反射鏡が映る反射鏡領域CIM2及びCIM3を検出してもよい。そして、対象物の反射画像そのものを参照画像として、検出した各領域(CIM1〜CIM3)の画像と参照画像とに基づいて、ビジュアルサーボを行ってもよい。   For example, in the example of FIG. 6B described above, the region CIM1 in which the object is reflected and the reflector regions CIM2 and CIM3 in which the reflector is reflected may be detected from the captured image PIM. Then, the visual servo may be performed based on the detected images of the respective regions (CIM1 to CIM3) and the reference image with the reflected image of the object itself as the reference image.

この場合には、各領域の画像毎に順番にビジュアルサーボを行ってもよいし、各領域の画像毎に同時にビジュアルサーボを行ってもよい。   In this case, visual servo may be performed in order for each image in each area, or visual servo may be performed for each image in each area simultaneously.

一方で、対象物が映る領域と反射鏡領域以外の部分を考慮せずに、ビジュアルサーボを行うことができるという利点もある。そのため、画像処理やCGを用いて参照画像を生成する場合には、利便性が高い。   On the other hand, there is also an advantage that visual servoing can be performed without taking into consideration parts other than the area where the object is reflected and the reflector area. Therefore, convenience is high when a reference image is generated using image processing or CG.

これにより、対象物が映る領域と反射鏡領域以外の領域を考慮する必要がなくなるため、参照画像の生成を容易にすること等が可能になる。   This eliminates the need to consider the area other than the area where the object is reflected and the reflector area, thereby facilitating the generation of a reference image.

また、処理部120は、反射鏡領域の検出処理として、反射鏡に設けられたマーカー又は枠を検出する処理を行ってもよい。   Moreover, the process part 120 may perform the process which detects the marker or frame provided in the reflective mirror as a detection process of a reflective mirror area | region.

具体的には図8に示すように、対象物OBを映す反射鏡ML1及びML2の四隅にマーカーMKが付されており、このマーカーMKを検出する。   Specifically, as shown in FIG. 8, markers MK are attached to the four corners of the reflecting mirrors ML1 and ML2 that reflect the object OB, and this marker MK is detected.

これにより、反射鏡領域を容易に検出すること等が可能になる。   This makes it possible to easily detect the reflector region.

また、処理部120は、ビジュアルサーボとして、撮像画像が参照画像に一致又は近づくようにロボット30を制御する処理を行ってもよい。   Further, the processing unit 120 may perform processing for controlling the robot 30 so that the captured image matches or approaches the reference image as visual servo.

これにより、ロボット30の目標姿勢が映る参照画像を用いれば、目標姿勢と同じ又は近い姿勢をロボット30に取らせること等が可能になる。   As a result, if a reference image showing the target posture of the robot 30 is used, it is possible to cause the robot 30 to take a posture that is the same as or close to the target posture.

また、本実施形態では、反射及び透過の制御が可能な調光ミラーデバイスを反射鏡として利用し、反射鏡を映す時にのみ、光を反射するように制御してもよい。   In the present embodiment, a dimming mirror device capable of controlling reflection and transmission may be used as a reflecting mirror, and control may be performed so that light is reflected only when the reflecting mirror is projected.

これにより、他の画像処理への悪影響を避けることが可能になる。   This makes it possible to avoid adverse effects on other image processing.

以下では、図9のフローチャートを用いて、本実施形態の処理の流れについて説明する。   Below, the flow of the process of this embodiment is demonstrated using the flowchart of FIG.

まず、撮像部が撮像画像を撮像する(S101)。そして、撮像画像において対象物が映る領域と反射鏡領域を検出し(S102)、対象物が映る領域の画像と反射鏡領域の画像を撮像画像から分離する(S103)。   First, the imaging unit captures a captured image (S101). Then, an area where the object is reflected and a reflector area are detected in the captured image (S102), and an image of the area where the object is reflected and an image of the reflector area are separated from the captured image (S103).

そして、対象物が正しく映っていない画像を除外する(S104)。なお、対象物が正しく映っていない画像とは、例えば後述する図11(B)のようにオクルージョンが発生している画像などを指す。   Then, an image in which the object is not correctly reflected is excluded (S104). Note that the image in which the object is not correctly reflected refers to an image in which occlusion occurs, for example, as illustrated in FIG.

さらに、各領域の画像と対応する参照画像を比較して、誤差を計算し(S105)、誤差が十分小さくなったか否かを判定する(S106)。なお、誤差が十分小さいか否かの判定は、例えば所与の閾値との比較により判定する。   Further, the image of each region and the corresponding reference image are compared to calculate an error (S105), and it is determined whether or not the error is sufficiently small (S106). Note that whether or not the error is sufficiently small is determined, for example, by comparison with a given threshold value.

そして、誤差が十分小さくなったと判定した場合には、処理を終了する。一方、誤差が十分小さくないと判定した場合には、ステップS101の処理に戻る。以上が本実施形態の処理の流れである。   If it is determined that the error has become sufficiently small, the process ends. On the other hand, if it is determined that the error is not sufficiently small, the process returns to step S101. The above is the processing flow of this embodiment.

5.第1の変形例
次に、第1の変形例として、撮像部の方向を機械的に変えられる三脚等を用い、作業エリア内に設置した対象物と各反射鏡を一つずつ撮像していくことで、ビジュアルサーボに利用する複数方向からの参照画像と撮像画像を取得する手法が考えられる。
5. First Modified Example Next, as a first modified example, a tripod or the like that can mechanically change the direction of the imaging unit is used, and an object placed in the work area and each reflecting mirror are imaged one by one. Thus, a method of acquiring reference images and captured images from a plurality of directions used for visual servoing can be considered.

すなわち、本実施形態のロボット制御システム10は、撮像部40の撮像方向を制御するカメラ制御部140を有してもよい。そして、処理部120は、撮像部40を対象物に向けた時に撮像される第1の撮像画像と、対象物が映る第1の参照画像とに基づく第1のビジュアルサーボと、撮像部40を反射鏡に向けた時に撮像される第2の撮像画像と、対象物の反射画像を含む第2の参照画像とに基づく第2のビジュアルサーボとを行ってもよい。   That is, the robot control system 10 of the present embodiment may include a camera control unit 140 that controls the imaging direction of the imaging unit 40. Then, the processing unit 120 includes the first visual servo based on the first captured image captured when the imaging unit 40 is directed toward the target, the first reference image in which the target is reflected, and the imaging unit 40. You may perform the 2nd visual servo based on the 2nd captured image imaged when it turns to a reflective mirror, and the 2nd reference image containing the reflective image of a target object.

具体例を図10(A)及び図10(B)を用いて説明する。まず、図10(A)に示すように、対象物OBが撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、第1の撮像画像を得る。そして、第1の撮像画像に対応するように生成(又は撮像)された第1の参照画像と、第1の撮像画像とに基づいて第1のビジュアルサーボを行う。   A specific example will be described with reference to FIGS. First, as shown in FIG. 10A, the imaging unit CM images the work area so that the object OB falls within the imaging range PA, and obtains a first captured image. Then, first visual servoing is performed based on the first reference image generated (or imaged) so as to correspond to the first captured image and the first captured image.

一方、図10(B)に示すように、反射鏡ML2が撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、第2の撮像画像を得る。そして、第2の撮像画像に対応するように生成(又は撮像)された第2の参照画像と、第2の撮像画像とに基づいて第2のビジュアルサーボを行う。   On the other hand, as shown in FIG. 10B, the imaging unit CM images the work area so that the reflecting mirror ML2 falls within the imaging range PA, and obtains a second captured image. Then, second visual servoing is performed based on the second reference image generated (or imaged) so as to correspond to the second captured image and the second captured image.

なお、第1のビジュアルサーボと第2のビジュアルサーボは、後述する例のように連続して行ってもよいし、どちらか一方のみを行ってもよい。   The first visual servo and the second visual servo may be performed continuously as in an example described later, or only one of them may be performed.

前述した例のように、撮像部40の撮像方向が固定である場合には、撮像部40の撮像範囲内に反射鏡を設置しなければならなかった。それに対して、本例では、反射鏡をより自由な位置に設置できるため、より適切な参照画像を利用すること等が可能になる。   As in the example described above, when the imaging direction of the imaging unit 40 is fixed, a reflecting mirror must be installed within the imaging range of the imaging unit 40. On the other hand, in this example, since the reflecting mirror can be installed at a more free position, a more appropriate reference image can be used.

また、処理部120は、撮像部40を第2の反射鏡に向けた時に撮像される第3の撮像画像と、対象物の第2の反射画像を含む第3の参照画像とに基づく第3のビジュアルサーボを行ってもよい。   In addition, the processing unit 120 is based on a third captured image that is captured when the imaging unit 40 is directed to the second reflecting mirror and a third reference image that includes the second reflected image of the object. Visual servo may be performed.

つまり、前述した図10(A)及び図10(B)の例で説明すると、反射鏡ML1が撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、第3の撮像画像を得る。そして、第3の撮像画像に対応するように生成(又は撮像)された第3の参照画像と、第3の撮像画像とに基づいて第3のビジュアルサーボを行う。   That is, in the example of FIGS. 10A and 10B described above, the imaging unit CM images the work area so that the reflecting mirror ML1 is within the imaging range PA, and the third captured image is captured. Get. Then, the third visual servo is performed based on the third reference image generated (or imaged) so as to correspond to the third captured image and the third captured image.

また、図11(A)に示すように、対象物OBと撮像部CMの間に障害物HUがある場合などには、図11(B)に示すような撮像画像PIMが撮像される。このような、撮像画像では、適切にビジュアルサーボを行うことができない。しかし、本例のように、対象物を正面から撮像した撮像画像と、反射鏡を撮像した2枚の撮像画像がある場合には、取得した撮像画像のうち、適切にビジュアルサーボを行うことができると判断できる撮像画像のみを用いてビジュアルサーボを行うことができる。   Further, as shown in FIG. 11A, when there is an obstacle HU between the object OB and the imaging unit CM, a captured image PIM as shown in FIG. 11B is captured. With such a captured image, visual servoing cannot be performed appropriately. However, as in this example, when there are a captured image obtained by imaging the object from the front and two captured images obtained by imaging the reflector, visual servoing can be appropriately performed among the obtained captured images. Visual servo can be performed using only captured images that can be determined to be possible.

これにより、例えば正しく対象物が写っている画像のみを利用してビジュアルサーボを実施すること等が可能になる。その結果、撮像画像において対象物にオクルージョンが発生している場合でも、適切にビジュアルサーボを実施すること等が可能になる。   Thus, for example, visual servoing can be performed by using only an image in which an object is correctly reflected. As a result, even when occlusion occurs in the target object in the captured image, it is possible to appropriately perform visual servoing and the like.

以下では、図12のフローチャートと、図10(A)及び図10(B)を用いて、第1の変形例の処理の流れについて説明する。   Hereinafter, the flow of processing of the first modification will be described with reference to the flowchart of FIG. 12 and FIGS. 10 (A) and 10 (B).

まず、図10(A)のように、対象物が撮像範囲に入った状態で、撮像部40が作業エリアを撮像し(S201)、処理部120が、取得された撮像画像の特徴量を抽出する(S202)。   First, as shown in FIG. 10A, the imaging unit 40 images the work area in a state where the target object is in the imaging range (S201), and the processing unit 120 extracts the feature amount of the acquired captured image. (S202).

次に、カメラ制御部140が、撮像部40の撮像方向を変更する(S203)。例えば、図10(B)に示すように、反射鏡ML2が撮像範囲に入るように撮像部40の向きを変える。   Next, the camera control unit 140 changes the imaging direction of the imaging unit 40 (S203). For example, as shown in FIG. 10B, the orientation of the imaging unit 40 is changed so that the reflecting mirror ML2 enters the imaging range.

そして、撮像部40が撮像を行い(S204)、処理部120が、取得した撮像画像において反射鏡領域を検出して(S205)、検出した反射鏡領域の画像の特徴量を抽出する(S206)。   Then, the imaging unit 40 captures an image (S204), and the processing unit 120 detects a reflector region in the acquired captured image (S205), and extracts a feature amount of the detected image of the reflector region (S206). .

さらに、処理部120は、ビジュアルサーボを行うにあたり、必要十分な反射鏡領域の画像の特徴量が抽出されているか否かを判定する(S207)。   Furthermore, the processing unit 120 determines whether or not the necessary and sufficient feature amount of the image of the reflector region has been extracted in performing visual servoing (S207).

そして、必要十分な反射鏡領域の画像の特徴量が抽出されていないと判定した場合には、ステップS203に戻り、例えばカメラ制御部140が、反射鏡ML1が撮像範囲に入るように撮像部40の向きを変えて、撮像部40が撮像を行い(S204)、処理部120が、撮像された撮像画像の反射鏡領域の画像の特徴量を抽出する(S205、S206)。   Then, when it is determined that the necessary and sufficient image feature amount of the reflector region has not been extracted, the process returns to step S203, and for example, the camera control unit 140 causes the imaging unit 40 so that the reflector ML1 enters the imaging range. The image capturing unit 40 performs image capturing (S204), and the processing unit 120 extracts the feature amount of the image in the reflector region of the captured image (S205, S206).

一方で、ステップS207において、必要十分な反射鏡領域の画像の特徴量が抽出されていると判定した場合には、処理部120は、抽出した特徴量と、あらかじめ算出しておいた参照画像の特徴量とを比較して、2つの特徴量の差を算出し(S208)、2つの特徴量の差が十分小さいか否かを判定する(S209)。そして、2つの特徴量の差が十分小さいと判定した場合には、処理を終了する。   On the other hand, if it is determined in step S207 that the necessary and sufficient feature value of the reflector region image has been extracted, the processing unit 120 calculates the extracted feature value and the reference image calculated in advance. The difference between the two feature values is calculated by comparing with the feature value (S208), and it is determined whether or not the difference between the two feature values is sufficiently small (S209). If it is determined that the difference between the two feature quantities is sufficiently small, the process ends.

一方で、2つの特徴量の差が大きいと判定した場合には、2つの特徴量の差に基づいて、ロボット30のアームの移動方向を決定し(S210)、ロボット制御部130がロボット30のアームを移動させる(S211)。そして、ステップS201の処理に戻り、以降の処理を繰り返す。以上が第1の変形例の処理の流れである。   On the other hand, if it is determined that the difference between the two feature amounts is large, the movement direction of the arm of the robot 30 is determined based on the difference between the two feature amounts (S210). The arm is moved (S211). And it returns to the process of step S201 and the subsequent processes are repeated. The above is the process flow of the first modification.

6.第2の変形例
次に、第2の変形例では、反射鏡は、ロボット30のアームに取り付けられてもよい。
6). Second Modification Example Next, in a second modification example, the reflecting mirror may be attached to the arm of the robot 30.

すなわち、ロボット30は、第1のアーム320と第2のアーム330を有していてもよい。そして、反射鏡は、第1のアーム320に取り付けられてもよい。さらに、処理部120は、第1のアーム320に取り付けられた反射鏡が撮像部40の撮像範囲内に入る撮像画像と、参照画像とに基づいて、第2のアーム330を動かすビジュアルサーボを行ってもよい。   That is, the robot 30 may have a first arm 320 and a second arm 330. Then, the reflecting mirror may be attached to the first arm 320. Further, the processing unit 120 performs visual servoing that moves the second arm 330 based on the captured image in which the reflecting mirror attached to the first arm 320 falls within the imaging range of the imaging unit 40 and the reference image. May be.

具体的には図13に示すように、第1のアームAM1に取り付けられた反射鏡MLが撮像範囲PA内に入るようにして、撮像部CMが作業エリアを撮像し、撮像画像を得る。そして、撮像画像に対応するように生成(又は撮像)された参照画像と、撮像画像とに基づいて、第2のアームAM2を動かすためのビジュアルサーボを行う。   Specifically, as illustrated in FIG. 13, the imaging unit CM images the work area so that the reflecting mirror ML attached to the first arm AM1 falls within the imaging range PA, and obtains a captured image. Then, visual servo for moving the second arm AM2 is performed based on the reference image generated (or imaged) so as to correspond to the captured image and the captured image.

このように、ロボット30のアームを移動させることにより、反射鏡の位置を変えること等が可能になる。これにより、ビジュアルサーボ中にオクルージョンが発生した場合などにも、柔軟にビジュアルサーボを実施すること等が可能になる。   Thus, by moving the arm of the robot 30, the position of the reflecting mirror can be changed. As a result, even when occlusion occurs during visual servoing, visual servoing can be performed flexibly.

また、反射鏡は平面鏡に限らず、例えば凹面鏡であってもよい。   The reflecting mirror is not limited to a plane mirror, and may be a concave mirror, for example.

これにより、1枚の反射鏡だけで複数の角度から対象物を撮像することが可能となり、ビジュアルサーボ中にオクルージョンが発生した場合などにも、柔軟にビジュアルサーボを実施すること等が可能になる。   This makes it possible to pick up an image of an object from a plurality of angles with only one reflector, and even when occlusion occurs during visual servoing, it is possible to flexibly implement visual servoing, etc. .

また、反射鏡が複数あって、1つの反射鏡に別の反射鏡が映りこんでいる場合には、映りこんでいる反射鏡をマスクしてもよい。   Further, when there are a plurality of reflecting mirrors and another reflecting mirror is reflected in one reflecting mirror, the reflecting mirror reflected may be masked.

例えば、処理部120は、対象物を映す第1の反射鏡が撮像範囲内に入る撮像画像に含まれる反射画像において、第2の反射鏡のマーカー又は枠が映る領域を検出し、検出結果に基づいて、第2の反射鏡が映る領域をマスクしてもよい。   For example, the processing unit 120 detects a region where a marker or a frame of the second reflecting mirror appears in the reflected image included in the captured image in which the first reflecting mirror that reflects the object falls within the imaging range, and the detection result is Based on this, the area where the second reflecting mirror is reflected may be masked.

これにより、不要な反射鏡の映りこみにより、ビジュアルサーボが収束しなくなることを抑制すること等が可能になる。なお、マスクにより不要な反射鏡が映る領域を完全に消しても良いし、ぼかすだけでもよい。また、反射鏡が映る領域の検出を、反射鏡に設けられたマーカーや枠を利用しても良い。これにより、不要な反射鏡の検出を簡易にすること等が可能になる。   As a result, it is possible to prevent the visual servo from converging due to unnecessary reflection of the reflecting mirror. Note that an area where an unnecessary reflecting mirror is reflected by the mask may be completely erased or only blurred. In addition, a marker or a frame provided on the reflecting mirror may be used to detect the area where the reflecting mirror is reflected. Thereby, it becomes possible to simplify the detection of unnecessary reflecting mirrors.

以下では、図14のフローチャートを用いて、第2の変形例の処理の流れについて説明する。なお、ステップS301〜ステップS306は、図12のステップS201〜ステップS206に対応し、ステップS310〜ステップS313は、図12のステップS208〜ステップS211に対応するため、説明を省略する。   Hereinafter, the processing flow of the second modification will be described with reference to the flowchart of FIG. Steps S301 to S306 correspond to steps S201 to S206 in FIG. 12, and steps S310 to S313 correspond to steps S208 to S211 in FIG.

ステップS307において、必要十分な反射鏡領域の画像の特徴量が抽出されていると判定した場合には、図12の場合と同様に、ステップS310以降の処理を行う。   If it is determined in step S307 that the necessary and sufficient reflector region image feature amount has been extracted, the processing from step S310 is performed as in the case of FIG.

一方で、ステップS307において、必要十分な反射鏡領域の画像の特徴量が抽出されていないと判定した場合には、反射鏡がロボット30のアームに設置されており、かつアームの移動回数が既定の回数以下であるか否かを判定する(S308)。   On the other hand, in step S307, when it is determined that the necessary and sufficient image feature amount of the reflector region has not been extracted, the reflector is installed on the arm of the robot 30, and the number of movements of the arm is predetermined. It is determined whether or not the number is less than or equal to (S308).

反射鏡がロボット30のアームに設置されていない、又はアームの移動回数が既定の回数よりも多いと判定した場合には、ステップS303の処理に戻る。   If it is determined that the reflecting mirror is not installed on the arm of the robot 30 or that the number of movements of the arm is greater than the predetermined number, the process returns to step S303.

一方で、反射鏡がロボット30のアームに設置されており、かつアームの移動回数が既定の回数以下であると判定した場合には、反射鏡が取り付けられているアームを動かして、反射鏡の位置を変更する(S309)。そして、ステップS304の処理に戻る。以上が第2の変形例の処理の流れである。   On the other hand, if it is determined that the reflecting mirror is installed on the arm of the robot 30 and the number of movements of the arm is equal to or less than the predetermined number, the arm to which the reflecting mirror is attached is moved to The position is changed (S309). Then, the process returns to step S304. The above is the processing flow of the second modification.

なお、本実施形態のロボット制御システム10及びロボット30等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態のロボット制御システム10及びロボット30等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   Note that the robot control system 10 and the robot 30 according to the present embodiment may realize part or most of the processing by a program. In this case, the robot control system 10 and the robot 30 according to the present embodiment are realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage medium. That is, in the information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit) Is memorized.

以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、ロボット制御システム及びロボットの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the robot control system and the robot are not limited to those described in this embodiment, and various modifications can be made.

10 ロボット制御システム、30 ロボット、40 撮像部、
110 参照画像記憶部、120 処理部、130 ロボット制御部、
140 カメラ制御部、150 I/F部(入力部)、310 制御部、
320 第1のアーム、330 第2のアーム、340 第1のエンドエフェクター、
350 第2のエンドエフェクター
10 robot control system, 30 robot, 40 imaging unit,
110 reference image storage unit, 120 processing unit, 130 robot control unit,
140 camera control unit, 150 I / F unit (input unit), 310 control unit,
320 first arm, 330 second arm, 340 first end effector,
350 Second end effector

Claims (16)

ロボットの目標状態を表す画像である参照画像を記憶する参照画像記憶部と、
前記ロボットの制御信号を出力する処理部と、
前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、
を含み、
前記参照画像記憶部は、
対象物の反射画像を含む前記参照画像を記憶し、
前記処理部は、
前記対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像と、前記参照画像とに基づいて、ビジュアルサーボを行うことを特徴とするロボット制御システム。
A reference image storage unit that stores a reference image that is an image representing the target state of the robot;
A processing unit for outputting a control signal of the robot;
A robot control unit for controlling the robot based on the control signal;
Including
The reference image storage unit
Storing the reference image including a reflection image of the object;
The processor is
A robot control system, wherein visual servoing is performed based on a captured image in which a reflecting mirror that reflects the object falls within an imaging range of an imaging unit and the reference image.
請求項1において、
前記参照画像記憶部は、
前記対象物が映り、前記対象物の前記反射画像を含む前記参照画像を記憶し、
前記処理部は、
前記反射鏡及び前記対象物が前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行うことを特徴とするロボット制御システム。
In claim 1,
The reference image storage unit
The object is reflected, the reference image including the reflected image of the object is stored,
The processor is
The robot control system, wherein the visual servoing is performed based on the captured image in which the reflecting mirror and the target object fall within the imaging range and the reference image.
請求項1又は2において、
前記参照画像記憶部は、
前記対象物の前記反射画像を2つ以上含む前記参照画像を記憶し、
前記処理部は、
2つ以上の前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行うことを特徴とするロボット制御システム。
In claim 1 or 2,
The reference image storage unit
Storing the reference image including two or more reflection images of the object;
The processor is
2. The robot control system according to claim 1, wherein the visual servoing is performed based on the captured image in which two or more of the reflecting mirrors fall within the imaging range of the imaging unit and the reference image.
請求項1において、
前記撮像部の撮像方向を制御するカメラ制御部を有し、
前記処理部は、
前記撮像部を前記対象物に向けた時に撮像される第1の撮像画像と、前記対象物が映る第1の参照画像とに基づく第1のビジュアルサーボと、
前記撮像部を前記反射鏡に向けた時に撮像される第2の撮像画像と、前記対象物の前記反射画像を含む第2の参照画像とに基づく第2のビジュアルサーボとを行うことを特徴とするロボット制御システム。
In claim 1,
A camera control unit that controls an imaging direction of the imaging unit;
The processor is
A first visual servo based on a first captured image captured when the imaging unit is directed toward the object, and a first reference image in which the object is reflected;
Performing a second visual servo based on a second captured image captured when the imaging unit is directed toward the reflecting mirror and a second reference image including the reflected image of the object. Robot control system.
請求項4において、
前記処理部は、
前記撮像部を第2の反射鏡に向けた時に撮像される第3の撮像画像と、前記対象物の第2の反射画像を含む第3の参照画像とに基づく第3のビジュアルサーボを行うことを特徴とするロボット制御システム。
In claim 4,
The processor is
Performing a third visual servo based on a third captured image captured when the imaging unit is directed to a second reflecting mirror and a third reference image including a second reflected image of the object. Robot control system characterized by
請求項1乃至5のいずれかにおいて、
前記反射鏡は、
作業エリアにおいて、前記撮像部と前記対象物とを結ぶ直線に対して垂直な直線であって、前記対象物を通る前記垂直な直線を基準として、前記撮像部の位置とは逆側に設置されることを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 5,
The reflector is
In the work area, the straight line is perpendicular to the straight line connecting the imaging unit and the object, and is set on the opposite side of the position of the imaging unit with respect to the vertical straight line passing through the object. A robot control system characterized by that.
請求項1乃至6のいずれかにおいて、
前記反射鏡は、
前記ロボットの前記アームに取り付けられていることを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 6.
The reflector is
A robot control system, wherein the robot control system is attached to the arm of the robot.
請求項1乃至6のいずれかにおいて、
前記ロボットは、
第1のアームと第2のアームを有し、
前記反射鏡は、
前記第1のアームに取り付けられ、
前記処理部は、
前記第1のアームに取り付けられた前記反射鏡が前記撮像部の前記撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記第2のアームを動かす前記ビジュアルサーボを行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 6.
The robot is
Having a first arm and a second arm;
The reflector is
Attached to the first arm;
The processor is
Performing the visual servo for moving the second arm based on the captured image in which the reflecting mirror attached to the first arm falls within the imaging range of the imaging unit and the reference image; Characteristic robot control system.
請求項1乃至8のいずれかにおいて、
前記参照画像記憶部は、
前記対象物の前記反射画像を前記参照画像として記憶し、
前記処理部は、
前記撮像画像において前記反射鏡が映る反射鏡領域の検出処理を行い、前記撮像画像における前記反射鏡領域の画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 8.
The reference image storage unit
Storing the reflected image of the object as the reference image;
The processor is
Robot control characterized by performing a detection process of a reflecting mirror area in which the reflecting mirror is reflected in the captured image, and performing the visual servo based on the image of the reflecting mirror area in the captured image and the reference image. system.
請求項9において、
前記処理部は、
前記反射鏡領域の前記検出処理として、前記反射鏡に設けられたマーカー又は枠を検出する処理を行うことを特徴とするロボット制御システム。
In claim 9,
The processor is
The robot control system characterized by performing the process which detects the marker or frame provided in the said reflective mirror as the said detection process of the said reflective mirror area | region.
請求項1乃至10のいずれかにおいて、
前記処理部は、
前記ビジュアルサーボとして、前記撮像画像が前記参照画像に一致又は近づくように前記ロボットを制御する処理を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 10.
The processor is
As the visual servo, a process for controlling the robot so that the captured image matches or approaches the reference image is performed.
請求項1乃至11のいずれかにおいて、
前記処理部は、
前記対象物を映す第1の反射鏡が前記撮像範囲内に入る撮像画像に含まれる前記反射画像において、第2の反射鏡のマーカー又は枠が映る領域を検出し、検出結果に基づいて、第2の反射鏡が映る領域をマスクすることを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 11,
The processor is
In the reflected image included in the captured image in which the first reflecting mirror that reflects the object falls within the imaging range, a region where the marker or frame of the second reflecting mirror is reflected is detected, and based on the detection result, A robot control system characterized by masking an area where two reflecting mirrors are reflected.
撮像部により撮像された撮像画像が、参照画像に一致又は近づくようにロボットを制御するロボット制御システムであって、
前記撮像画像及び前記参照画像は、
反射鏡に映った対象物の鏡像を含むことを特徴とするロボット制御システム。
A robot control system that controls a robot so that a captured image captured by an imaging unit matches or approaches a reference image,
The captured image and the reference image are:
A robot control system comprising a mirror image of an object reflected on a reflecting mirror.
請求項1乃至13のいずれかに記載のロボット制御システムを含むことを特徴とするロボット。   A robot comprising the robot control system according to claim 1. ロボットの目標状態を表し、対象物の反射画像を含む参照画像を記憶し、
撮像部から得られ、前記対象物を映す反射鏡が前記撮像部の撮像範囲内に入る前記撮像画像と、前記参照画像とに基づいて、前記ビジュアルサーボを行い、
前記ロボットの制御信号を出力し、
前記制御信号に基づいて、前記ロボットを制御することを特徴とするロボット制御方法。
Represents the target state of the robot, stores a reference image including a reflection image of the object,
Based on the captured image obtained from the imaging unit and reflecting the mirror reflecting the object within the imaging range of the imaging unit, and the reference image, the visual servo is performed,
Outputting a control signal of the robot;
A robot control method, comprising: controlling the robot based on the control signal.
ロボットの目標状態を表す画像である参照画像を記憶する参照画像記憶部と、
前記ロボットの制御信号を出力する処理部と、
前記制御信号に基づいて、前記ロボットを制御するロボット制御部として、
コンピューターを機能させ、
前記参照画像記憶部は、
対象物の反射画像を含む前記参照画像を記憶し、
前記処理部は、
前記対象物を映す反射鏡が撮像部の撮像範囲内に入る撮像画像と、前記参照画像とに基づいて、ビジュアルサーボを行うことを特徴とするプログラム。
A reference image storage unit that stores a reference image that is an image representing the target state of the robot;
A processing unit for outputting a control signal of the robot;
As a robot controller that controls the robot based on the control signal,
Make the computer work,
The reference image storage unit
Storing the reference image including a reflection image of the object;
The processor is
A program that performs visual servoing based on a captured image in which a reflecting mirror that reflects the object falls within an imaging range of an imaging unit and the reference image.
JP2013065754A 2013-03-27 2013-03-27 Robot control system, robot, robot control method, and program Withdrawn JP2014188617A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013065754A JP2014188617A (en) 2013-03-27 2013-03-27 Robot control system, robot, robot control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013065754A JP2014188617A (en) 2013-03-27 2013-03-27 Robot control system, robot, robot control method, and program

Publications (1)

Publication Number Publication Date
JP2014188617A true JP2014188617A (en) 2014-10-06

Family

ID=51835479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013065754A Withdrawn JP2014188617A (en) 2013-03-27 2013-03-27 Robot control system, robot, robot control method, and program

Country Status (1)

Country Link
JP (1) JP2014188617A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016113836A1 (en) * 2015-01-13 2016-07-21 株式会社日立製作所 Manipulator control method, system, and manipulator
JP2016190309A (en) * 2015-03-31 2016-11-10 川田工業株式会社 Imaging direction change device for robot
JP2017052053A (en) * 2015-09-10 2017-03-16 株式会社Ihiエアロスペース Method of creating image for remote-control in unmanned vehicle, and remote control system of unmanned vehicle
CN109493381A (en) * 2017-09-13 2019-03-19 富士施乐株式会社 Information processing unit, computer-readable medium and information processing method
WO2020129706A1 (en) 2018-12-21 2020-06-25 オムロン株式会社 Alignment device
CN112799408A (en) * 2021-01-15 2021-05-14 深港产学研基地(北京大学香港科技大学深圳研修院) Floor sweeping robot and navigation control method thereof
JP6913833B1 (en) * 2021-01-19 2021-08-04 Dmg森精機株式会社 Work mounting system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217094A (en) * 1984-04-13 1985-10-30 株式会社日立製作所 Visual device with multiple freedom-degree movable mirror hand
JPH0477806A (en) * 1990-07-13 1992-03-11 Toyota Motor Corp Detecting device for position error of robot
JPH10227622A (en) * 1997-02-14 1998-08-25 Tosok Corp Inspection method of lead and lead inspecting instrument
JP2002037441A (en) * 2000-07-19 2002-02-06 Kawasaki Heavy Ind Ltd Aligning method and aligning apparatus for random work
JP2005525709A (en) * 2002-04-19 2005-08-25 アプライド マテリアルズ インコーポレイテッド Visual system
JP2012254518A (en) * 2011-05-16 2012-12-27 Seiko Epson Corp Robot control system, robot system and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217094A (en) * 1984-04-13 1985-10-30 株式会社日立製作所 Visual device with multiple freedom-degree movable mirror hand
JPH0477806A (en) * 1990-07-13 1992-03-11 Toyota Motor Corp Detecting device for position error of robot
JPH10227622A (en) * 1997-02-14 1998-08-25 Tosok Corp Inspection method of lead and lead inspecting instrument
JP2002037441A (en) * 2000-07-19 2002-02-06 Kawasaki Heavy Ind Ltd Aligning method and aligning apparatus for random work
JP2005525709A (en) * 2002-04-19 2005-08-25 アプライド マテリアルズ インコーポレイテッド Visual system
JP2012254518A (en) * 2011-05-16 2012-12-27 Seiko Epson Corp Robot control system, robot system and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016113836A1 (en) * 2015-01-13 2016-07-21 株式会社日立製作所 Manipulator control method, system, and manipulator
JPWO2016113836A1 (en) * 2015-01-13 2017-06-22 株式会社日立製作所 Manipulator control method, system, and manipulator
JP2016190309A (en) * 2015-03-31 2016-11-10 川田工業株式会社 Imaging direction change device for robot
JP2017052053A (en) * 2015-09-10 2017-03-16 株式会社Ihiエアロスペース Method of creating image for remote-control in unmanned vehicle, and remote control system of unmanned vehicle
CN109493381A (en) * 2017-09-13 2019-03-19 富士施乐株式会社 Information processing unit, computer-readable medium and information processing method
JP2019053426A (en) * 2017-09-13 2019-04-04 富士ゼロックス株式会社 Information processing device and program
WO2020129706A1 (en) 2018-12-21 2020-06-25 オムロン株式会社 Alignment device
JP2020099969A (en) * 2018-12-21 2020-07-02 オムロン株式会社 Positioning device
KR20210082202A (en) 2018-12-21 2021-07-02 오므론 가부시키가이샤 positioning device
CN113165188A (en) * 2018-12-21 2021-07-23 欧姆龙株式会社 Aligning device
US11922616B2 (en) 2018-12-21 2024-03-05 Omron Corporation Alignment device
CN112799408A (en) * 2021-01-15 2021-05-14 深港产学研基地(北京大学香港科技大学深圳研修院) Floor sweeping robot and navigation control method thereof
JP6913833B1 (en) * 2021-01-19 2021-08-04 Dmg森精機株式会社 Work mounting system
JP2022110731A (en) * 2021-01-19 2022-07-29 Dmg森精機株式会社 Workpiece attachment system

Similar Documents

Publication Publication Date Title
JP2014188617A (en) Robot control system, robot, robot control method, and program
US10173324B2 (en) Facilitating robot positioning
CN110640730B (en) Method and system for generating three-dimensional model for robot scene
JP6427972B2 (en) Robot, robot system and control device
JP2012254518A (en) Robot control system, robot system and program
JP5949242B2 (en) Robot system, robot, robot control apparatus, robot control method, and robot control program
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP4961860B2 (en) Robot apparatus and control method of robot apparatus
TWI615691B (en) Anti-collision system and anti-collision method
CN109794961A (en) Robot and robot system
WO2018209592A1 (en) Movement control method for robot, robot and controller
CN114080590A (en) Robotic bin picking system and method using advanced scanning techniques
JP6390088B2 (en) Robot control system, robot, program, and robot control method
JP5609760B2 (en) Robot, robot operation method, and program
JP6424432B2 (en) Control device, robot system, robot and robot control method
JP2006224291A (en) Robot system
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
JP5561037B2 (en) Robot and control method thereof
CN108711174B (en) Approximate parallel vision positioning system for mechanical arm
JP2020142323A (en) Robot control device, robot control method and robot control program
JP2005205519A (en) Robot hand device
JPS6334093A (en) Visual device
JP2007171018A (en) Object position recognition method and device
JP2012236266A (en) Robot control system, robot system, and program
JP2015136763A (en) Control device, robot system, robot and robot control method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160304

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170216