JP7323993B2 - Control device, robot system, operating method and program for control device - Google Patents

Control device, robot system, operating method and program for control device Download PDF

Info

Publication number
JP7323993B2
JP7323993B2 JP2018182701A JP2018182701A JP7323993B2 JP 7323993 B2 JP7323993 B2 JP 7323993B2 JP 2018182701 A JP2018182701 A JP 2018182701A JP 2018182701 A JP2018182701 A JP 2018182701A JP 7323993 B2 JP7323993 B2 JP 7323993B2
Authority
JP
Japan
Prior art keywords
controlled object
image
target position
control
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018182701A
Other languages
Japanese (ja)
Other versions
JP2019077026A (en
JP2019077026A5 (en
Inventor
貴之 山田
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/163,745 priority Critical patent/US11358290B2/en
Publication of JP2019077026A publication Critical patent/JP2019077026A/en
Publication of JP2019077026A5 publication Critical patent/JP2019077026A5/ja
Application granted granted Critical
Publication of JP7323993B2 publication Critical patent/JP7323993B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、制御装置、ロボットシステム、制御装置の動作方法及びプログラムに関し、特に、画像に基づいてロボットを制御するビジュアルサーボ技術に関する。 The present invention relates to a control device, a robot system, an operation method and program for the control device, and more particularly to visual servo technology for controlling a robot based on images.

従来、カメラ画像に基づいてロボットの制御を行う手法の一つとして、ビジュアルサーボが知られている。ビジュアルサーボとは、所望の位置に対象物体が写るようにロボットをフィードバック制御する技術である。ビジュアルサーボを用いると、ロボットとカメラとの間やロボットとエンドエフェクタとの間の位置姿勢関係を精度よく求めておく必要がなく、それらの位置関係を求めるキャリブレーション作業の負荷を低減することができる。中でも、目標位置へ誘導する対象や目標位置にある対象の特徴を画像から抽出し、それらの位置の差に基づいてロボットを制御する手法は、誘導する対象や目標位置にある対象の位置変化に対応できる利点がある。 Conventionally, visual servoing is known as one method of controlling a robot based on camera images. Visual servoing is a technology that feedback-controls a robot so that a target object appears at a desired position. Using visual servos eliminates the need to accurately determine the position and orientation relationships between the robot and the camera and between the robot and the end effector, reducing the burden of calibration work to determine these positional relationships. can. Among them, the method of extracting the characteristics of the object to be guided to the target position and the object at the target position from the image and controlling the robot based on the difference in those positions is a method that can be used to control the position of the target to be guided and the target position. There are advantages that can be accommodated.

特許文献1では、組付け対象物と被組付け対象物とを撮像した画像から特徴量検出を行い、検出結果に基づいて組付け作業をすることで、被組付け対象物が位置ずれしている場合でも組付け作業を実現することが開示されている。 In Japanese Patent Laid-Open No. 2002-100000, feature amounts are detected from images of an object to be assembled and an object to be assembled, and the assembly work is performed based on the detection results. It is disclosed that the assembling work can be realized even when there is a

特開2015-85450号公報JP 2015-85450 A

画像特徴を使ったビジュアルサーボを実現するためには、目標位置へ誘導する対象と目標位置にある対象とを同じ画像中に撮像すると共に、それぞれ複数の特徴を抽出することで位置姿勢を特定できるようにする必要がある。しかしながら、物体の形状によっては少ない特徴しか抽出することができないことがある。また、カメラの配置によっても物体の一部しか見えないため特徴を十分に抽出できないことがある。 In order to realize visual servoing using image features, the target to be guided to the target position and the target at the target position are imaged in the same image, and the position and orientation can be specified by extracting multiple features for each. It is necessary to However, depending on the shape of the object, only a few features can be extracted. Also, depending on the arrangement of the camera, only a part of the object can be seen, and the features may not be sufficiently extracted.

本発明は、上記の課題に鑑みてなされたものであり、画像から十分に特徴を抽出できない場合においてもビジュアルサーボを実現して高精度にタスクを実行可能にするための技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and aims to provide a technique for realizing visual servoing and enabling tasks to be executed with high accuracy even when sufficient features cannot be extracted from an image. aim.

上記の目的を達成する本発明に係る制御装置は、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する画像取得手段と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する進行方向取得手段と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する目標位置検出手段と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする。
A control device according to the present invention that achieves the above objects includes:
An imaging device attached to a robot acquires an image of a controlled object whose rotation can be controlled by the robot and a target position, which is a destination of movement of the controlled object, and is a target position in a concave portion. an image acquisition means;
A progression for acquiring a two-dimensional direction in the image representing the traveling direction of the rotational axis of the controlled object and along the rotational axis of the controlled object, based on the edges of the controlled object in the image. a direction acquisition means;
target position detection means for detecting a two-dimensional position in the image representing the target position from the image ;
The target position exists on the extension of the traveling direction of the rotating shaft, and the controlled object performs an operation of changing the attitude of the controlled object so that the traveling direction of the rotating shaft and the depth direction of the recess match. a motion generation means for generating a motion of moving the controlled object closer to the target position along the traveling direction of the controlled object whose attitude has been changed, which is generated before reaching the target position;
a control means for controlling the controlled object according to the operation;
with
The motion generating means obtains a control amount of the posture of the control object that brings the line segment along the two-dimensional direction closer to the two-dimensional position, and updates the posture of the control object based on the control amount. characterized by

本発明によれば、画像から十分に特徴を抽出できない場合においてもビジュアルサーボを実現して高精度にタスクを実行することが可能となる。 According to the present invention, it is possible to implement visual servoing and execute tasks with high accuracy even when sufficient features cannot be extracted from an image.

第1の実施形態のロボットシステムの構成例を示す構成図。1 is a configuration diagram showing a configuration example of a robot system according to a first embodiment; FIG. 第1の実施形態のロボットシステムの構成例を示すブロック図。1 is a block diagram showing a configuration example of a robot system according to a first embodiment; FIG. 第1の実施形態のロボットシステムによる処理を説明するフローチャート。4 is a flowchart for explaining processing by the robot system of the first embodiment; 第1の実施形態のロボットシステムの座標系を説明する図。FIG. 2 is a diagram for explaining a coordinate system of the robot system of the first embodiment; FIG. 第1の実施形態の動作生成部を説明する図。4A and 4B are diagrams for explaining a motion generator according to the first embodiment; FIG. 第1の実施形態の変形例1のロボットシステムによる処理を説明するフローチャート。9 is a flowchart for explaining processing by the robot system of Modification 1 of the first embodiment; 第1の実施形態の変形例2の動作生成部を説明する図。FIG. 11 is a diagram for explaining a motion generation unit according to Modification 2 of the first embodiment; 第1の実施形態の変形例2の動作生成部を説明する図。FIG. 11 is a diagram for explaining a motion generation unit according to Modification 2 of the first embodiment; 第1の実施形態の変形例3の動作表示部を説明する図。FIG. 11 is a diagram for explaining an operation display section of Modification 3 of the first embodiment; 第2の実施形態のロボットシステムの構成例を示すブロック図。The block diagram which shows the structural example of the robot system of 2nd Embodiment. 第2の実施形態のロボットシステムによる処理を説明するフローチャート。8 is a flowchart for explaining processing by the robot system of the second embodiment; 第3の実施形態のロボットシステムの構成例を示すブロック図。The block diagram which shows the structural example of the robot system of 3rd Embodiment. 第3の実施形態のロボットシステムによる処理を説明するフローチャート。10 is a flowchart for explaining processing by the robot system of the third embodiment;

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments will be described with reference to the drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

(第1の実施形態)
第1の実施形態では、ロボットに取り付けた撮像装置で、制御対象と目標位置とを撮像し、ロボットにより制御対象を目標位置まで誘導する。本実施形態では、制御対象とはロボットに装着したエンドエフェクタであるドライバである。目標位置とはエンドエフェクタがタスクを実行する位置のことで、本実施形態では画像特徴1点の位置であるネジ中心を用いる。なお、目標位置は2点以上の画像特徴でもよい。ロボットによるタスクとして誘導後にエンドエフェクタであるドライバを用いてネジを取り外すことで、自動でネジを外すロボットシステムについても説明する。画像中のドライバとネジとの位置関係からロボットの動作を生成することで、ロボットと撮像装置とのキャリブレーションあるいは撮像装置とエンドエフェクタとのキャリブレーションに誤差がある場合でも、正確に制御できる。
(First embodiment)
In the first embodiment, an imaging device attached to a robot captures an image of a controlled object and a target position, and the robot guides the controlled object to the target position. In this embodiment, the controlled object is a driver, which is an end effector attached to the robot. The target position is the position at which the end effector executes the task, and in this embodiment, the screw center, which is the position of one image feature point, is used. Note that the target position may be two or more image features. A robot system that automatically unscrews screws by using a screwdriver, which is an end effector, to remove screws after being guided as a task by the robot will also be described. By generating the motion of the robot from the positional relationship between the driver and the screw in the image, it is possible to accurately control even if there is an error in the calibration between the robot and imaging device or between the imaging device and end effector.

[装置の構成]
図1の構成図および図2のブロック図により第1の実施形態の制御装置100を備えるロボットシステム1000の構成例を示す。ロボットシステム1000は、撮像装置1と、ロボットアーム2と、エンドエフェクタ3と、制御装置100とを備える。
[Device configuration]
The configuration diagram of FIG. 1 and the block diagram of FIG. 2 show a configuration example of a robot system 1000 including the control device 100 of the first embodiment. A robot system 1000 includes an imaging device 1 , a robot arm 2 , an end effector 3 , and a control device 100 .

撮像装置1は、エンドエフェクタ3に取り付けられ、エンドエフェクタ3および目標位置を含むシーンを撮像する装置である。たとえば、撮像装置1は2台のグレースケールカメラから構成され、制御部106からの撮像トリガにより撮像を行い、画像取得部101に画像信号を送る。 The imaging device 1 is a device that is attached to the end effector 3 and captures an image of a scene including the end effector 3 and a target position. For example, the imaging apparatus 1 is composed of two grayscale cameras, performs imaging by an imaging trigger from the control unit 106 , and sends an image signal to the image acquisition unit 101 .

ロボットアーム2は、制御対象を移動させる装置である。たとえばロボットアーム2は6軸ロボットから構成され、制御装置100により制御値を入力されて動作する。エンドエフェクタ3は、ロボットアームの先端に取り付けられた、目標を操作する装置である。たとえば、エンドエフェクタ3はドライバおよび近接センサから構成され、制御装置100にドライバと目標との接触状態を入力する。また、エンドエフェクタ3は制御装置100により制御値を入力されて動作する。 The robot arm 2 is a device that moves an object to be controlled. For example, the robot arm 2 is composed of a 6-axis robot and operates by receiving control values from the control device 100 . The end effector 3 is a device attached to the tip of the robot arm that manipulates a target. For example, the end effector 3 is composed of a driver and a proximity sensor, and inputs the contact state between the driver and the target to the control device 100 . Also, the end effector 3 operates upon input of a control value from the control device 100 .

制御装置100は、画像取得部101と、軸方向取得部102と、目標位置検出部103と、動作生成部104と、終了判断部105と、制御部106とを備える。 The control device 100 includes an image acquisition unit 101 , an axial direction acquisition unit 102 , a target position detection unit 103 , a motion generation unit 104 , an end determination unit 105 and a control unit 106 .

画像取得部101は、撮像装置1から画像信号を受け取り、軸方向取得部102及び目標位置検出部103に画像データを送る。たとえば画像取得部101はメモリから構成される。 The image acquisition unit 101 receives image signals from the imaging device 1 and sends image data to the axial direction acquisition unit 102 and the target position detection unit 103 . For example, the image acquisition unit 101 is composed of a memory.

軸方向取得部102は、画像取得部101から画像データを受け取り、図示しない軸方向設定部により設定された制御対象の軸方向を取得し、軸方向データを動作生成部104及び終了判断部105に送る。ここで、軸とは例えば回転軸であり、軸方向とは、制御対象と目標位置との位置姿勢関係を測るための制御対象に関連付けられた画像中の線分のことで、たとえばエンドエフェクタ3であるドライバの中心軸を、軸上の2次元点と、根本から先端に向かう2次元ベクトルとで表す。なお、ベクトルは逆に先端から根本に向かう方向でもよい。軸方向を設定することで、エンドエフェクタ3に取り付けられた撮像装置1ではエンドエフェクタ3を部分的にしか撮像できず、十分にエンドエフェクタ3の特徴を検出できない状況であっても、動作生成部104がロボットアーム2の先端部の動作を規定する位置姿勢を計算することができる。 The axial direction acquisition unit 102 receives the image data from the image acquisition unit 101, acquires the axial direction of the control target set by the axial direction setting unit (not shown), and transmits the axial direction data to the motion generation unit 104 and the end determination unit 105. send. Here, the axis is, for example, a rotation axis, and the axial direction is a line segment in an image associated with the controlled object for measuring the position/orientation relationship between the controlled object and the target position. is represented by a two-dimensional point on the axis and a two-dimensional vector extending from the root to the tip. In addition, the vector may conversely be directed from the tip to the root. By setting the axial direction, even in a situation where the imaging device 1 attached to the end effector 3 can only partially image the end effector 3 and the characteristics of the end effector 3 cannot be sufficiently detected, the motion generation unit 104 can calculate the position and orientation that define the motion of the tip of the robot arm 2 .

目標位置検出部103は、画像取得部101から画像データを受け取り、画像データから目標位置を検出し、目標位置データを動作生成部104及び終了判断部105に送る。動作生成部104は、軸方向取得部102及び目標位置検出部103から受け取った軸方向データ及び目標位置データに基づいて、ロボットアーム2の先端部の動作を規定する位置姿勢を計算し、位置姿勢データを制御部106に送る。まずは、回転軸の延長上に目標位置が存在するようにロボットアーム2の先端部を移動させ、その後、軸方向に沿ってロボットアーム2の先端部を目標位置に到達させる。 The target position detection unit 103 receives image data from the image acquisition unit 101 , detects a target position from the image data, and sends the target position data to the action generation unit 104 and the end determination unit 105 . Based on the axial direction data and the target position data received from the axial direction acquisition unit 102 and the target position detection unit 103, the motion generation unit 104 calculates the position and orientation that define the motion of the distal end of the robot arm 2, and calculates the position and orientation. Send the data to the control unit 106 . First, the tip of the robot arm 2 is moved so that the target position exists on the extension of the rotation axis, and then the tip of the robot arm 2 is made to reach the target position along the axial direction.

終了判断部105は、軸方向取得部102及び目標位置検出部103から受け取った軸方向データ及び目標位置データに基づいて、制御対象が目標位置に到達したかを判断し、終了判断データを制御部106に送る。 The end determination unit 105 determines whether the controlled object has reached the target position based on the axial direction data and the target position data received from the axial direction acquisition unit 102 and the target position detection unit 103, and transmits the end determination data to the control unit. Send to 106.

制御部106は、動作生成部104から受け取った位置姿勢データに基づいてロボットアーム2を制御する。また、制御部106は、終了判断部105から受け取った終了判断データに基づいて、制御ループを続ける場合は撮像装置1に撮像トリガを送り、制御ループを終了する場合はタスク動作に基づいてロボットアーム2およびエンドエフェクタ3を制御する。 The control unit 106 controls the robot arm 2 based on the position/orientation data received from the motion generation unit 104 . Based on the end determination data received from the end determination unit 105, the control unit 106 sends an imaging trigger to the imaging device 1 when continuing the control loop, and the robot arm based on the task operation when ending the control loop. 2 and end effector 3.

[制御処理]
図3のフローチャートおよび図4の座標系の定義により第1の実施形態の制御装置100およびロボットシステム1000による制御処理方法を説明する。図4の41はロボットアーム2の基準であるロボット座標系、42はロボットアーム2の先端部であるフランジ座標系、43は撮像装置1の基準である撮像装置座標系、44はエンドエフェクタ3の先端部であるエンドエフェクタ座標系である。Qはロボット座標系41におけるフランジ座標系42(フランジ位置姿勢)、Gはフランジ座標系42から撮像装置座標系43への変換行列、Hは撮像装置座標系43からエンドエフェクタ座標系44への変換行列を表す。
[Control processing]
A control processing method by the control device 100 and the robot system 1000 of the first embodiment will be described with reference to the flow chart of FIG. 3 and the definition of the coordinate system of FIG. In FIG. 4, 41 is the robot coordinate system that is the reference of the robot arm 2, 42 is the flange coordinate system that is the tip of the robot arm 2, 43 is the imaging device coordinate system that is the reference of the imaging device 1, and 44 is the end effector 3. It is an end effector coordinate system that is the tip. Q is the flange coordinate system 42 (flange position/orientation) in the robot coordinate system 41, G is the transformation matrix from the flange coordinate system 42 to the imaging device coordinate system 43, and H is the transformation from the imaging device coordinate system 43 to the end effector coordinate system 44. represents a matrix.

(ステップS101)
ステップS101では、制御部106が、ロボットアーム2を初期位置姿勢に移動するよう制御する。本実施形態では、制御部106がティーチングペンダントによる教示作業により設定した位置姿勢を初期位置姿勢として取得する。また、動作生成部104が変換行列Gおよび変換行列Hを取得する。なお、変換行列Gおよび変換行列Hは、ユーザがあらかじめ設計値やキャリブレーションにより求めておくが、誤差を含んでいてもかまわない。ロボットアーム2が初期位置姿勢に移動したら、制御部106が撮像装置1に撮像トリガを送る。
(Step S101)
In step S101, the control unit 106 controls the robot arm 2 to move to the initial position and orientation. In this embodiment, the control unit 106 acquires the position and orientation set by the teaching operation using the teaching pendant as the initial position and orientation. Also, the motion generation unit 104 acquires the transformation matrix G and the transformation matrix H. FIG. Note that the transformation matrix G and the transformation matrix H are obtained in advance by the user through design values and calibration, but may contain errors. After the robot arm 2 moves to the initial position and orientation, the control unit 106 sends an imaging trigger to the imaging device 1 .

(ステップS102)
ステップS102では、撮像装置1が、制御部106から撮像トリガを受け取り、撮像を行い、撮像した画像信号を画像取得部101に送る。
(Step S102)
In step S<b>102 , the imaging device 1 receives an imaging trigger from the control unit 106 , performs imaging, and sends an image signal of the imaged image to the image acquiring unit 101 .

(ステップS103)
ステップS103では、画像取得部101が、撮像装置1から画像信号を受け取り、軸方向取得部102及び目標位置検出部103に画像データを送る。
(Step S103)
In step S<b>103 , the image acquisition unit 101 receives an image signal from the imaging device 1 and sends image data to the axial direction acquisition unit 102 and the target position detection unit 103 .

(ステップS104)
ステップS104では、軸方向取得部102が、画像取得部101から画像データを受け取り、制御対象の軸方向を取得し、取得した軸方向データを動作生成部104及び終了判断部105に送る。
(Step S104)
In step S<b>104 , the axial direction acquisition unit 102 receives the image data from the image acquisition unit 101 , acquires the axial direction of the controlled object, and sends the acquired axial direction data to the motion generation unit 104 and the end determination unit 105 .

本実施形態では、画像に写ったエンドエフェクタ3であるドライバの直線エッジのうち長い2本の線分を検出し、その中線を軸として、画像の下から上に向かう方向を正とする軸方向を取得する。軸方向は本実施形態のように画像から検出してもよいし、図示しない軸方向設定部によって事前に設定したデータを取得してもよい。軸方向設定部は、たとえばユーザが画像中から2点指定して2点を結ぶ線分を軸方向として設定してもよい。あるいは、撮像装置1とエンドエフェクタ3との3次元的な位置関係を計測した結果から画像にエンドエフェクタ3の軸方向を投影した値を用いて軸方向を設定してもよい。 In this embodiment, two long line segments are detected from straight edges of the driver, which is the end effector 3, captured in the image. Get directions. The axial direction may be detected from an image as in the present embodiment, or data set in advance by an axial direction setting unit (not shown) may be acquired. The axial direction setting unit may set, for example, a line segment connecting the two points specified by the user in the image as the axial direction. Alternatively, the axial direction may be set using a value obtained by projecting the axial direction of the end effector 3 onto an image based on the result of measuring the three-dimensional positional relationship between the imaging device 1 and the end effector 3 .

(ステップS105)
ステップS105では、目標位置検出部103が、画像取得部101から画像データを受け取り、画像データに基づいて目標位置を検出し、検出した目標位置データを動作生成部104及び終了判断部105に送る。
(Step S105)
In step S<b>105 , the target position detection unit 103 receives the image data from the image acquisition unit 101 , detects the target position based on the image data, and sends the detected target position data to the motion generation unit 104 and the end determination unit 105 .

本実施形態では、目標位置としてネジ中心位置を検出する。検出は事前に撮像したネジの画像をテンプレートとしたテンプレートマッチングで行ってもよいし、画像の輝度値に基づいてネジ領域を抽出しその重心を計算することで行ってもよい。 In this embodiment, the screw center position is detected as the target position. Detection may be performed by template matching using an image of a screw taken in advance as a template, or by extracting a screw region based on the luminance value of the image and calculating its center of gravity.

(ステップS106)
ステップS106では、動作生成部104が、軸方向取得部102及び目標位置検出部103から軸方向データおよび目標位置データを受け取り、ロボットアーム2の先端部の動作を規定する位置姿勢を計算する。また、動作生成部104は、計算した位置姿勢データを制御部106に送る。まずは、回転軸の延長上に目標位置が存在するようにロボットアーム2の先端部を移動させ、その後、軸方向に沿ってロボットアーム2の先端部を目標位置に到達させる。
(Step S106)
In step S106, the motion generation unit 104 receives the axial direction data and the target position data from the axial direction acquisition unit 102 and the target position detection unit 103, and calculates the position and orientation that define the motion of the tip of the robot arm 2. The motion generation unit 104 also sends the calculated position and orientation data to the control unit 106 . First, the tip of the robot arm 2 is moved so that the target position exists on the extension of the rotation axis, and then the tip of the robot arm 2 is made to reach the target position along the axial direction.

以下、図5を用いて動作生成の一例を説明する。図5において、51は撮像装置1であるカメラで撮像した画像、52は画像に写ったエンドエフェクタ3であるドライバ、53は画像に写ったネジ、54は取得した軸方向、55は検出した目標位置、56は軸方向と目標位置との距離を表している。これらの情報から軸方向と目標位置とを近づけるフランジ制御量を計算する。具体的には、まず以下の式1~4で制御対象の制御量H'を解く。 An example of motion generation will be described below with reference to FIG. In FIG. 5, 51 is an image captured by the camera, which is the imaging device 1, 52 is the driver, which is the end effector 3, captured in the image, 53 is the screw captured in the image, 54 is the obtained axial direction, and 55 is the detected target. Position 56 represents the distance between the axial direction and the target position. From these pieces of information, a flange control amount that brings the axial direction closer to the target position is calculated. Specifically, first, the controlled variable H' of the controlled object is solved by the following equations 1 to 4.

Figure 0007323993000001
Figure 0007323993000001

Figure 0007323993000002
Figure 0007323993000002

Figure 0007323993000003
Figure 0007323993000003

Figure 0007323993000004
Figure 0007323993000004

ここで、式1は撮像装置1であるカメラとエンドエフェクタ3であるドライバとネジとの関係式である。P'は制御目標とする撮像装置座標系43におけるネジ位置、H'はエンドエフェクタ3であるドライバの制御量、Pは制御目標とするエンドエフェクタ座標系44におけるネジ位置である。式2はエンドエフェクタ3であるドライバの制御量H'の定義で、ここではエンドエフェクタ座標系44のx軸方向、y軸方向に動かす場合である。dx、dyは制御量を表す。式3はネジ位置P'と画像との関係式で、u'およびv'はP'の画像中への投影位置、fxおよびfyは撮像装置1であるカメラの焦点距離、cxおよびcyは撮像装置1であるカメラの主点位置を表す。式4は求める画像ヤコビアンで、uおよびvは検出したネジ位置、udおよびvdはネジ位置から軸へと降ろした垂線の足の位置である。これらを撮像装置1であるステレオカメラの各画像から求めることで、エンドエフェクタ3であるドライバの制御量H'が求まる。これを式5により現在のフランジ位置姿勢Qに反映する。 Here, Equation 1 is a relational expression between the camera as the imaging device 1, the driver as the end effector 3, and the screw. P′ is a screw position in the imaging device coordinate system 43 as a control target, H′ is a control amount of the driver, which is the end effector 3, and P is a screw position in the end effector coordinate system 44 as a control target. Formula 2 defines the control amount H' of the driver, which is the end effector 3, and is the case where the end effector coordinate system 44 is moved in the x-axis and y-axis directions. dx and dy represent the control amount. Formula 3 is a relational expression between the screw position P' and the image, where u' and v' are the projected positions of P' in the image, fx and fy are the focal lengths of the camera that is the imaging device 1, cx and cy represents the principal point position of the camera, which is the imaging device 1 . Equation 4 is the desired image Jacobian, where u and v are the detected screw positions, and u d and v d are the positions of the vertical feet down the shaft from the screw positions. By obtaining these from each image of the stereo camera, which is the imaging device 1, the control amount H' of the driver, which is the end effector 3, can be obtained. This is reflected in the current flange position/orientation Q by Equation (5).

Figure 0007323993000005
Figure 0007323993000005

ここで、Q'は求めるフランジ位置姿勢、Qは撮像した時のフランジ位置姿勢である。これにより、画像中の軸方向と目標位置との距離に基づいてフランジ位置姿勢を制御できる。その結果、フランジ位置姿勢計算は目標位置の正確な3次元位置を必要としないため、たとえば撮像装置1である2台のカメラ間の位置姿勢キャリブレーション誤差による3次元計測精度の影響を低減することができる。 Here, Q' is the position and orientation of the flange to be obtained, and Q is the position and orientation of the flange when the image is captured. Thereby, the flange position and orientation can be controlled based on the distance between the axial direction in the image and the target position. As a result, since the flange position/orientation calculation does not require an accurate three-dimensional position of the target position, it is possible to reduce the influence of the three-dimensional measurement accuracy due to the position/orientation calibration error between the two cameras, which are the imaging device 1, for example. can be done.

(ステップS107)
ステップS107では、終了判断部105が、軸方向取得部102及び目標位置検出部103から軸方向データ及び目標位置データを受け取り、制御ループを終了するか継続するかを判断する。また、終了判断部105は、終了判断データを制御部106に送る。ここで、制御ループとはS102からS109までの、撮像した結果に基づいてロボットアーム2を制御する一連のループ処理のことである。終了判断は、検出した軸と目標位置との距離で判断してもよいし、前回の距離と今回の距離との差で判断してもよいし、ループ回数で判断してもよい。たとえば、前回の距離と今回の距離との差が一定値以下である場合に「終了」、それ以外の場合に「継続」と判断してもよいし、ループ回数が一定値以上の場合に「終了」、それ以外の場合に「継続」と判断してもよい。本実施形態では、軸方向と目標位置との距離が一定値以下である場合に「終了」、それ以外の場合に「継続」と判断する。
(Step S107)
In step S107, the end determination unit 105 receives axial direction data and target position data from the axial direction acquisition unit 102 and the target position detection unit 103, and determines whether to end or continue the control loop. In addition, end determination unit 105 sends end determination data to control unit 106 . Here, the control loop is a series of loop processes from S102 to S109 for controlling the robot arm 2 based on the imaging results. Termination may be determined based on the distance between the detected axis and the target position, the difference between the previous distance and the current distance, or the number of loops. For example, if the difference between the previous distance and the current distance is less than a certain value, it can be judged as "end", otherwise it can be judged as "continue". In other cases, it may be determined as "continuation". In this embodiment, if the distance between the axial direction and the target position is equal to or less than a certain value, it is determined to be "finished", otherwise it is determined to be "continued".

(ステップS108)
ステップS108では、制御部106が、動作生成部104から動作を規定する位置姿勢データを受け取り、受け取った位置姿勢へロボットアーム2を移動するよう制御する。
(Step S108)
In step S108, the control unit 106 receives the position/posture data defining the motion from the motion generation unit 104, and controls the robot arm 2 to move to the received position/posture.

(ステップS109)
ステップS109では、制御部106が、終了判断部105から終了判断データを受け取り、終了判断データが「継続」の場合は、制御部106が撮像装置1に撮像トリガを送り、S102に戻る。終了判断データが「終了」の場合は、S110へ進む。
(Step S109)
In step S109, the control unit 106 receives end determination data from the end determination unit 105, and if the end determination data is "continue", the control unit 106 sends an imaging trigger to the imaging device 1, and the process returns to S102. If the end determination data is "end", the process proceeds to S110.

(ステップS110)
ステップS110では、制御部106が、タスク動作を実行する。ここで、タスク動作とは、ロボットアーム2及びエンドエフェクタ3を、事前に設定された動きで制御することである。本実施形態のタスク動作は、エンドエフェクタ3であるドライバにより目標位置にあるネジを外すネジ外し動作である。たとえば、エンドエフェクタ3であるドライバを前進させて、近接センサによりエンドエフェクタ3であるドライバとネジとの接触を検知した後、ドライバを回転させながらネジを外してタスク動作を実行する前の位置姿勢に戻す。
(Step S110)
At step S110, the control unit 106 executes the task operation. Here, the task operation is to control the robot arm 2 and the end effector 3 with preset movements. The task operation of this embodiment is a screw removing operation in which a screwdriver, which is the end effector 3, removes a screw at a target position. For example, after the driver, which is the end effector 3, is advanced and the contact between the driver, which is the end effector 3, and the screw is detected by the proximity sensor, the screw is removed while rotating the driver, and the position and orientation before executing the task operation. back to

(ステップS111)
ステップS111では、制御部106が、処理終了の判断をする。次の目標となるネジがある場合はS101に戻る。全ての目標に対してタスク実行が完了した場合は処理を終了する。
(Step S111)
In step S111, the control unit 106 determines to end the processing. If there is a next target screw, the process returns to S101. If task execution is completed for all targets, the process ends.

[効果]
本実施形態によれば、画像中の軸方向および目標位置からビジュアルサーボによるロボット制御を実現することができる。その結果、キャリブレーション作業の負荷を低減しながら、画像から十分に特徴を抽出できない場合においても、高精度にタスクを実行できる。
[effect]
According to this embodiment, robot control by visual servo can be realized from the axial direction and the target position in the image. As a result, the task can be performed with high accuracy even when sufficient features cannot be extracted from the image while reducing the load of the calibration work.

[第1の実施形態の変形例1]
制御対象の制御量H'を式2の定義により、エンドエフェクタ座標系44におけるx軸、y軸の並進としたが、これに限らない。制御量H'はx軸、y軸まわりの回転でもよいし、並進と回転を併用してもよい。
[Modification 1 of the first embodiment]
Although the controlled variable H′ of the controlled object is defined as the translation of the x-axis and the y-axis in the end effector coordinate system 44 according to the definition of Equation 2, it is not limited to this. The control amount H' may be rotation around the x-axis and y-axis, or translation and rotation may be used in combination.

以下、図6のフローチャートにより第1の実施形態の変形例1の制御処理方法を説明する。図6におけるステップS101~ステップS105、ステップS107~ステップS111は、それぞれ第1の実施形態の略同様のため省略する。 Hereinafter, the control processing method of Modification 1 of the first embodiment will be described with reference to the flowchart of FIG. Steps S101 to S105 and steps S107 to S111 in FIG. 6 are substantially the same as those of the first embodiment, and therefore are omitted.

(ステップS1061)
ステップS1061では、動作生成部104が、軸方向取得部102及び目標位置検出部103から軸方向データ及び目標位置データを受け取り、生成する動作パラメータを変更するか判断する。ここで、動作パラメータとは、制御対象の制御量H'の成分である。具体的には、制御量H'のx軸、y軸、z軸の並進成分、x軸、y軸、z軸まわりの回転成分である。動作生成部104が動作パラメータを変更すると判断した場合は、S1062に進み、動作パラメータを変更しないと判断した場合はS1063に進む。判定はS1061を一定回数実行する毎に変更判定と非変更判定とを切り替えてもよいし、事前に登録したパターンで変更判定と非変更判定を切り替えてもよいし、検出した軸方向と目標位置との距離で判定してもよい。本実施形態では、軸方向と目標位置との距離が一定値以下である場合と、その次の判定とで1度ずつ変更判定とする。これにより、複数の動作パラメータを組み合わせてビジュアルサーボができる。
(Step S1061)
In step S1061, the motion generation unit 104 receives axial direction data and target position data from the axial direction acquisition unit 102 and the target position detection unit 103, and determines whether to change motion parameters to be generated. Here, the operating parameter is a component of the controlled variable H' of the controlled object. Specifically, they are translational components about the x-, y-, and z-axes of the controlled variable H', and rotational components about the x-, y-, and z-axes. If the motion generating unit 104 determines to change the motion parameter, the process proceeds to S1062, and if it determines not to change the motion parameter, the process proceeds to S1063. The determination may switch between change determination and non-change determination each time S1061 is executed a certain number of times, or may be performed by switching between change determination and non-change determination using a pre-registered pattern. You can judge by the distance from In this embodiment, when the distance between the axial direction and the target position is equal to or less than a certain value, and the next determination, the change determination is performed once. This allows visual servoing by combining multiple operating parameters.

(ステップS1062)
ステップS1062では、動作生成部104が、動作パラメータのうち固定する成分と変動させる成分を切り替える。動作生成部104が動作パラメータを切り替える前の制御量H'は式2から、エンドエフェクタ座標系44のx軸、y軸方向の並進成分以外の成分は0である。たとえば、動作パラメータをエンドエフェクタ座標系44のx軸、y軸まわりの回転以外の成分を0にするように変更すると、制御量H'は式6になる。
(Step S1062)
In step S1062, the motion generator 104 switches between fixed components and variable components of the motion parameters. From Equation 2, the control amount H′ before the motion generator 104 switches the motion parameter has zero components other than the translational components in the x-axis and y-axis directions of the end effector coordinate system 44 . For example, if the motion parameters are changed so that the components other than the rotation around the x-axis and y-axis of the end effector coordinate system 44 are set to 0, the control amount H' is given by Equation (6).

Figure 0007323993000006
Figure 0007323993000006

別の例として、動作パラメータをエンドエフェクタ座標系44のz軸方向に一定量L前進するように変更すると、制御量H'は式7になる。 As another example, if the operating parameters are changed to move forward in the z-axis direction of the end effector coordinate system 44 by a constant amount L, the control amount H' is given by Equation (7).

Figure 0007323993000007
Figure 0007323993000007

本実施形態では、たとえば1回目の変更判定では、エンドエフェクタ座標系44のz軸方向にP'z/2の距離前進するように動作パラメータを変更する。2回目の変更判定では、エンドエフェクタ座標系44のx軸、y軸まわりの回転以外の成分が0になるように変更する。 In the present embodiment, for example, in the first change determination, the motion parameter is changed so as to move forward by a distance of P′ z /2 in the z-axis direction of the end effector coordinate system 44 . In the second change determination, the end effector coordinate system 44 is changed so that the components other than the rotation around the x-axis and y-axis become zero.

画像から十分に制御対象または目標位置の特徴を抽出できない場合、動作パラメータの並進成分と回転成分とを同時に制御することはできない。しかし、本実施形態のように、並進制御、前進制御、回転制御を順番に切り替えて実行することで、並進成分の誤差と回転成分の誤差とを切り分けて制御することができる。そのため、画像から十分に制御対象または目標位置の特徴を抽出できない場合においても、位置と姿勢のビジュアルサーボが実現できる。 If the feature of the controlled object or the target position cannot be sufficiently extracted from the image, the translational component and the rotational component of the motion parameter cannot be controlled at the same time. However, as in the present embodiment, the translational component error and the rotational component error can be separated and controlled by sequentially switching between the translation control, the forward control, and the rotation control. Therefore, even if the characteristics of the controlled object or the target position cannot be sufficiently extracted from the image, visual servoing of the position and orientation can be realized.

[第1の実施形態の変形例2]
制御対象としてエンドエフェクタ3であるドライバ、目標位置としてネジを用いたが、これに限る必要はない。エンドエフェクタ3として吸着ハンドを用いてもよいし、多指ハンドを用いてもよい。目標位置として、被把持部品や被組付け部品を用いてもよい。
[Modification 2 of the first embodiment]
Although the driver that is the end effector 3 is used as the controlled object and the screw is used as the target position, it is not necessary to be limited to this. A suction hand may be used as the end effector 3, or a multi-fingered hand may be used. A part to be gripped or a part to be assembled may be used as the target position.

たとえば、図7の撮像装置1で撮像した画像71のように、制御対象としてエンドエフェクタ3である多指ハンド72、軸方向としてエンドエフェクタ3である多指ハンドの中心線74、目標位置として被把持部品73の中心位置75を用いてもよい。第1の実施形態と略同様に軸方向と目標位置との距離を近づけるように制御を行う。その後、エンドエフェクタ3である多指ハンドを前進し、閉じて、元の位置姿勢に戻ることで、被把持部品を正確に把持することができる。 For example, as in an image 71 captured by the imaging device 1 in FIG. 7, the control target is a multi-fingered hand 72 that is the end effector 3, the axial direction is a center line 74 of the multi-fingered hand that is the end effector 3, and the target position is a target position. A center position 75 of the gripping component 73 may be used. Control is performed so as to reduce the distance between the axial direction and the target position in substantially the same manner as in the first embodiment. After that, the multifingered hand, which is the end effector 3, is advanced, closed, and returned to its original position and posture, so that the part to be grasped can be accurately grasped.

また別の例として、図8で制御対象の制御位置と目標の軸方向とを画像から検出する場合の説明をする(位置検出及び方向検出)。81は撮像装置1で撮像した画像、82はエンドエフェクタ3である多指ハンドで把持した制御対象である組付け部品を表す。83は制御対象である組付け部品の中心を検出した制御位置、84は被組付け部品、85は被組付け部品に基づいて検出した目標の軸方向を表す。第1の実施形態と略同様に軸方向と制御位置との距離を近づけるように制御を行う。その後、エンドエフェクタ3である多指ハンドを前進し、開いて、元の位置姿勢に戻ることで、制御対象に制御位置を設定し、被制御対象に軸方向を設定した場合でも正確にタスクを実行できる。なお、本実施形態において、把持は、把握(例えば複数のフィンガーで掴んだり挟持すること)や、保持(例えば真空吸着パッドや電磁力を利用して吸着すること)という概念を含む。 As another example, the case of detecting the control position of the controlled object and the axial direction of the target from the image will be described with reference to FIG. 8 (position detection and direction detection). Reference numeral 81 denotes an image captured by the imaging device 1, and 82 denotes an assembly component that is a control target and is gripped by the multi-fingered hand that is the end effector 3. FIG. Reference numeral 83 denotes a control position at which the center of the assembly part to be controlled is detected, 84 the assembly target part, and 85 the target axial direction detected based on the assembly target part. Control is performed so as to reduce the distance between the axial direction and the control position in substantially the same manner as in the first embodiment. After that, the multifingered hand, which is the end effector 3, is moved forward, opened, and returned to its original position and orientation, so that the control position is set for the controlled object, and the task is accurately performed even when the axial direction is set for the controlled object. can run. In this embodiment, grasping includes concepts of grasping (for example, grasping or sandwiching with a plurality of fingers) and holding (for example, sucking using a vacuum suction pad or electromagnetic force).

[第1の実施形態の変形例3]
図示しない動作表示部を用いて、ロボットの動作を表示してもよい。以下、図9を用いて動作表示部の一例を説明する。図9において、91はユーザに提示する動作表示部の画面、92は画像取得部101から受け取った画像、93は軸方向取得部102から受け取った軸方向を表している。94は目標位置検出部103から受け取った目標位置、95は軸が動く方向と距離、96は制御ループを一時的に停止する際に押す一時停止ボタンを表している。97は制御ループを1回実行する際に押すステップ実行ボタン、98は一時停止している制御ループを再開する際に押す再開ボタンを表している。ボタン操作は図示しないUI機器(たとえば、マウス)によって行う。図9において、95は矢印の方向が軸の動く方向、矢印の長さが軸の動く距離を示している。ただし、軸が動く距離は数値(実寸単位、画素単位)であっても構わない。また、軸が動く方向と距離とは、両方表示してあっても良いし、いずれか一方のみ表示してあっても良い。
[Modification 3 of the first embodiment]
A motion display section (not shown) may be used to display the motion of the robot. An example of the operation display unit will be described below with reference to FIG. In FIG. 9, reference numeral 91 denotes the screen of the action display unit presented to the user, 92 denotes the image received from the image acquisition unit 101, and 93 denotes the axial direction received from the axial direction acquisition unit 102. FIG. Reference numeral 94 denotes the target position received from the target position detection unit 103, 95 denotes the direction and distance in which the axis moves, and 96 denotes a pause button that is pressed to temporarily stop the control loop. Reference numeral 97 denotes a step execution button that is pressed when executing the control loop once, and 98 denotes a restart button that is pressed when resuming the control loop that has been paused. Button operations are performed by a UI device (for example, a mouse) not shown. In FIG. 9, the direction of the arrow 95 indicates the direction of movement of the shaft, and the length of the arrow indicates the distance of movement of the shaft. However, the distance by which the axis moves may be a numerical value (actual size unit, pixel unit). Moreover, both the direction and the distance in which the axis moves may be displayed, or only one of them may be displayed.

まず、動作表示部は、画像取得部101、軸方向取得部102および目標位置検出部103から画像データ、軸方向データおよび目標位置データを受け取り、軸方向および目標位置を画像に重畳して表示する。また、動作表示部は、動作生成部104から位置姿勢データを受け取り、制御対象が移動する方向および距離を重畳して表示する。次に、ユーザが一時停止ボタン96を押した場合、制御部106はロボットアーム2の制御を一時停止する。ユーザがステップ実行ボタン97を押した場合、制御部106はロボットの制御を再開し、次にステップS108に到達した後、再度ロボットの制御を一時停止する。最後に、ユーザが再開ボタン98を押すと、制御部106はロボットの制御を再開する。 First, the motion display unit receives image data, axial direction data, and target position data from the image acquiring unit 101, the axial direction acquiring unit 102, and the target position detecting unit 103, and displays the axial direction and the target position superimposed on the image. . The motion display unit also receives the position and orientation data from the motion generation unit 104, and superimposes and displays the direction and distance of movement of the controlled object. Next, when the user presses the pause button 96 , the controller 106 pauses control of the robot arm 2 . When the user presses the step execution button 97, the control unit 106 resumes control of the robot, and after reaching step S108, suspends control of the robot again. Finally, when the user presses resume button 98, controller 106 resumes control of the robot.

このように、動作表示部を用いてロボットの動作を表示し、ロボットの動きを検出結果と共に確認しながら少しずつ動かすことで、制御や検出に必要なパラメータの調整や、問題が発生した時の原因解析を補助することができる。 In this way, the movement display unit is used to display the robot's movement, and by moving the robot little by little while confirming the detection result and the movement of the robot, it is possible to adjust the parameters necessary for control and detection, and to respond when a problem occurs. Can assist in root cause analysis.

[第1の実施形態の変形例4]
S101においてティーチングペンダントによる教示作業により設定した位置姿勢を取得したが、これに限る必要はない。たとえば、撮像装置1であるステレオカメラで俯瞰して撮像した画像に基づいて、ネジを検出しておおよその3次元位置を計測した結果に基づいて位置姿勢を求めてもよい。あるいは、CADデータのような3次元モデルを用いてシミュレータにより位置姿勢を設定してもよい。また、複数の目標位置をタスク実行する順番と共に設定してもよい。
[Modification 4 of the first embodiment]
Although the position and orientation set by the teaching operation using the teaching pendant are acquired in S101, the present invention is not limited to this. For example, the position and orientation may be obtained based on the result of detecting a screw and measuring its approximate three-dimensional position based on an image captured by a stereo camera, which is the imaging device 1 . Alternatively, the position and orientation may be set by a simulator using a three-dimensional model such as CAD data. Also, a plurality of target positions may be set together with the task execution order.

(第2の実施形態)
第2の実施形態では、第1の実施形態と同様に、ロボットに取り付けた撮像装置で、制御対象と目標位置とを撮像し、制御対象を目標位置まで誘導する。ただし、第2の実施形態では、光を投射する光投射装置と、光を投射した画像から目標であるネジが締結されている平面を計測する平面計測部とを備える点で第1の実施形態と異なる。目標であるネジが締結されている平面を計測することで、平面と軸方向とが決められた角度(例えば垂直)になるよう制御する作業を実現することができる。すなわち、目標位置における目標姿勢を求めることができる。このように目標位置と目標姿勢を求め、ロボットを制御することで、ロボットがエンドエフェクタであるドライバをネジに対して概略垂直に当ててネジを安定的に外すことができる。すなわち、ロボットによるタスクを安定的に行うことができる。
(Second embodiment)
In the second embodiment, as in the first embodiment, an imaging device attached to the robot images the controlled object and the target position, and guides the controlled object to the target position. However, the second embodiment differs from the first embodiment in that it includes a light projection device that projects light and a plane measurement unit that measures a target plane on which a screw is fastened from an image projected with light. different from By measuring the plane on which the target screw is fastened, it is possible to realize the work of controlling the plane and the axial direction to form a predetermined angle (for example, perpendicular). That is, the target posture at the target position can be obtained. By obtaining the target position and the target posture in this way and controlling the robot, the robot can stably remove the screw by applying the driver, which is an end effector, to the screw substantially perpendicularly. In other words, the task can be stably performed by the robot.

[装置の構成]
図10のブロック図により第2の実施形態の制御装置200を備えるロボットシステム2000の装置例を示す。ロボットシステム2000は、撮像装置1と、ロボットアーム2と、エンドエフェクタ3と、光投射装置4と、制御装置200とを備える。なお、撮像装置1、ロボットアーム2、エンドエフェクタ3は、第1の実施形態と略同様であるため、説明を省略する。
[Device configuration]
The block diagram of FIG. 10 shows an example of a robot system 2000 including the control device 200 of the second embodiment. The robot system 2000 includes an imaging device 1 , a robot arm 2 , an end effector 3 , a light projection device 4 and a control device 200 . Note that the imaging device 1, the robot arm 2, and the end effector 3 are substantially the same as those in the first embodiment, so description thereof will be omitted.

光投射装置4は、平面計測をする対象に特徴となる光を投射する装置である。たとえば、光投射装置4は、十字のラインレーザ光を投射するクロスラインレーザ投射機で構成され、制御部106から受け取った投射トリガによってレーザ光を投射する。 The light projection device 4 is a device for projecting characteristic light onto an object for planar measurement. For example, the light projection device 4 is configured by a cross-line laser projector that projects cross-shaped line laser light, and projects the laser light according to a projection trigger received from the control unit 106 .

制御装置200は、画像取得部101と、軸方向取得部102と、目標位置検出部103と、平面計測部201と、動作生成部202と、終了判断部105と、制御部106とを備える。なお、画像取得部101、軸方向取得部102、目標位置検出部103、終了判断部105、制御部106は、第1の実施形態と略同様であるため、説明を省略する。 The control device 200 includes an image acquisition unit 101 , an axial direction acquisition unit 102 , a target position detection unit 103 , a plane measurement unit 201 , a motion generation unit 202 , an end determination unit 105 and a control unit 106 . Note that the image acquisition unit 101, the axial direction acquisition unit 102, the target position detection unit 103, the end determination unit 105, and the control unit 106 are substantially the same as those in the first embodiment, so description thereof will be omitted.

平面計測部201は、画像取得部101から、レーザ光が投射された画像データを受け取り、画像データから平面の3次元の法線を検出し、目標平面のデータ(法線データ)を動作生成部202に送る。 The plane measurement unit 201 receives image data on which laser light is projected from the image acquisition unit 101, detects a three-dimensional normal line of the plane from the image data, and converts target plane data (normal line data) to a motion generation unit. 202.

動作生成部202は、軸方向取得部102、目標位置検出部103および平面計測部201から受け取った軸方向データ、目標位置データおよび法線データに基づいて、ロボットアーム2の先端部の動作を規定する位置姿勢を計算する。そして、計算した位置姿勢データを制御部106に送る。 The motion generator 202 defines the motion of the tip of the robot arm 2 based on the axial direction data, target position data, and normal line data received from the axial direction acquisition unit 102, target position detection unit 103, and plane measurement unit 201. Calculate the position and orientation of the Then, the calculated position and orientation data is sent to the control unit 106 .

[制御処理]
図11のフローチャートにより第2の実施形態の制御装置200およびロボットシステム2000による制御処理方法を説明する。ステップS101~ステップS105、ステップS107~S111は、それぞれ第1の実施形態と略同様であるため、説明を省略する。
[Control processing]
A control processing method by the control device 200 and the robot system 2000 of the second embodiment will be described with reference to the flowchart of FIG. Steps S101 to S105 and steps S107 to S111 are substantially the same as in the first embodiment, respectively, so description thereof will be omitted.

(ステップS201)
ステップS201では、光投射装置4が、制御部106から投射トリガを受け取り、レーザ光を投射する。これにより、特徴のない平面でも安定して撮像装置1であるステレオカメラにより平面計測ができる。
(Step S201)
In step S201, the light projection device 4 receives a projection trigger from the control unit 106 and projects laser light. As a result, even a featureless plane can be stably measured by the stereo camera, which is the imaging device 1 .

(ステップS202)
ステップS202では、撮像装置1が、制御部106から撮像トリガを受け取り、撮像を行い、撮像した画像信号を画像取得部101に送る。
(Step S202)
In step S<b>202 , the imaging device 1 receives an imaging trigger from the control unit 106 , performs imaging, and sends an image signal of the imaged image to the image acquiring unit 101 .

(ステップS203)
ステップS203では、画像取得部101が、撮像装置1から画像信号を受け取り、平面計測部201に画像データを送る。
(Step S203)
In step S<b>203 , the image acquisition unit 101 receives an image signal from the imaging device 1 and sends image data to the plane measurement unit 201 .

(ステップS204)
ステップS204では、平面計測部201が、画像取得部101から画像データを受け取り、画像データから平面の法線を検出し、法線データを動作生成部202に送る。法線の検出は、たとえば、撮像装置1であるステレオカメラの左右の画像に基づいて、ステレオマッチングにより画像に投射されたレーザ領域の3次元点群を計測する。平面計測部201が、計測した3次元点群を主成分分析した第3主成分を計算することで、平面の法線を検出する。
(Step S204)
In step S<b>204 , the plane measurement unit 201 receives the image data from the image acquisition unit 101 , detects the normal line of the plane from the image data, and sends the normal line data to the motion generation unit 202 . Detection of the normal line is performed by, for example, measuring the three-dimensional point group of the laser area projected on the image by stereo matching, based on the left and right images of the stereo camera, which is the imaging device 1 . The plane measurement unit 201 detects the normal line of the plane by calculating the third principal component through principal component analysis of the measured three-dimensional point group.

(ステップS205)
ステップS205では、動作生成部202が、軸方向取得部102、目標位置検出部103および平面計測部201から軸方向データ、目標位置データおよび法線データを受け取り、ロボットアーム2の先端部の動作を規定する位置姿勢を計算する。また、動作生成部202が位置姿勢データを制御部106に送る。
(Step S205)
In step S205, the motion generation unit 202 receives axial direction data, target position data and normal line data from the axial direction acquisition unit 102, the target position detection unit 103 and the plane measurement unit 201, and calculates the motion of the tip of the robot arm 2. Calculate the specified pose. Also, the motion generation unit 202 sends the position and orientation data to the control unit 106 .

以下、動作生成の一例を説明する。本実施形態では、ネジが締結されている平面に対して、エンドエフェクタ3であるドライバの軸をおおよそ垂直に当てるように制御する。エンドエフェクタ座標系44をロボット座標系41で表すと、式8となる。 An example of motion generation will be described below. In this embodiment, the shaft of the driver, which is the end effector 3, is controlled so as to be applied approximately perpendicularly to the plane on which the screw is fastened. When the end effector coordinate system 44 is represented by the robot coordinate system 41, Equation 8 is obtained.

Figure 0007323993000008
Figure 0007323993000008

また、撮像装置座標系43で計測した平面姿勢Oをロボット座標系41で表すと、式9となる。 Further, when the planar orientation O measured by the imaging device coordinate system 43 is represented by the robot coordinate system 41, Equation 9 is obtained.

Figure 0007323993000009
Figure 0007323993000009

ドライバ軸を平面に対して垂直に当てるように制御するため、エンドエフェクタ座標系44の位置成分はそのままに、姿勢成分のz軸を平面の法線とおおよそ一致させる。平面の法線を目標姿勢として、姿勢成分のz軸方向が目標姿勢となるよう求めたドライバ位置姿勢を初期位置姿勢として第1の実施形態と略同様の動作生成を行う。 In order to control the driver axis so that it hits the plane perpendicularly, the position component of the end effector coordinate system 44 is left as is, and the z-axis of the attitude component is roughly aligned with the normal to the plane. With the normal to the plane as the target orientation, the driver position and orientation obtained so that the z-axis direction of the orientation component is the target orientation is used as the initial position and orientation, and substantially the same motion generation as in the first embodiment is performed.

このようにすることで、エンドエフェクタ3を前進させたときに、ネジが締結されている平面に対して、エンドエフェクタ3であるドライバの軸をおおよそ垂直に当てるように制御できる。なお、本実施形態では、平面計測部201が、S101の初期化後に1度だけ平面計測を行ったが、これに限る必要はない。平面計測部201が、S205である動作生成の直前に平面計測を行ってもよいし、平面計測部201および動作生成部202がS110であるタスク実行直前に平面計測および動作生成を再度行ってもよい。 In this way, when the end effector 3 is moved forward, it is possible to control the shaft of the driver, which is the end effector 3, to hit the plane on which the screw is fastened approximately perpendicularly. Note that in the present embodiment, the plane measurement unit 201 performs plane measurement only once after the initialization in S101, but it is not necessary to limit to this. The plane measurement unit 201 may perform the plane measurement immediately before the motion generation in S205, or the plane measurement unit 201 and the motion generation unit 202 may perform the plane measurement and motion generation again immediately before the task execution in S110. good.

[効果]
本実施形態によれば、平面計測をすることで、制御対象に関連付けられた軸方向と平面との角度を制御するようビジュアルサーボを実行できる。その結果、目標位置における制御対象の姿勢が重要なタスクを実現できる。
[effect]
According to this embodiment, by performing plane measurement, visual servo can be executed to control the angle between the axial direction associated with the control target and the plane. As a result, a task in which the attitude of the controlled object at the target position is important can be realized.

[第2の実施形態の変形例1]
S204においてレーザ光が投影された画像を用いて平面計測を行ったが、これに限る必要はない。たとえば、平面にある模様を使ってもよいし、プロジェクタによってパターンを投影してもよいし、撮像装置1としてDepthカメラを用いてもよい。
[Modification 1 of Second Embodiment]
Although the plane measurement is performed using the image projected by the laser beam in S204, it is not necessary to limit to this. For example, a pattern on a plane may be used, a pattern may be projected by a projector, or a depth camera may be used as the imaging device 1 .

(第3の実施形態)
第3の実施形態では、第1の実施形態と同様に、ロボットに取り付けた撮像装置で、制御対象と目標位置とを撮像し、制御対象を目標位置まで誘導する。ただし、第3の実施形態では、誘導した結果をキャリブレーション値に反映する点で第1の実施形態と異なる。ここで、キャリブレーション値とは、撮像装置1とロボットアーム2とエンドエフェクタ3との位置姿勢関係を表すパラメータのことである。キャリブレーション値の誤差が大きいほどビジュアルサーボの動作収束に時間がかかるが、本実施形態の方法を用いることで素早く収束させることができる。
(Third embodiment)
In the third embodiment, as in the first embodiment, an imaging device attached to the robot images the controlled object and the target position, and guides the controlled object to the target position. However, the third embodiment differs from the first embodiment in that the derived result is reflected in the calibration value. Here, the calibration value is a parameter representing the position and orientation relationship among the imaging device 1 , the robot arm 2 and the end effector 3 . The greater the error in the calibration value, the longer it takes for the visual servo operation to converge, but the method of the present embodiment can quickly converge.

[装置の構成]
図12のブロック図により第3の実施形態の制御装置300を備えるロボットシステム3000の装置例を示す。ロボットシステム3000は、撮像装置1と、ロボットアーム2と、エンドエフェクタ3と、制御装置300とを備える。なお、撮像装置1、ロボットアーム2、エンドエフェクタ3は、第1の実施形態と略同様であるため、説明を省略する。
[Device configuration]
The block diagram of FIG. 12 shows an example of a robot system 3000 including the control device 300 of the third embodiment. A robot system 3000 includes an imaging device 1 , a robot arm 2 , an end effector 3 , and a control device 300 . Note that the imaging device 1, the robot arm 2, and the end effector 3 are substantially the same as those in the first embodiment, so description thereof will be omitted.

制御装置300は、画像取得部101と、軸方向取得部102と、目標位置検出部103と、動作生成部301と、キャリブレーション値補正部302と、キャリブレーション値保存部303と、終了判断部105と、制御部106とを備える。なお、画像取得部101、軸方向取得部102、目標位置検出部103、終了判断部105、制御部106は、第1の実施形態と略同様であるため、説明を省略する。 The control device 300 includes an image acquisition unit 101, an axial direction acquisition unit 102, a target position detection unit 103, a motion generation unit 301, a calibration value correction unit 302, a calibration value storage unit 303, and an end determination unit. 105 and a control unit 106 . Note that the image acquisition unit 101, the axial direction acquisition unit 102, the target position detection unit 103, the end determination unit 105, and the control unit 106 are substantially the same as those in the first embodiment, so description thereof will be omitted.

動作生成部301は、軸方向取得部102、目標位置検出部103およびキャリブレーション値保存部303から受け取った軸方向データ、目標位置データおよびキャリブレーション値に基づいてロボットアーム2の先端部の動作を規定する位置姿勢を計算する。そして、位置姿勢データを制御部106およびキャリブレーション値補正部302に送る。 The motion generator 301 generates the motion of the tip of the robot arm 2 based on the axial direction data, the target position data, and the calibration values received from the axial direction acquisition unit 102, the target position detection unit 103, and the calibration value storage unit 303. Calculate the specified pose. Then, the position/orientation data is sent to the control unit 106 and the calibration value correction unit 302 .

キャリブレーション値補正部302は、動作生成部301から位置姿勢データを受け取り、キャリブレーション値を補正し、補正したキャリブレーション値をキャリブレーション値保存部303に送る。 The calibration value correction unit 302 receives the position and orientation data from the motion generation unit 301 , corrects the calibration values, and sends the corrected calibration values to the calibration value storage unit 303 .

キャリブレーション値保存部303は、キャリブレーション値補正部302からキャリブレーション値を受け取り、保存する。また、キャリブレーション値保存部303は、動作生成部301にキャリブレーション値を送る。たとえば、キャリブレーション値保存部303はメモリから構成される。 The calibration value storage unit 303 receives and stores the calibration values from the calibration value correction unit 302 . Also, the calibration value storage unit 303 sends the calibration value to the motion generation unit 301 . For example, the calibration value storage unit 303 is composed of memory.

[制御処理]
図13のフローチャートにより第3の実施形態の制御装置300およびロボットシステム3000による制御処理方法を説明する。ステップS101~ステップS105、ステップS107~S111は、それぞれ第1の実施形態と略同様であるため、説明を省略する。
[Control processing]
A control processing method by the control device 300 and the robot system 3000 of the third embodiment will be described with reference to the flowchart of FIG. Steps S101 to S105 and steps S107 to S111 are substantially the same as in the first embodiment, respectively, so description thereof will be omitted.

(ステップS301)
ステップS301では、動作生成部301が、軸方向取得部102、目標位置検出部103およびキャリブレーション値保存部303から軸方向データ、目標位置データおよびキャリブレーション値を受け取る。動作生成部301は受け取ったキャリブレーション値を用いて実施形態1と略同様にロボットアーム2の先端部の動作を規定する位置姿勢を計算する。また、動作生成部301が位置姿勢データを制御部106およびキャリブレーション値補正部302に送る。
(Step S301)
In step S<b>301 , the motion generation unit 301 receives axial direction data, target position data and calibration values from the axial direction acquisition unit 102 , target position detection unit 103 and calibration value storage unit 303 . The motion generation unit 301 uses the received calibration values to calculate the position and orientation that define the motion of the tip of the robot arm 2 in substantially the same manner as in the first embodiment. Also, the motion generation unit 301 sends the position and orientation data to the control unit 106 and the calibration value correction unit 302 .

(ステップS302)
ステップS302では、キャリブレーション値補正部302が、動作生成部301から動作生成部301により生成された結果(位置姿勢データ)を受け取り、キャリブレーション値の補正を行う。そして、補正したキャリブレーション値をキャリブレーション値保存部303に送る。ビジュアルサーボを実行している中でキャリブレーション値の補正を行うことで、徐々に誤差を低減していくことができる。補正するキャリブレーション値は、ロボットアーム2の先端部と撮像装置1であるカメラとの位置姿勢の関係性を表す変換行列G でもよいし、撮像装置1であるカメラとエンドエフェクタ3であるドライバとの位置姿勢の関係性を表す変換行列Hでもよい。本実施形態では、変換行列Gを補正する。補正後の変換行列をG'とすると、式5より式10が成り立つ。
(Step S302)
In step S302, the calibration value correction unit 302 receives the result (position/orientation data) generated by the motion generation unit 301 from the motion generation unit 301, and corrects the calibration values. Then, the corrected calibration value is sent to the calibration value storage unit 303 . By correcting the calibration value while executing visual servo, the error can be gradually reduced. The calibration value to be corrected may be a transformation matrix G representing the relationship in position and orientation between the tip of the robot arm 2 and the camera as the imaging device 1, or the camera as the imaging device 1 and the driver as the end effector 3. may be a transformation matrix H representing the relationship between the positions and orientations of . In this embodiment, the transformation matrix G is corrected. Assuming that the transformation matrix after correction is G′, Equation 10 holds from Equation 5.

Figure 0007323993000010
Figure 0007323993000010

(ステップS303)
ステップS303では、キャリブレーション値保存部303が、キャリブレーション値補正部302から補正されたキャリブレーション値を受け取り保存する。
(Step S303)
In step S303, the calibration value storage unit 303 receives and stores the corrected calibration value from the calibration value correction unit 302. FIG.

[効果]
本実施形態によれば、制御対象を制御すると同時にキャリブレーション値を補正することで、キャリブレーション値の誤差を徐々に小さくできる。その結果、次のビジュアルサーボ実行時にはより素早く制御を終了することができる。
[effect]
According to this embodiment, by correcting the calibration value while controlling the controlled object, the error in the calibration value can be gradually reduced. As a result, the control can be finished more quickly when the next visual servo is executed.

[第3の実施形態の変形例1]
S303においてキャリブレーション値のみを保存したが、これに限る必要はない。たとえば、現在のロボット位置姿勢とキャリブレーション値との組を保存してもよいし、教示作業により設定した初期位置姿勢のIDとキャリブレーション値との組を保存してもよい。これにより、ロボットの位置姿勢に依存するようなキャリブレーション誤差が存在する場合でも、各位置姿勢において誤差を低減することができる。
[Modification 1 of the third embodiment]
Although only the calibration values are saved in S303, this need not be the case. For example, a set of the current robot position/orientation and calibration values may be saved, or a set of an initial position/orientation ID set by teaching work and calibration values may be saved. As a result, even if there is a calibration error that depends on the position and orientation of the robot, the error can be reduced for each position and orientation.

[ハードウェア構成]
図2、図10、図12に示した制御装置100、200、300は、一般のPC(パーソナルコンピュータ)を用いて実現することができる。制御装置100、200、300において各部の機能をPCのCPUに実行させるためのコンピュータプログラムやデータをハードディスク装置に格納しておく。CPUは、ハードディスク装置に格納されているコンピュータプログラムやデータを適宜RAM等のメモリにロードし、該コンピュータプログラムやデータを用いて処理を実行できる。これにより、結果としてPCは、制御装置100、200、300の機能を実現することができる。
[Hardware configuration]
The control devices 100, 200 and 300 shown in FIGS. 2, 10 and 12 can be implemented using a general PC (personal computer). Computer programs and data for causing the CPU of the PC to execute the function of each unit in the control devices 100, 200, and 300 are stored in the hard disk device. The CPU can appropriately load computer programs and data stored in the hard disk device into a memory such as a RAM and execute processing using the computer programs and data. As a result, the PC can implement the functions of the control devices 100 , 200 , and 300 .

[その他の変形例1]
すべての実施形態において、撮像装置1として2台のグレースケールカメラを用いたが、これに限る必要はない。3台以上のグレースケールカメラを用いてもよいし、RGBのカラーカメラを用いてもよいし、Depthカメラを用いてもよい。
[Other modification 1]
Although two grayscale cameras are used as the imaging device 1 in all the embodiments, it is not necessary to be limited to this. Three or more grayscale cameras, RGB color cameras, or depth cameras may be used.

[その他の変形例2]
すべての実施形態において、ロボットアーム2として6軸ロボットを用いたが、これに限る必要はない。その他の多関節ロボットやパラレルリンクロボットでもよいし、直交ロボットでもよい。
[Other modification 2]
Although a six-axis robot is used as the robot arm 2 in all the embodiments, it is not necessary to be limited to this. Other articulated robots, parallel link robots, or orthogonal robots may be used.

[その他の変形例3]
第1の実施形態において、エンドエフェクタ3であるドライバとネジとの接触の検知に近接センサを用いたが、これに限る必要はない。画像に基づいて検知してもよいし、距離センサを用いてもよいし、力覚センサを用いてもよい。
[Other modification 3]
In the first embodiment, the proximity sensor is used to detect the contact between the driver, which is the end effector 3, and the screw, but it is not necessary to be limited to this. Detection may be performed based on an image, a distance sensor may be used, or a force sensor may be used.

<実施形態の効果>
第1の実施形態によれば、画像中の軸方向および目標位置からビジュアルサーボによるロボット制御を実現することができる。その結果、キャリブレーション作業の負荷を低減しながら、画像から十分に特徴を抽出できない場合においても、高精度にタスクを実行できる。
<Effects of Embodiment>
According to the first embodiment, robot control by visual servo can be realized from the axial direction and the target position in the image. As a result, the task can be performed with high accuracy even when sufficient features cannot be extracted from the image while reducing the load of the calibration work.

第2の実施形態によれば、平面計測をすることで、制御対象に関連付けられた軸方向と平面との角度を制御するようビジュアルサーボを実行できる。その結果、目標位置における制御対象の姿勢が重要なタスクを実現できる。 According to the second embodiment, by performing a plane measurement, visual servoing can be performed to control the angle between the axial direction associated with the controlled object and the plane. As a result, a task in which the attitude of the controlled object at the target position is important can be realized.

第3の実施形態によれば、制御対象を制御すると同時にキャリブレーション値を補正することで、キャリブレーション値の誤差を徐々に小さくできる。その結果、次のビジュアルサーボ実行時にはより素早く制御を終了することができる。 According to the third embodiment, by correcting the calibration value while controlling the controlled object, the error in the calibration value can be gradually reduced. As a result, the control can be finished more quickly when the next visual servo is executed.

<定義>
目標位置とはエンドエフェクタがタスクを実行する位置のことである。軸方向とは、制御対象と目標位置との位置姿勢関係を測るための制御対象に関連付けられた画像中の線分のことである。タスク動作とは、ロボットアーム及びエンドエフェクタを、事前に設定された動きで制御することである。動作パラメータとは、制御対象の制御量の成分のことである。キャリブレーション値とは、撮像装置とロボットアームとエンドエフェクタとの位置姿勢関係を表すパラメータのことである。
<Definition>
A target position is the position at which the end effector performs a task. The axial direction is a line segment in the image associated with the controlled object for measuring the position and orientation relationship between the controlled object and the target position. A task motion is to control a robot arm and an end effector with a preset motion. An operating parameter is a component of a controlled variable to be controlled. A calibration value is a parameter representing the position/orientation relationship among an imaging device, a robot arm, and an end effector.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1000:ロボットシステム、1:撮像装置、2:ロボットアーム、3:エンドエフェクタ、100:制御装置、101:画像取得部、102:軸方向取得部、103:目標位置検出部、104:動作生成部、105:終了判断部、106:制御部 1000: robot system, 1: imaging device, 2: robot arm, 3: end effector, 100: control device, 101: image acquisition unit, 102: axial direction acquisition unit, 103: target position detection unit, 104: motion generation unit , 105: end determination unit, 106: control unit

Claims (14)

ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する画像取得手段と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する進行方向取得手段と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する目標位置検出手段と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置。
An imaging device attached to a robot acquires an image of a controlled object whose rotation can be controlled by the robot and a target position, which is a destination of movement of the controlled object, and is a target position in a concave portion. an image acquisition means;
A progression for acquiring a two-dimensional direction in the image representing the traveling direction of the rotational axis of the controlled object and along the rotational axis of the controlled object, based on the edges of the controlled object in the image. a direction acquisition means;
target position detection means for detecting a two-dimensional position in the image representing the target position from the image ;
The target position exists on the extension of the traveling direction of the rotating shaft, and the controlled object performs an operation of changing the attitude of the controlled object so that the traveling direction of the rotating shaft and the depth direction of the recess match. a motion generation means for generating a motion of moving the controlled object closer to the target position along the traveling direction of the controlled object whose attitude has been changed, which is generated before reaching the target position;
a control means for controlling the controlled object according to the operation;
with
The motion generating means obtains a control amount of the posture of the control object that brings the line segment along the two-dimensional direction closer to the two-dimensional position, and updates the posture of the control object based on the control amount. A control device characterized by:
前記進行方向および前記目標位置に基づいて前記制御手段による制御を終了するか否かを判断する終了判断手段をさらに備えることを特徴とする請求項1に記載の制御装置。 2. The control device according to claim 1, further comprising end determination means for determining whether or not to end the control by said control means based on said traveling direction and said target position. 前記動作生成手段は、前記進行方向および前記目標位置に基づいて前記制御対象の制御量の成分である動作パラメータを切り替え、当該切り替えた動作パラメータに従って前記制御対象の動作を生成することを特徴とする請求項1に記載の制御装置。 The motion generating means switches motion parameters, which are components of the control amount of the controlled object, based on the traveling direction and the target position, and generates the motion of the controlled object according to the switched motion parameters. A control device according to claim 1 . 前記目標位置と、前記進行方向と、前記制御対象の軸が移動する方向または距離の少なくとも一方を、前記画像に重畳して表示する動作表示手段をさらに備えることを特徴とする請求項1に記載の制御装置。 2. The apparatus according to claim 1, further comprising operation display means for superimposing and displaying at least one of the target position, the traveling direction, and the direction or distance in which the axis to be controlled moves on the image. controller. 目標平面を計測する平面計測手段をさらに備え、
前記動作生成手段は、前記目標平面に基づいて、前記凹部の深さ方向を求めることを特徴とする請求項1に記載の制御装置。
Further comprising plane measurement means for measuring the target plane,
2. The control device according to claim 1, wherein the motion generating means obtains the depth direction of the concave portion based on the target plane.
前記撮像装置と、前記ロボットが有するロボットアームと、前記制御対象との位置姿勢関係を表すパラメータであるキャリブレーション値を保存するキャリブレーション値保存手段と、
前記キャリブレーション値および前記動作生成手段により生成された結果に基づいて、前記キャリブレーション値を補正するキャリブレーション値補正手段と、
をさらに備えることを特徴とする請求項1に記載の制御装置。
calibration value storage means for storing a calibration value, which is a parameter representing a position and orientation relationship between the imaging device, a robot arm of the robot, and the controlled object;
calibration value correcting means for correcting the calibration value based on the calibration value and the result generated by the action generating means;
2. The controller of claim 1, further comprising: a.
前記制御対象は、前記ロボットアームに取り付けられたエンドエフェクタであることを特徴とする請求項6に記載の制御装置。 7. The control device according to claim 6, wherein the controlled object is an end effector attached to the robot arm. 前記凹部はネジ穴であり、前記制御対象はドライバであることを特徴とする請求項1に記載の制御装置。 2. The control device according to claim 1, wherein the recess is a screw hole, and the controlled object is a driver. ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標であって凹部にある前記目標を撮像した画像を取得する画像取得手段と、
前記画像から前記制御対象に関連付けられた制御位置を表す該画像中の2次元位置を検出する位置検出手段と、
前記画像における前記制御対象のエッジに基づいて、前記目標に関連付けられた前記制御対象の回転軸に沿った進行方向を表す該画像中の2次元方向を検出する方向検出手段と、
前記回転軸の進行方向及び前記制御位置に基づいて、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が目標位置に達する前に生成し、さらに姿勢を変更した制御対象の回転軸の進行方向に沿って前記制御対象を前記制御位置に近付ける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置。
an image acquisition means for acquiring an image of a controlled object whose rotation can be controlled by the robot and a target, which is a destination of movement of the controlled object and which is located in a concave portion, by an imaging device attached to the robot;
position detection means for detecting from the image a two-dimensional position in the image representing a control position associated with the control object;
direction detection means for detecting a two-dimensional direction in the image representing a direction of travel along an axis of rotation of the controlled object associated with the target, based on edges of the controlled object in the image;
The controlled object moves to a target position by changing the attitude of the controlled object so that the advancing direction of the rotating shaft and the depth direction of the concave portion are aligned based on the advancing direction of the rotating shaft and the control position. a motion generating means for generating a motion for bringing the controlled object closer to the control position along the advancing direction of the rotation axis of the controlled object whose attitude has been changed;
a control means for controlling the controlled object according to the operation;
with
The motion generating means obtains a control amount of the posture of the control object that brings the line segment along the two-dimensional direction closer to the two-dimensional position, and updates the posture of the control object based on the control amount. A control device characterized by:
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する画像取得手段と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する進行方向取得手段と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する目標位置検出手段と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新する制御装置と、
前記ロボットと、
前記撮像装置と、
を備えることを特徴とするロボットシステム。
An imaging device attached to a robot acquires an image of a controlled object whose rotation can be controlled by the robot and a target position, which is a destination of movement of the controlled object, and is a target position in a concave portion. an image acquisition means;
A progression for acquiring a two-dimensional direction in the image representing the traveling direction of the rotational axis of the controlled object and along the rotational axis of the controlled object, based on the edges of the controlled object in the image. a direction acquisition means;
target position detection means for detecting a two-dimensional position in the image representing the target position from the image ;
The target position exists on the extension of the traveling direction of the rotating shaft, and the controlled object performs an operation of changing the attitude of the controlled object so that the traveling direction of the rotating shaft and the depth direction of the recess match. a motion generation means for generating a motion of moving the controlled object closer to the target position along the traveling direction of the controlled object whose attitude has been changed, which is generated before reaching the target position;
a control means for controlling the controlled object according to the operation;
with
The motion generating means obtains a control amount of the attitude of the controlled object that brings the line segment along the two-dimensional direction closer to the two-dimensional position, and performs control for updating the attitude of the controlled object based on the control amount. a device;
the robot;
the imaging device;
A robot system comprising:
制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する工程と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する工程と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する工程と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置の動作方法。
A method of operating a controller, comprising:
An imaging device attached to a robot acquires an image of a controlled object whose rotation can be controlled by the robot and a target position, which is a destination of movement of the controlled object, and is a target position in a concave portion. process and
obtaining a two-dimensional direction in the image representing the direction of travel of the axis of rotation of the controlled object and along the axis of rotation of the controlled object, based on the edges of the controlled object in the image; and,
detecting from the image a two-dimensional position in the image representing the target position;
The target position exists on the extension of the traveling direction of the rotating shaft, and the controlled object performs an operation of changing the attitude of the controlled object so that the traveling direction of the rotating shaft and the depth direction of the recess match. a step of generating a motion for bringing the controlled object closer to the target position along a traveling direction of the controlled object generated before reaching the target position and having a changed attitude;
a step of controlling the controlled object according to the operation;
has
In the step of generating the motion, a control amount of the attitude of the controlled object that brings the line segment along the two-dimensional direction closer to the two-dimensional position is obtained, and the attitude of the controlled object is updated based on the control amount. A method of operating a control device, characterized by:
制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標であって凹部にある前記目標を撮像した画像を取得する工程と、
前記画像から前記制御対象に関連付けられた制御位置を表す該画像中の2次元位置を検出する工程と、
前記画像における前記制御対象のエッジに基づいて、前記目標に関連付けられた前記制御対象の回転軸に沿った進行方向を表す該画像中の2次元方向を検出する工程と、
前記回転軸の進行方向及び前記制御位置に基づいて、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が目標位置に達する前に生成し、さらに姿勢を変更した制御対象の回転軸の進行方向に沿って前記制御対象を前記制御位置に近付ける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置の動作方法。
A method of operating a controller, comprising:
obtaining an image of a controlled object whose rotation can be controlled by the robot and a target to which the controlled object moves and which is located in a concave portion, by an imaging device attached to the robot;
detecting from the image a two-dimensional position in the image representing a control position associated with the controlled object;
Detecting a two-dimensional direction in the image representing a direction of travel along an axis of rotation of the controlled object associated with the target based on edges of the controlled object in the image;
The controlled object moves to a target position by changing the attitude of the controlled object so that the advancing direction of the rotating shaft and the depth direction of the concave portion are aligned based on the advancing direction of the rotating shaft and the control position. a step of generating a motion for bringing the controlled object closer to the control position along the advancing direction of the rotation axis of the controlled object generated before reaching and further changing the attitude;
a step of controlling the controlled object according to the operation;
has
In the step of generating the motion, a control amount of the attitude of the controlled object that brings the line segment along the two-dimensional direction closer to the two-dimensional position is obtained, and the attitude of the controlled object is updated based on the control amount. A method of operating a control device, characterized by:
制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する工程と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する工程と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する工程と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新する制御装置の動作方法を、コンピュータに実行させるためのプログラム。
A method of operating a controller, comprising:
An imaging device attached to a robot acquires an image of a controlled object whose rotation can be controlled by the robot and a target position, which is a destination of movement of the controlled object, and is a target position in a concave portion. process and
obtaining a two-dimensional direction in the image representing the direction of travel of the axis of rotation of the controlled object and along the axis of rotation of the controlled object, based on the edges of the controlled object in the image; and,
detecting from the image a two-dimensional position in the image representing the target position;
The target position exists on the extension of the traveling direction of the rotating shaft, and the controlled object performs an operation of changing the attitude of the controlled object so that the traveling direction of the rotating shaft and the depth direction of the recess match. a step of generating a motion for bringing the controlled object closer to the target position along a traveling direction of the controlled object generated before reaching the target position and having a changed attitude;
a step of controlling the controlled object according to the operation;
has
In the step of generating the motion, a control amount of the attitude of the controlled object that brings the line segment along the two-dimensional direction closer to the two-dimensional position is obtained, and the attitude of the controlled object is updated based on the control amount. A program that causes a computer to execute the operation method of the control device.
制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標であって凹部にある前記目標を撮像した画像を取得する工程と、
前記画像から前記制御対象に関連付けられた制御位置を表す該画像中の2次元位置を検出する工程と、
前記画像における前記制御対象のエッジに基づいて、前記目標に関連付けられた前記制御対象の回転軸に沿った進行方向を表す該画像中の2次元方向を検出する工程と、
前記回転軸の進行方向及び前記制御位置に基づいて、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が目標位置に達する前に生成し、さらに姿勢を変更した制御対象の回転軸の進行方向に沿って前記制御対象を前記制御位置に近付ける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新する制御装置の動作方法を、コンピュータに実行させるためのプログラム。
A method of operating a controller, comprising:
obtaining an image of a controlled object whose rotation can be controlled by the robot and a target to which the controlled object moves and which is located in a concave portion, by an imaging device attached to the robot;
detecting from the image a two-dimensional position in the image representing a control position associated with the controlled object;
Detecting a two-dimensional direction in the image representing a direction of travel along an axis of rotation of the controlled object associated with the target based on edges of the controlled object in the image;
The controlled object moves to a target position by changing the attitude of the controlled object so that the advancing direction of the rotating shaft and the depth direction of the concave portion are aligned based on the advancing direction of the rotating shaft and the control position. a step of generating a motion for bringing the controlled object closer to the control position along the advancing direction of the rotation axis of the controlled object generated before reaching and further changing the attitude;
a step of controlling the controlled object according to the operation;
has
In the step of generating the motion, a control amount of the attitude of the controlled object that brings the line segment along the two-dimensional direction closer to the two-dimensional position is obtained, and the attitude of the controlled object is updated based on the control amount. A program that causes a computer to execute the operation method of the control device.
JP2018182701A 2017-10-19 2018-09-27 Control device, robot system, operating method and program for control device Active JP7323993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/163,745 US11358290B2 (en) 2017-10-19 2018-10-18 Control apparatus, robot system, method for operating control apparatus, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017202858 2017-10-19
JP2017202858 2017-10-19

Publications (3)

Publication Number Publication Date
JP2019077026A JP2019077026A (en) 2019-05-23
JP2019077026A5 JP2019077026A5 (en) 2021-11-04
JP7323993B2 true JP7323993B2 (en) 2023-08-09

Family

ID=66627183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182701A Active JP7323993B2 (en) 2017-10-19 2018-09-27 Control device, robot system, operating method and program for control device

Country Status (1)

Country Link
JP (1) JP7323993B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110253586A (en) * 2019-07-12 2019-09-20 珠海优特电力科技股份有限公司 Electrical anti-error operates device and method
US20230089195A1 (en) * 2020-03-31 2023-03-23 Nec Corporation Control device, control system, control method, and recording medium with control program recorded thereon
CN116348257A (en) * 2020-10-30 2023-06-27 松下知识产权经营株式会社 Robot control method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331255A (en) 2005-05-30 2006-12-07 Daihen Corp Control method for industrial robot
JP2009285778A (en) 2008-05-29 2009-12-10 Toyota Industries Corp Posture detecting system of robot hand
WO2011001569A1 (en) 2009-07-02 2011-01-06 パナソニック株式会社 Robot, control device for robot arm, and control program for robot arm
JP2014161950A (en) 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd Robot system, robot control method, and robot calibration method
JP2015000454A (en) 2013-06-17 2015-01-05 キヤノン株式会社 Robot device and robot control method
JP2015112688A (en) 2013-12-12 2015-06-22 株式会社Ihi Robot remote control system and robot remote control method
JP2016000442A (en) 2014-06-12 2016-01-07 セイコーエプソン株式会社 Robot, robotic system, and control device
US20160243704A1 (en) 2013-10-25 2016-08-25 Aleksandar Vakanski Image-based trajectory robot programming planning approach
JP2016159406A (en) 2015-03-03 2016-09-05 キヤノン株式会社 Robot control device, robot control method and robot system
US20170154219A1 (en) 2014-06-17 2017-06-01 Yujin Robot Co., Ltd. Apparatus of recognizing position of mobile robot using direct tracking and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61279481A (en) * 1985-06-01 1986-12-10 株式会社安川電機 Method of detecting and controlling starting point of operation of robot
JP3998741B2 (en) * 1995-07-12 2007-10-31 ファナック株式会社 Robot movement control method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331255A (en) 2005-05-30 2006-12-07 Daihen Corp Control method for industrial robot
JP2009285778A (en) 2008-05-29 2009-12-10 Toyota Industries Corp Posture detecting system of robot hand
WO2011001569A1 (en) 2009-07-02 2011-01-06 パナソニック株式会社 Robot, control device for robot arm, and control program for robot arm
JP2014161950A (en) 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd Robot system, robot control method, and robot calibration method
JP2015000454A (en) 2013-06-17 2015-01-05 キヤノン株式会社 Robot device and robot control method
US20160243704A1 (en) 2013-10-25 2016-08-25 Aleksandar Vakanski Image-based trajectory robot programming planning approach
JP2015112688A (en) 2013-12-12 2015-06-22 株式会社Ihi Robot remote control system and robot remote control method
JP2016000442A (en) 2014-06-12 2016-01-07 セイコーエプソン株式会社 Robot, robotic system, and control device
US20170154219A1 (en) 2014-06-17 2017-06-01 Yujin Robot Co., Ltd. Apparatus of recognizing position of mobile robot using direct tracking and method thereof
JP2016159406A (en) 2015-03-03 2016-09-05 キヤノン株式会社 Robot control device, robot control method and robot system

Also Published As

Publication number Publication date
JP2019077026A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
CN111482959B (en) Automatic hand-eye calibration system and method of robot motion vision system
TWI672206B (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
JP5471355B2 (en) 3D visual sensor
US11358290B2 (en) Control apparatus, robot system, method for operating control apparatus, and storage medium
JP5850962B2 (en) Robot system using visual feedback
EP3392002A1 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP6188440B2 (en) Robot apparatus and robot control method
JP5606241B2 (en) Visual cognitive system and method for humanoid robot
JP5949242B2 (en) Robot system, robot, robot control apparatus, robot control method, and robot control program
JP6180086B2 (en) Information processing apparatus and information processing method
JP7323993B2 (en) Control device, robot system, operating method and program for control device
JP4844453B2 (en) Robot teaching apparatus and teaching method
EP3272473B1 (en) Teaching device and method for generating control information
JP6700726B2 (en) Robot controller, robot control method, robot control system, and computer program
JP7111114B2 (en) Information processing device, information processing method, and information processing system
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
US10279473B2 (en) Image processing device, image processing method, and computer program
JP2014144516A (en) Robot control device, robot system, robot, control method and program
WO2022092168A1 (en) Robot control device, and robot system
WO2016151667A1 (en) Teaching device and method for generating control information
CN117794704A (en) Robot control device, robot control system, and robot control method
JP2616225B2 (en) Relative positioning method
CN115397634A (en) Device for acquiring position of visual sensor in robot control coordinate system, robot system, method, and computer program
WO2023013739A1 (en) Robot control device, robot control system, and robot control method
WO2023013698A1 (en) Robot control device, robot control system, and robot control method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220729

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R151 Written notification of patent or utility model registration

Ref document number: 7323993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151