JP2003211382A - Robot control device - Google Patents

Robot control device

Info

Publication number
JP2003211382A
JP2003211382A JP2002007357A JP2002007357A JP2003211382A JP 2003211382 A JP2003211382 A JP 2003211382A JP 2002007357 A JP2002007357 A JP 2002007357A JP 2002007357 A JP2002007357 A JP 2002007357A JP 2003211382 A JP2003211382 A JP 2003211382A
Authority
JP
Japan
Prior art keywords
camera
work
image
robot
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002007357A
Other languages
Japanese (ja)
Inventor
Koji Okamoto
幸司 岡本
Takashi Naito
貴志 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Toyota Central R&D Labs Inc
Original Assignee
Denso Wave Inc
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc, Toyota Central R&D Labs Inc filed Critical Denso Wave Inc
Priority to JP2002007357A priority Critical patent/JP2003211382A/en
Publication of JP2003211382A publication Critical patent/JP2003211382A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve robustness related to visual recognition in controlling a robot arm by a visual servo. <P>SOLUTION: This robot control device 2 is composed of a CCD camera 12 mounted to the robot arm 1; a visual recognition device 13 for processing the photographed image data; a robot controller 11 for controlling the position attitude of the robot arm 1 on the basis of the position correction quantity from the visual recognition device 13; and a camera control device 14 for controlling a diaphragm adjusting mechanism, a focal distance fluctuating mechanism and a focus adjusting mechanism of the CCD camera 12. In photographing a work W by the visual service, the camera control device 14 controls the diaphragm adjusting mechanism to have the exposure conditions equivalent to those in storing target data, controls the focal distance fluctuating mechanism to settle the whole image of the work W within the visual field and controls the focus adjusting mechanism to photograph the work W in the focus equivalent to that in storing the target data. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、カメラの撮影画像
データに基づいて、ロボットアームの位置姿勢の視覚フ
ィードバック制御(いわゆるビジュアルサーボ)を行う
ようにしたロボット制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot controller for performing visual feedback control (so-called visual servo) of the position and orientation of a robot arm based on image data taken by a camera.

【0002】[0002]

【発明が解決しようとする課題】例えば組立用ロボット
等においては、例えばロボットアームによりワークを把
持する際に、視覚装置を用いてロボットアームを制御す
ることが行われている。この制御は、一般に、ワークか
ら比較的離れた所定位置にて、ロボットアームの手先部
に取付けたカメラによりそのワークを撮影し、その撮影
画像データからワークの絶対的な位置を検出し、その検
出位置にロボットアームを移動させてハンドでワークを
把持するというものであった。
For example, in an assembly robot or the like, when a work is gripped by a robot arm, the robot arm is controlled by using a visual device. This control is generally performed by taking a picture of the work with a camera attached to the tip of the robot arm at a predetermined position relatively far from the work, detecting the absolute position of the work from the taken image data, and detecting that position. The robot arm was moved to the position and the work was gripped by the hand.

【0003】ところが、このような制御方法では、位置
合せ精度が比較的低く、またカメラ座標系をロボット座
標系に変換する等の機器間のキャリブレーションが必要
となるために、非常に面倒な準備作業(パラメータの設
定)等を要し、さらには、撮影後にワークが動いてしま
った場合(あるいはワークが相対移動するような場合)
には、適用できなくなる等の不具合がある。
However, in such a control method, alignment accuracy is relatively low, and calibration between devices such as conversion of a camera coordinate system to a robot coordinate system is required, so that preparation is very troublesome. Work (parameter setting) etc. is required, and further, when the work moves after the shooting (or when the work moves relatively)
Has a problem that it cannot be applied.

【0004】そこで、近年では、ビジュアルサーボと称
される視覚フィードバック制御が注目されてきている。
この手法では、例えば教示時にロボットアームをワーク
を把持する直前の位置に移動させ、その際にロボットア
ームに取付けられたCCDカメラによりワークを撮影
し、そのワークの画像の特徴量を目標データとして記憶
しておく。そして、実作業時においては、常にCCDカ
メラによりワークを撮影し、その現在データを目標デー
タと比較してその誤差を0とするように、つまり教示時
と同一の見え方となるようにロボットアームの位置姿勢
を制御(フィードバック制御)することを繰返し、例え
ば誤差が0に収束したところで、ハンドによる把持動作
を実行するものである。
Therefore, in recent years, visual feedback control called visual servo has attracted attention.
In this method, for example, the robot arm is moved to a position immediately before gripping the work during teaching, the work is photographed by a CCD camera attached to the robot arm, and the feature amount of the work image is stored as target data. I'll do it. During actual work, the robot arm is used so that the work is always photographed by the CCD camera and the current data is compared with the target data to make the error zero, that is, the appearance is the same as at the time of teaching. The control of the position and orientation of (1) is repeated (feedback control), and when the error converges to 0, the gripping operation by the hand is executed.

【0005】尚、この場合、前記特徴量は、ワークに設
定された複数個(例えば8個)の特徴点(特定のエッジ
や穴、貼付されたマーカ等)を抽出して、その位置や向
きを検出することに基づいて求められ、カメラ座標によ
る三次元空間でのワークの位置及び姿勢を認識するもの
である。
In this case, the feature amount is obtained by extracting a plurality of (for example, eight) feature points (specific edges or holes, affixed markers, etc.) set on the work, and the positions and orientations thereof. The position and orientation of the work in the three-dimensional space are recognized by the camera coordinates.

【0006】このようなビジュアルサーボによる制御
は、従来のようないわば「見てから動く」方法とは異な
り、「見ながら動く」ものであるため、ロボットアーム
の迅速で正確な位置姿勢制御が行えると共に、ワークに
対する相対的な位置制御を行うものであるから、ロボッ
トの絶対的な座標への変換(キャリブレーション)が不
要となって、教示作業(準備作業)も簡単となり、ま
た、例えばコンベア上を移動してくるワークの把持や、
移動ロボットにより移動しながらのワークの把持など、
対象物が相対移動する場合にも適用できる利点がある。
Unlike the conventional method of "moving after seeing", the control by such a visual servo is "moving while seeing", so that quick and accurate position / orientation control of the robot arm can be performed. At the same time, since the position of the robot is controlled relative to the work, the conversion to the absolute coordinates of the robot (calibration) is unnecessary, teaching work (preparation work) is simplified, and, for example, on a conveyor. Gripping the moving workpiece,
For example, gripping a workpiece while moving with a mobile robot.
There is an advantage that it can be applied even when the object moves relatively.

【0007】しかしながら、従来のビジュアルサーボに
よる制御では、視覚認識に関するロバスト性(環境変化
に対する対象物の認識性)の面で改善の余地が残されて
いた。即ち、従来では、CCDカメラにおける撮影時の
光学的条件、つまり、視野の大きさ(焦点距離)、レン
ズのピント、絞り(露光条件)等が固定されていたた
め、例えばワークがロボットアームに対して相対移動し
ている場合、特にカメラがワークに比較的接近している
状態では、カメラの視野からワークの画像の一部あるい
は全部が外れてしまうことがあり、正確な現在データが
求められなくなったり、カメラがワークを見失ったりす
ることが起こり得た。
However, in the conventional control by the visual servo, there is still room for improvement in terms of robustness regarding visual recognition (recognition of an object with respect to environmental changes). That is, in the past, the optical conditions at the time of photographing with the CCD camera, that is, the size of the field of view (focal length), the focus of the lens, the diaphragm (exposure condition), etc., were fixed, so that, for example, the work piece with respect to the robot arm was fixed. When relatively moving, especially when the camera is relatively close to the work, part or all of the work image may be out of the field of view of the camera, making it impossible to obtain accurate current data. The camera could lose sight of the work.

【0008】また、カメラにより撮影されるワークの画
像がピントが合わずにぼけてしまうことも考えられ、こ
のような画像のぼけが起こると、特徴量の検出精度が低
下してしまうことになる。さらに、教示時(目標データ
の記憶時)に対して、環境の明るさが暗くなる等の周囲
光量の変化があると、やはり特徴量の検出精度が低下し
てしまう虞がある。
It is also conceivable that the image of the workpiece photographed by the camera will be out of focus and will be blurred, and if such image blurring occurs, the detection accuracy of the characteristic amount will be reduced. . Furthermore, if there is a change in the amount of ambient light such as when the environment becomes darker than when teaching (when target data is stored), the feature quantity detection accuracy may also decrease.

【0009】本発明は上記事情に鑑みてなされたもの
で、その目的は、いわゆるビジュアルサーボによりロボ
ットアームを制御するものにあって、視覚認識に関する
ロバスト性の向上を図ることができるロボット制御装置
を提供するにある。
The present invention has been made in view of the above circumstances, and an object thereof is to control a robot arm by a so-called visual servo, and to provide a robot control device capable of improving robustness regarding visual recognition. To provide.

【0010】[0010]

【課題を解決するための手段】従来のビジュアルサーボ
においては、カメラにおける撮影時の光学的条件、つま
り、視野の大きさ(焦点距離)、レンズのピント、絞り
(露光条件)等が固定されていた。これに対し、本発明
者は、カメラに備えられる光学系の調整機能を利用し、
その調整機能をビジュアルサーボのフィードバック系に
組入れ、カメラの光学系の調整を外部からの信号により
フィードバック制御することに着目し、本発明を成し遂
げたのである。
In the conventional visual servo, the optical condition at the time of photographing by the camera, that is, the size of the visual field (focal length), the focus of the lens, the aperture (exposure condition), etc. are fixed. It was On the other hand, the present inventor utilizes the adjustment function of the optical system provided in the camera,
The present invention has been accomplished with a focus on incorporating the adjusting function into a feedback system of a visual servo and performing feedback control of the adjustment of the optical system of the camera by a signal from the outside.

【0011】即ち、本発明は、いわゆるビジュアルサー
ボによりロボットアームを制御するものにあって、カメ
ラにより対象物を撮影した撮影画像データに基づいて、
そのカメラに備えられた光学系調整手段を制御するカメ
ラ制御手段を設けたところに特徴を有する(請求項1の
発明)。これによれば、周囲の光学的条件(環境)等が
変化した場合でも、カメラ制御手段が光学系調整手段を
制御することによって対応することができ、この結果、
視覚認識に関するロバスト性つまり環境変化に対する対
象物の認識性の向上を図ることができ、ひいては安定し
たビジュアルサーボを実現することができる。
That is, the present invention is for controlling a robot arm by a so-called visual servo, and based on photographed image data obtained by photographing an object by a camera,
It is characterized in that a camera control means for controlling the optical system adjusting means provided in the camera is provided (the invention of claim 1). According to this, even when the optical conditions (environment) of the surroundings are changed, the camera control means can deal with it by controlling the optical system adjusting means. As a result,
It is possible to improve the robustness of visual recognition, that is, the recognizability of an object with respect to environmental changes, and to realize stable visual servo.

【0012】尚、この場合、教示時と実作業時との間で
光学的条件が相違する場合に、画像処理上でソフトウエ
ア的に補正をかけることも考えられるが、それでは、画
像処理に時間がかかり、ビジュアルサーボの応答性が低
下する欠点がある。また、カメラが自らの光学系の調整
を自動で行う、例えば自動でレンズのピントを合わせる
オートフォーカスの機能や、周囲光の検出に基づいて絞
り量を自動で調整する機能を備えたものはあるが、この
ようなカメラが自らの判断に基づいて光学系の調整を行
うものでは、ビジュアルサーボによるロボットアームの
制御と無関係にカメラの光学系の制御が行われるため、
ビジュアルサーボと馴染むとは言い難く、ビジュアルサ
ーボによる制御を安定して行うといった点では不十分と
なる。
In this case, when the optical conditions differ between the teaching and the actual work, it may be possible to make a software correction in the image processing. However, there is a disadvantage that the response of the visual servo is deteriorated. In addition, some cameras have an automatic focus adjustment function that automatically adjusts the optical system of the camera, for example, an automatic focus function that automatically adjusts the focus of the lens and a function that automatically adjusts the aperture amount based on the detection of ambient light. However, in such a camera that adjusts the optical system based on its own judgment, the optical system of the camera is controlled independently of the control of the robot arm by the visual servo,
It is hard to say that it is compatible with the visual servo, and it is insufficient in terms of stable control by the visual servo.

【0013】より具体的には、カメラ制御手段の制御の
態様として、以下のものが考えられる。即ち、光学系調
整手段として焦点距離変動機構を備えるものにあって
は、対象物の画像全体がカメラの視野内に収まるように
焦点距離を変動させる構成とすることができる(請求項
2の発明)。これにより、例えばカメラの視野からワー
クの画像の一部あるいは全部が外れてしまった場合に、
広角にして視野を広げるといった対応を行うことができ
るので、カメラが対象物を見失うことを防止し、正確な
現在データを求めることが可能となる。
More specifically, the following modes are conceivable as control modes of the camera control means. That is, in the optical system adjusting means having the focal length changing mechanism, the focal length can be changed so that the entire image of the object is within the visual field of the camera. ). As a result, for example, when part or all of the image of the work is out of the field of view of the camera,
Since it is possible to take measures such as widening the field of view to widen the field of view, it is possible to prevent the camera from losing sight of the object and to obtain accurate current data.

【0014】このとき、予め焦点距離変動機構により焦
点距離が複数段階に変化された複数個の目標データを記
憶手段に記憶させておき、画像処理手段により、カメラ
制御手段により制御された焦点距離に対応した目標デー
タを用いて現在データの誤差を算出させることができ
(請求項3の発明)、これにより、複数個のなかから必
要な目標データをそのまま使用して現在データとの誤差
を算出することができるので、目標データあるいは現在
データを焦点距離に応じて補正する処理等が必要なくな
り、短時間で正確に誤差を算出してロボットアームの制
御を行うことができるようになる。
At this time, a plurality of target data whose focal length has been changed in a plurality of steps by the focal length changing mechanism is stored in the storage means in advance, and the image processing means sets the focal length controlled by the camera control means. It is possible to calculate the error of the current data by using the corresponding target data (the invention of claim 3), and thereby, the error from the current data is calculated by using the desired target data as it is from a plurality of pieces. Therefore, the process of correcting the target data or the current data according to the focal length is not necessary, and the error can be accurately calculated in a short time to control the robot arm.

【0015】また、光学系調整手段として焦点調節機構
を備えるものにあっては、目標データ記憶時と同等のピ
ントで対象物を撮影するように焦点を調節する構成とす
ることができる(請求項4の発明)。これにより、カメ
ラにより撮影される対象物の画像がピントが合わずにぼ
けてしまうことを防止できて明瞭な画像を撮影すること
が可能となり、現在データひいては誤差の検出精度を向
上させて精度良くロボットアームを制御することができ
る。
Further, in the case where the optical system adjusting means is provided with the focus adjusting mechanism, the focus can be adjusted so that the object is photographed with the same focus as when the target data is stored. Invention of 4). This makes it possible to prevent the image of the object captured by the camera from becoming out of focus and blurring, and it becomes possible to capture a clear image. The robot arm can be controlled.

【0016】さらには、光学系調整手段として絞り調整
機構を備えるものにあっては、目標データ記憶時と同等
の露光条件となるように絞りを調整する構成とすること
ができる(請求項5の発明)。あるいは、光学系調整手
段としてカメラの撮影画像データのADゲインを調整す
るADゲイン調整手段を備えるものにあっては、目標デ
ータ記憶時と同等の露光条件となるようにADゲインを
調整する構成とすることができる(請求項6の発明)。
これらによれば、目標データの記憶時と同等の露光条件
で現在データひいては誤差を求めることができるので、
ロボットアームの制御の精度、信頼性を高めることがで
きる。
Further, the optical system adjusting means provided with a diaphragm adjusting mechanism may be structured so that the diaphragm is adjusted so that the exposure condition is equivalent to that when the target data is stored (claim 5). invention). Alternatively, the optical system adjusting means having an AD gain adjusting means for adjusting the AD gain of the captured image data of the camera has a configuration in which the AD gain is adjusted so that the exposure condition becomes equivalent to that when the target data is stored. It is possible (the invention of claim 6).
According to these, it is possible to obtain the current data and thus the error under the same exposure condition as when storing the target data.
The accuracy and reliability of control of the robot arm can be improved.

【0017】[0017]

【発明の実施の形態】以下、本発明を例えば組立用の多
関節(6軸)型ロボットに適用した一実施例(請求項1
〜5に対応)について、図面を参照しながら説明する。
図1は、本実施例におけるロボットシステムの構成を概
略的に示しており、このロボットシステムは、例えば6
軸型のロボットアーム(ロボット本体)1と、このロボ
ットアーム1を制御するロボット制御装置2とを備えて
構成される。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment in which the present invention is applied to, for example, a multi-joint (6-axis) type robot for assembly (claim 1
(Corresponding to 5) will be described with reference to the drawings.
FIG. 1 schematically shows the configuration of a robot system according to this embodiment.
An axis type robot arm (robot body) 1 and a robot control device 2 for controlling the robot arm 1 are provided.

【0018】このシステムにおいては、この場合設備に
固定的に設置されたロボットアーム1により、作業台上
に任意の位置及び姿勢で供給された(あるいはコンベア
等により搬送される)対象物たるワークWを把持して、
組付けや所定位置への搬送等を行うようになっている。
尚、前記ワークWには、後述する視覚認識のための、複
数個(例えば8個)の特徴点(特定のエッジや穴、貼付
されたマーカ等)が設定されるようになっている。
In this system, in this case, the work W which is an object supplied (or conveyed by a conveyor or the like) onto the workbench at an arbitrary position and posture by the robot arm 1 fixedly installed in the equipment. Hold
It is designed to be assembled and transported to a predetermined position.
A plurality of (for example, eight) feature points (specific edges, holes, affixed markers, etc.) are set on the work W for visual recognition described later.

【0019】前記ロボットアーム1は、設備に固定設置
されるベース3上に、第1アーム4が垂直軸を中心に回
動(旋回)可能に設けられ、その第1アーム4の先端
に、第2アーム5が水平軸を中心に回動可能に設けら
れ、その第2アーム5の先端に、第3アーム6が水平軸
を中心に回動可能に設けられている。さらに、その第3
アーム6の先端面部に、第4アーム7が同軸回転可能に
設けられ、第4アーム7の先端には、第5アーム8が回
転可能に設けられ、第5アーム8の先端面に第6アーム
9が同軸回転可能に設けられて構成されている。そし
て、前記第6アーム9の先端面には、ハンド10が着脱
(交換)自在に取付けられている。
The robot arm 1 is provided with a first arm 4 which is rotatable (swirlable) about a vertical axis on a base 3 which is fixedly installed in a facility, and a first arm 4 has a first arm 4 at the tip thereof. The two arms 5 are provided so as to be rotatable about a horizontal axis, and the third arm 6 is provided at the tip of the second arm 5 so as to be rotatable about the horizontal axis. Furthermore, the third
A fourth arm 7 is coaxially rotatably provided on the tip end surface of the arm 6, a fifth arm 8 is rotatably provided on the tip end of the fourth arm 7, and a sixth arm 7 is provided on the tip end surface of the fifth arm 8. 9 is provided so as to be coaxially rotatable. A hand 10 is detachably (replaceable) attached to the tip end surface of the sixth arm 9.

【0020】また、上記したロボットアーム1の各アー
ム4〜9は、エンコーダ付きのサーボモータ(図示せ
ず)によりそれぞれ駆動されるようになっており、それ
ら各サーボモータ(並びにハンド10)は、外部に設け
られマイコンを主体として構成されるロボットコントロ
ーラ11により制御され、もってワークWの把持作業等
が自動で実行されるようになっている。
Further, each of the arms 4 to 9 of the robot arm 1 is adapted to be driven by a servomotor (not shown) with an encoder, and each of these servomotors (and the hand 10) is It is controlled by a robot controller 11 which is provided externally and is mainly composed of a microcomputer, so that the work of gripping the work W or the like is automatically executed.

【0021】このとき、ロボットコントローラ11は、
前記ロボット制御装置2の一部を構成し、このロボット
制御装置2は、そのソフトウエア的構成(プログラムの
実行)により、カメラ(視覚センサ)の情報に基づいて
ロボットアーム1の位置姿勢を例えばワークWの把持位
置にフィードバック制御する、ビジュアルサーボと称さ
れる動的な視覚フィードバック制御を以下のようにして
実行するようになっている。
At this time, the robot controller 11
The robot controller 2 constitutes a part of the robot controller 2, and the robot controller 2 determines the position and orientation of the robot arm 1 based on the information of the camera (visual sensor) by the software configuration (execution of the program) of, for example, the work. Dynamic visual feedback control called visual servo, which performs feedback control to the gripping position of W, is executed as follows.

【0022】このビジュアルサーボによる位置姿勢制御
の実現のため、ロボットアーム1の手先部例えば第5ア
ーム8の側面部に、前記ワークWの画像を撮影するため
のカメラたるCCDカメラ12が取付けられている。こ
れと共に、マイコンを主体として成り、前記CCDカメ
ラ12からの撮影画像データを取込んで処理する視覚認
識装置13が設けられている。この視覚認識装置13
は、画像処理に基づいて、制御動作信号(位置補正量)
をロボットコントローラ11に与えるようになってお
り、前記CCDカメラ12と共にロボット制御装置2の
一部を構成するようになっている。尚、この視覚認識装
置13をロボットコントローラ11に内蔵する構成とし
ても良い。
In order to realize the position / orientation control by the visual servo, a CCD camera 12, which is a camera for taking an image of the work W, is attached to a hand portion of the robot arm 1, for example, a side surface portion of the fifth arm 8. There is. Along with this, a visual recognition device 13 which mainly comprises a microcomputer and which takes in and processes captured image data from the CCD camera 12 is provided. This visual recognition device 13
Is a control operation signal (position correction amount) based on image processing.
Is provided to the robot controller 11, and together with the CCD camera 12 constitutes a part of the robot controller 2. The visual recognition device 13 may be built in the robot controller 11.

【0023】このとき、前記視覚認識装置13には、予
め実行される教示動作により得られた目標データを記憶
する記憶部(図示せず)が設けられるようになってい
る。前記教示動作は、例えばティーチングペンダントを
用いたマニュアル操作により、ロボットアーム1をワー
クWに対して教示目標位置(ハンド10によりワークW
を把持する直前の位置姿勢)に移動させ、その位置にお
いてCCDカメラ12によりワークWを撮影し、その際
の画像上のワークWの三次元的な位置や姿勢を表す特徴
量(例えばワークWの複数個の特徴点の画像上の位置、
大きさ(長さ,面積)、傾き角など)が目標データ(設
定値)として記憶されるのである。
At this time, the visual recognition device 13 is provided with a storage unit (not shown) for storing target data obtained by the teaching operation executed in advance. In the teaching operation, for example, a manual operation using a teaching pendant causes the robot arm 1 to move to a teaching target position with respect to the work W (the work W by the hand 10).
Is moved to a position and orientation immediately before gripping the workpiece W, and the work W is photographed by the CCD camera 12 at that position, and a feature amount (for example, the work W Positions of multiple feature points on the image,
The size (length, area), inclination angle, etc.) is stored as target data (setting value).

【0024】尚、後述するカメラ制御のために、記憶部
には、焦点距離が複数段階に変化された複数個の目標デ
ータが記憶されるようになっていると共に、教示時の画
像の輝度(明るさ)情報や、ピントの情報(画像の微分
強度の情報)等も記憶されるようになっている。
In order to control the camera, which will be described later, the storage unit stores a plurality of pieces of target data whose focal lengths are changed in a plurality of steps, and also the brightness of the image during teaching ( Brightness information, focus information (image differential intensity information), and the like are also stored.

【0025】そして、実作業時においては、ロボット制
御装置2は、ロボットアーム1の任意の位置姿勢にて、
CCDカメラ12によりワークWを撮影し、視覚認識装
置13によりその撮影画像データを処理して現在の画像
上の特徴量(ワークWの位置や姿勢)を同様にして現在
データ(フィードバック信号)として求め、その現在デ
ータを目標データと比較してその誤差(偏差)を減少さ
せる(0とする)ように、つまりCCDカメラ12によ
る画像が教示時と同一の見え方となるように位置補正量
(制御量)を算出して制御動作信号としてロボットコン
トローラ11に出力するようになっている。
Then, at the time of actual work, the robot control device 2 moves the robot arm 1 at an arbitrary position and posture.
The work W is photographed by the CCD camera 12, the photographed image data is processed by the visual recognition device 13, and the feature amount (position and posture of the work W) on the current image is similarly obtained as current data (feedback signal). , The current data is compared with the target data, and the error (deviation) is reduced (set to 0), that is, the position correction amount (control) is adjusted so that the image by the CCD camera 12 looks the same as at the time of teaching. The amount) is calculated and output to the robot controller 11 as a control operation signal.

【0026】尚、この場合、視覚認識装置13は、例え
ばCCDカメラ12の撮影光軸方向をZ軸、撮影画面
(投影面)をXY平面とした三次元直交座標系に基づい
て、ワークWの撮影画像の特徴量ひいては目標データと
の誤差を、x(X軸方向の位置),y(Y軸方向の位
置),z(Z軸方向の位置),Rx(X軸回りの姿勢
(回転角)),Ry(Y軸回りの姿勢(回転角)),R
z(Z軸回りの姿勢(回転角))の6つの成分に関して
求め、それらを位置補正量としてロボットコントローラ
11に出力するようになっている。
In this case, the visual recognition device 13 of the work W is based on, for example, a three-dimensional orthogonal coordinate system in which the photographing optical axis direction of the CCD camera 12 is the Z axis and the photographing screen (projection surface) is the XY plane. Differences between the feature amount of the captured image and the target data, x (position in the X-axis direction), y (position in the Y-axis direction), z (position in the Z-axis direction), Rx (posture about the X-axis (rotation angle) )), Ry (posture around Y axis (rotation angle)), R
The six components of z (posture (rotation angle) around the Z axis) are obtained, and these are output to the robot controller 11 as position correction amounts.

【0027】ロボットコントローラ11は、その位置補
正量に基づいてロボットアーム1の位置姿勢を制御(フ
ィードバック制御)することを繰返し、この制御によっ
て誤差がしきい値以下(0)に収束した、つまりロボッ
トアーム1のワークWに対する位置姿勢が教示目標位置
に一致したところで、ハンド10によるワークWの把持
動作を実行するものである。従って、視覚認識装置13
が、本発明にいう記憶手段及び画像処理手段として機能
し、ロボットコントローラ11が本発明にいう制御手段
として機能するのである。
The robot controller 11 repeatedly controls (feedback control) the position and orientation of the robot arm 1 based on the position correction amount, and the error converges to a value below the threshold value (0) by this control, that is, the robot. When the position and orientation of the arm 1 with respect to the work W coincide with the teaching target position, the gripping operation of the work W by the hand 10 is executed. Therefore, the visual recognition device 13
The robot controller 11 functions as the storage unit and the image processing unit according to the present invention, and the robot controller 11 functions as the control unit according to the present invention.

【0028】さて、図示はしないが、前記CCDカメラ
12は、その撮影時の光学的条件を調整する光学系調整
手段を備えて構成されている。詳しい説明は省略する
が、本実施例においては、この光学系調整手段として、
焦点距離を変動させる(言換えればカメラ視野を拡縮す
る)焦点距離変動機構(ズーム機構)、レンズのピント
を合わせる焦点調節機構(オートフォーカス機構)、撮
影時の絞り量(露光条件)を調整する絞り調整機構、を
備えている。
Although not shown, the CCD camera 12 is provided with an optical system adjusting means for adjusting the optical conditions at the time of photographing. Although detailed description is omitted, in this embodiment, as the optical system adjusting means,
Adjusts the focal length variation mechanism (zoom mechanism) that changes the focal length (in other words, enlarges or reduces the field of view of the camera), the focus adjustment mechanism (autofocus mechanism) that focuses the lens, and the aperture amount (exposure condition) at the time of shooting. A diaphragm adjustment mechanism is provided.

【0029】そして、本実施例のロボット制御装置2に
おいては、実作業時(ビジュアルサーボによるロボット
アーム1の制御の実行時)にCCDカメラ12によりワ
ークWを撮影した撮影画像データに基づき,それら焦点
距離変動機構、焦点調節機構、絞り調整機構を制御する
(CCDカメラ12に対しカメラ制御信号を出力する)
ためのカメラ制御手段たるカメラ制御装置14が設けら
れている。
In the robot controller 2 of this embodiment, the focus of the work W is picked up by the CCD camera 12 during the actual work (when the control of the robot arm 1 is executed by the visual servo). Controls the distance variation mechanism, the focus adjustment mechanism, and the aperture adjustment mechanism (outputs a camera control signal to the CCD camera 12)
A camera control device 14 is provided as a camera control means for the purpose.

【0030】このとき、後の作用説明でも述べるよう
に、カメラ制御装置14は、ビジュアルサーボによるワ
ークWの撮影時において、CCDカメラ12の現在の撮
影画像データの輝度情報と、視覚認識装置13の記憶部
に記憶されている教示時の輝度情報とを比較し、目標デ
ータ記憶時と同等の露光条件となるようにCCDカメラ
12の絞り調整機構を制御するようになっている。
At this time, as will be described later in the description of the operation, the camera control device 14 controls the brightness information of the current captured image data of the CCD camera 12 and the visual recognition device 13 when the work W is photographed by the visual servo. The brightness information at the time of teaching stored in the storage unit is compared, and the aperture adjustment mechanism of the CCD camera 12 is controlled so that the exposure conditions are equivalent to those at the time of storing the target data.

【0031】また、カメラ制御装置14は、ビジュアル
サーボによるワークWの撮影時において、CCDカメラ
12の現在の撮影画像データから、ワークWの画像全体
がCCDカメラ12の視野内に収まっているかどうかを
判断し、CCDカメラ12の視野からワークWの画像の
一部あるいは全部が外れている場合には、ワークWの画
像全体が視野内に収まるようにCCDカメラ12の焦点
距離変動機構を制御する(焦点距離を短くして広角とす
る)ようになっている。
Further, the camera control device 14 determines whether or not the entire image of the work W is within the field of view of the CCD camera 12 based on the current image data of the CCD camera 12 when the work W is photographed by the visual servo. If a part or all of the image of the work W is out of the field of view of the CCD camera 12, the focal length variation mechanism of the CCD camera 12 is controlled so that the entire image of the work W falls within the field of view ( The focal length is shortened to a wide angle).

【0032】この場合、ビジュアルサーボにおいては、
視覚認識装置13にて焦点距離に応じた特徴量(現在デ
ータ)が求められるため、誤差検出のために、目標デー
タについても、その焦点距離に対応したものが必要とな
る。このため、教示時において、CCDカメラ12の焦
点距離変動機構により焦点距離が複数段階に変化された
複数個の目標データが求められ、それらが視覚認識装置
13の記憶部に記憶されるようになっている。
In this case, in the visual servo,
Since the visual recognition device 13 obtains the feature amount (current data) according to the focal length, target data corresponding to the focal length is also necessary for error detection. Therefore, at the time of teaching, a plurality of target data whose focal lengths are changed in a plurality of steps are obtained by the focal length changing mechanism of the CCD camera 12, and these are stored in the storage unit of the visual recognition device 13. ing.

【0033】更に、カメラ制御装置14は、ビジュアル
サーボによるワークWの撮影時において、CCDカメラ
12の現在の撮影画像データから、例えば微分強度値を
評価することにより、ワークWの画像が教示時と比べて
ぼけていないかどうかを判断し、ぼけている場合には、
目標データ記憶時と同等のピントでワークWを撮影する
ように焦点調節機構を制御するようになっている。
Further, the camera control device 14 evaluates, for example, a differential intensity value from the current image data of the CCD camera 12 when the work W is imaged by the visual servo, so that the image of the work W is as taught. Compare to determine whether it is not blurred, and if it is blurred,
The focus adjustment mechanism is controlled so that the work W is photographed with the same focus as when the target data is stored.

【0034】次に、上記構成の作用について、図2ない
し図6も参照して述べる。まず、図2のフローチャート
は、教示(ティーチング)時においてロボット制御装置
2が実行する目標データ記憶の処理の手順を概略的に示
している。この教示にあたっては、まず、ステップS1
にて、例えばティーチングペンダントを用いたマニュア
ル操作により、ロボットアーム1の手先部をワークWに
対して目標位置(例えばハンド10によりワークWを把
持する直前の位置姿勢)に移動させることが行われる。
Next, the operation of the above structure will be described with reference to FIGS. First, the flowchart of FIG. 2 schematically shows the procedure of the target data storage processing executed by the robot controller 2 during teaching. In this teaching, first, step S1
At this point, the hand portion of the robot arm 1 is moved to a target position with respect to the work W (for example, the position and posture immediately before gripping the work W with the hand 10) by a manual operation using a teaching pendant, for example.

【0035】次のステップS2にて、変数iに1がセッ
トされた上で、ステップS3にて、CCDカメラ12の
レンズの焦点距離をfiとしてCCDカメラ11により
ワークWを撮影することが行われる。そして、ステップ
S4にて、得られた画像データから視覚認識装置13に
より画像処理が行われ、画像上のワークWの三次元的な
位置や姿勢を表す特徴量(例えばワークWの複数個の特
徴点の画像上の位置、大きさ(長さ,面積)、傾き角な
ど)が目標データId(fi)として焦点距離fiと共
に記憶部に記憶されるのである。
In the next step S2, the variable i is set to 1, and in step S3, the work W is photographed by the CCD camera 11 with the focal length of the lens of the CCD camera 12 being fi. . Then, in step S4, image processing is performed by the visual recognition device 13 from the obtained image data, and a feature amount indicating a three-dimensional position or orientation of the work W on the image (for example, a plurality of features of the work W). The position, size (length, area), inclination angle, etc. of the point on the image are stored in the storage unit together with the focal length fi as the target data Id (fi).

【0036】ここで、焦点距離のパラメータであるfi
(1≦i≦n)は、f1>f2>f3>…>fn(mm)
を満たすこととする。このとき、焦点距離は使用するレ
ンズの仕様に依存し、例えばf1は、対象物から観測さ
れる特徴量(目標データ)Idが全て得られ、且つ、対
象物を最も拡大して観測できる状態の焦点距離とし、f
nは、対象物から観測される特徴量(目標データ)Id
が全て得られ、且つ、対象物を最も広角に観測できる状
態の焦点距離とする。また、fiは、整数n(>1)を
適当に定め、fn〜f1をn等分した値、つまり、fi
=f1−(f1−fn)/(n−1)*(i−1)とす
る。
Here, fi which is a parameter of the focal length
(1 ≦ i ≦ n) is f1>f2>f3>...> fn (mm)
Will be satisfied. At this time, the focal length depends on the specifications of the lens to be used. For example, f1 is in a state in which all the feature quantities (target data) Id observed from the object are obtained and the object can be observed in the most magnified manner. F is the focal length
n is a feature amount (target data) Id observed from the object.
Is obtained, and the focal length is such that the object can be observed in the widest angle. Further, fi is a value obtained by appropriately defining an integer n (> 1) and dividing fn to f1 into n, that is, fi.
= F1- (f1-fn) / (n-1) * (i-1).

【0037】次のステップS5では、変数iが整数n以
上であるかどうかが判断され、nに満たない場合には
(No)、ステップS6にて、変数iの値が1だけイン
クリメントされ、変数iの値がnとなるまで(ステップ
S5にてYes)、ステップS3〜S6の処理が繰返さ
れる。これにて、視覚認識装置13の記憶部には、焦点
距離が複数段階(f1〜fnのn段階)に変化された複
数個(n個)の目標データId(fi)が記憶されるの
である。尚、この図2には示していないが、この教示時
には、CCDカメラ12のレンズのピントが焦点調節機
構(オートフォーカス)により自動調節されるようにな
っており、また、画像の輝度情報やピント(画像の微分
強度)の情報も、目標データと併せて記憶部に記憶され
るようになっている。
In the next step S5, it is determined whether or not the variable i is an integer n or more. If it is less than n (No), the value of the variable i is incremented by 1 in step S6, The processes of steps S3 to S6 are repeated until the value of i becomes n (Yes in step S5). As a result, the storage unit of the visual recognition device 13 stores a plurality (n pieces) of target data Id (fi) in which the focal length is changed in a plurality of steps (n steps from f1 to fn). . Although not shown in FIG. 2, at the time of this teaching, the focus of the lens of the CCD camera 12 is automatically adjusted by a focus adjusting mechanism (autofocus), and the brightness information of the image and the focus are obtained. The information of (differential intensity of image) is also stored in the storage unit together with the target data.

【0038】次に、図3のフローチャートは、実作業時
に、ロボット制御装置2が実行するビジュアルサーボに
よるロボットアーム1の位置姿勢の制御の手順を概略的
に示している。即ち、作業が開始されると、ステップS
11にて、CCDカメラ12により現在位置におけるワ
ークWの観測が行われ、次のステップS12にて、ま
ず、観測されている画像の輝度情報から、適当な明るさ
が得られているかどうか、つまり記憶部に記憶されてい
る輝度情報との比較により、教示時の明るさと同程度か
どうかが判断される。
Next, the flow chart of FIG. 3 schematically shows the procedure of the position and orientation control of the robot arm 1 by the visual servo executed by the robot controller 2 during the actual work. That is, when the work is started, step S
At 11, the work W at the current position is observed by the CCD camera 12, and at next step S12, first, whether or not appropriate brightness is obtained from the luminance information of the observed image, that is, By comparing with the brightness information stored in the storage unit, it is determined whether the brightness is similar to the brightness at the time of teaching.

【0039】ここで、図4(a)にイメージ的に示すよ
うに、周囲環境が暗く画像全体が暗すぎるような場合
(あるいは明るすぎるような場合)には(ステップS1
2にてNo)、ステップS13にて、カメラ制御装置1
4からCCDカメラ12に対して教示時と同等の露光条
件となるように制御信号が出力され、CCDカメラ12
の絞り調整機構により絞りが調整される。これにて、図
4(b)に示すように、画像全体の明るさが適切なもの
とされるのである。
Here, as shown conceptually in FIG. 4A, when the surrounding environment is dark and the entire image is too dark (or too bright) (step S1).
2), and in step S13, the camera control device 1
4 outputs a control signal to the CCD camera 12 so that the exposure conditions are the same as when teaching, and the CCD camera 12
The diaphragm adjustment mechanism adjusts the diaphragm. As a result, the brightness of the entire image becomes appropriate, as shown in FIG.

【0040】画像の適切な明るさが得られていれば(ス
テップS12にてYes)、次のステップS14にて、
ワークWの画像全体がCCDカメラ12の視野内に収ま
っているかどうかが判断される。ここで、図5(a)に
例示するように、ワークWの画像の一部(あるいは全
部)が視野から外れている場合には(ステップS14に
てNo)、ステップS15にて、カメラ制御装置14か
らCCDカメラ12に対して焦点距離を変動させる(短
くさせる)ように制御信号が出力され、CCDカメラ1
2の焦点距離変動機構により焦点距離が調整される。
If the appropriate brightness of the image is obtained (Yes in step S12), in the next step S14,
It is determined whether the entire image of the work W is within the field of view of the CCD camera 12. Here, as illustrated in FIG. 5A, when part (or all) of the image of the work W is out of the field of view (No in step S14), the camera control device is operated in step S15. 14 outputs a control signal to the CCD camera 12 so as to change (shorten) the focal length, and the CCD camera 1
The focal length is adjusted by the focal length changing mechanism 2.

【0041】この場合、例えば最初は焦点距離がf1に
設定されており、ワークWの画像の全てがCCDカメラ
12の視野内に収まるまで、焦点距離fiを例えば1段
階ずつ上げて(短くして)いくことが行われる。これに
て、図5(b)に示すように、ワークWの画像全体がC
CDカメラ12の視野内に収まるようになる。ワークW
の画像全体がCCDカメラ12の視野内に収まっていれ
ば(ステップS14にてYes)、次のステップS16
にて、ワークWの画像がぼけていないか(ピントが外れ
ていないか)が判断される。
In this case, for example, the focal length is initially set to f1, and the focal length fi is increased by one step (shortened, for example) until all the images of the work W are within the field of view of the CCD camera 12. ) Going is done. Thus, as shown in FIG. 5B, the entire image of the work W is C
It comes to fit within the field of view of the CD camera 12. Work W
If the entire image of the image is within the field of view of the CCD camera 12 (Yes in step S14), the next step S16
At, it is determined whether the image of the work W is out of focus (whether the image is out of focus).

【0042】ここで、例えば上記ステップS15で焦点
距離を変更した場合等には、図6(a)に例示するよう
に、ピントが合わなくなる虞がある。このような像のぼ
けは、例えば画像の微分強度値により検出する。像がぼ
けている場合には、画像の微分強度が低下するため、こ
の微分強度値を評価する(教示時の微分強度と比較す
る)ことにより、画像がぼけていることが判断できる。
画像がぼけている場合には(ステップS16にてYe
s)、ステップS17にて、カメラ制御装置14からC
CDカメラ12に対して焦点調節を行うように制御信号
が出力され、焦点調節機構により焦点調節が行われる。
Here, when the focal length is changed in step S15, for example, there is a possibility that the focus may not be achieved as illustrated in FIG. 6 (a). Such image blurring is detected by, for example, the differential intensity value of the image. When the image is blurred, the differential intensity of the image is reduced, and therefore it is possible to judge that the image is blurred by evaluating this differential intensity value (comparing with the differential intensity at the time of teaching).
If the image is blurred (Yes in step S16)
s), in step S17, from the camera control device 14 to C
A control signal is output to the CD camera 12 to perform focus adjustment, and the focus adjustment mechanism performs focus adjustment.

【0043】これにて、図6(b)に示すように、ピン
トの合った画像とされるのである。ピントが適切なもの
となっていれば(ステップS16にてYes)、次のス
テップS18にて、その時点の撮影画像データが、視覚
認識装置13に取込まれ、画像処理(特徴量の抽出)が
行われて現在データI(t,fi)が求められる。そし
て、ステップS19にて、その現在データI(t,f
i)と、該当する焦点距離fiに対応する目標データI
d(fi)とが比較され、誤差(位置補正量)ΔI
(t)が算出されるのである。
As a result, an image in focus is obtained, as shown in FIG. 6 (b). If the focus is appropriate (Yes in step S16), in the next step S18, the captured image data at that time is taken into the visual recognition device 13 and image processed (feature amount extraction). Then, the current data I (t, fi) is obtained. Then, in step S19, the current data I (t, f
i) and the target data I corresponding to the corresponding focal length fi
d (fi) is compared, and the error (position correction amount) ΔI
(T) is calculated.

【0044】次のステップS20では、求められた誤差
ΔI(t)の絶対値がしきい値以下かどうかが判断さ
れ、しきい値を越えている場合即ち未だ誤差が大きくロ
ボットアーム1が教示目標位置に達していない場合には
(No)、ステップS21にて、その誤差ΔI(t)か
らロボットアーム1の制御量R(t)が算出されてロボ
ットコントローラ11に出力され、ステップS22に
て、ロボットアーム1の位置姿勢の制御(移動)が行わ
れる。この後、ステップS11からの処理が繰返され
る。
In the next step S20, it is judged whether or not the absolute value of the obtained error ΔI (t) is less than or equal to the threshold value. If the absolute value exceeds the threshold value, that is, the error is still large and the robot arm 1 is the teaching target. If the position has not been reached (No), in step S21, the control amount R (t) of the robot arm 1 is calculated from the error ΔI (t) and output to the robot controller 11, and in step S22, The position and orientation of the robot arm 1 is controlled (moved). Then, the processing from step S11 is repeated.

【0045】以上のような制御により、ロボットアーム
1の手先は、ワークWから比較的離れた位置から次第に
ワークWに近付いていき、遂には、誤差ΔI(t)がし
きい値以下となる(0となる)、つまりロボットアーム
1のワークWに対する位置姿勢が教示目標位置に一致す
るようになり(ステップS20にてYes)、この時点
でビジュアルサーボによる制御が終了し、ハンド10に
よるワークWの把持作業に移行されるのである(ステッ
プS23)。
By the control as described above, the hand of the robot arm 1 gradually approaches the work W from a position relatively distant from the work W, and finally the error ΔI (t) becomes less than or equal to the threshold value ( 0), that is, the position and orientation of the robot arm 1 with respect to the work W coincides with the teaching target position (Yes in step S20). At this point, the control by the visual servo ends, and the work W of the hand 10 moves. That is, the process proceeds to the gripping work (step S23).

【0046】ここで、教示時と実作業時との間で周囲の
光学的条件(環境)等が変化した場合、従来のようなC
CDカメラにおける撮影時の光学的条件、つまり、焦点
距離、レンズのピント、絞り等が固定されていたもので
は、カメラがワークを見失ったり、特徴量の検出精度が
低下してしまう等の虞があった。
Here, when the surrounding optical conditions (environment) and the like change between the time of teaching and the time of actual work, C as in the conventional case is used.
Under the optical conditions at the time of shooting with a CD camera, that is, when the focal length, the focus of the lens, the diaphragm, etc. are fixed, the camera may lose sight of the work, or the accuracy of detecting the feature amount may be reduced. there were.

【0047】これに対し、本実施例では、カメラ制御装
置14により、CCDカメラ12の有する絞り調整機
構、焦点距離変動機構、焦点調節機構を制御するように
したので、教示時と同等の露光条件で現在の画像データ
を取込むことができ(ステップS12,S13)、ま
た、ワークWの画像全体が視野内に収まるようにCCD
カメラ12の焦点距離を制御することができ(ステップ
S14,S15)、更に、教示時と同等のピントでワー
クWを撮影することができる(ステップS16,S1
7)。
On the other hand, in the present embodiment, the camera controller 14 controls the aperture adjusting mechanism, the focal length changing mechanism and the focus adjusting mechanism of the CCD camera 12, so that the exposure conditions equivalent to those at the time of teaching are provided. The current image data can be taken in (steps S12 and S13), and the CCD is adjusted so that the entire image of the work W fits within the field of view.
The focal length of the camera 12 can be controlled (steps S14 and S15), and the work W can be photographed with the same focus as when teaching (steps S16 and S1).
7).

【0048】これにより、本実施例によれば、CCDカ
メラ12の光学系の調整をビジュアルサーボのフィード
バック系に組入れ、外部からの信号によりフィードバッ
ク制御するようにしたので、周囲の光学的条件(環境)
等が変化した場合でも、容易且つ迅速に対応することが
できる。この結果、視覚認識に関するロバスト性の向上
つまり環境変化に対するワークWの認識性の向上を図る
ことができ、ひいては安定したビジュアルサーボを実現
することができるという優れた効果を得ることができた
のである。
As a result, according to the present embodiment, the adjustment of the optical system of the CCD camera 12 is incorporated in the feedback system of the visual servo, and the feedback control is performed by the signal from the outside. )
It is possible to easily and swiftly respond to changes in the above. As a result, it is possible to improve the robustness of the visual recognition, that is, to improve the recognizability of the work W with respect to the environmental change, and to obtain the excellent effect that the stable visual servo can be realized. .

【0049】尚、上記実施例では、CCDカメラ12に
絞り調整機構を設けて絞りを調整する構成としたが、目
標データ記憶時と同等の露光条件となるように、CCD
カメラ12の撮影画像データのADゲインを調整する構
成としても良く(請求項6の発明)、これによっても、
同様に、目標データの記憶時と同等の露光条件で現在デ
ータひいては誤差を求めることができるので、ロボット
アーム1の制御の精度、信頼性を高めることができる。
Although the CCD camera 12 is provided with the diaphragm adjusting mechanism to adjust the diaphragm in the above embodiment, the CCD is adjusted so that the exposure condition is the same as that when the target data is stored.
The AD gain of the image data captured by the camera 12 may be adjusted (the invention of claim 6).
Similarly, since the current data and thus the error can be obtained under the same exposure condition as when the target data is stored, the accuracy and reliability of the control of the robot arm 1 can be improved.

【0050】そして、上記実施例では、CCDカメラ1
2に、絞り調整機構、焦点距離変動機構、焦点調節機構
の3種類の光学系調整手段を設け、露光条件、焦点距
離、レンズのピントの全てをカメラ制御装置14により
制御する構成としたが、そのうちいずれか1つ或いは2
つを制御する構成であっても、本発明の技術的範囲に含
まれることは勿論である。また、上記実施例では、最初
に焦点距離をf1に設定しておき、ワークWの画像が視
野から外れた場合に、焦点距離fiを順次に変更してい
くようにしたが、適当な焦点距離を予測してその焦点距
離にて撮影を行ない、その後必要に応じて焦点距離を調
整するような構成としても良い。焦点調節(ピント)に
ついても、予測して制御する構成とすることができる。
In the above embodiment, the CCD camera 1
In FIG. 2, three kinds of optical system adjusting means of an aperture adjusting mechanism, a focal length changing mechanism, and a focus adjusting mechanism are provided, and the exposure condition, the focal length, and the focus of the lens are all controlled by the camera control device 14. Either one or two
It goes without saying that even a configuration for controlling one of them is included in the technical scope of the present invention. In the above embodiment, the focal length is set to f1 first, and when the image of the work W is out of the visual field, the focal length fi is sequentially changed. It is also possible to adopt a configuration in which the focal length is predicted, shooting is performed at that focal length, and then the focal length is adjusted as necessary. The focus adjustment (focus) can also be predicted and controlled.

【0051】その他、本発明は上記した実施例に限定さ
れるものではなく、例えば移動ロボットに本発明を適用
することも可能であり、またコンベア等により移動して
いるワークWを把持する等の作業にも本発明を適用で
き、さらにはワークの把持,搬送の作業以外の各種の作
業に適用できる等、ロボットアームのハードウエア的構
成や作業(制御)の内容等についても、種々の変形が可
能である。カメラの構成や取付位置等についても様々な
変形例が考えられる等、本発明は要旨を逸脱しない範囲
内で適宜変更して実施し得るものである。
Besides, the present invention is not limited to the above-mentioned embodiments, but the present invention can be applied to, for example, a mobile robot, and the work W being moved by a conveyor or the like can be grasped. The present invention can be applied to work, and can be applied to various works other than work for gripping and carrying work, and various modifications can be made to the hardware configuration of the robot arm, the contents of work (control), and the like. It is possible. The present invention can be appropriately modified and implemented without departing from the scope of the invention, such as various modifications of the configuration and mounting position of the camera.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すもので、ロボットシス
テムの構成を概略的に示す図
FIG. 1 is a diagram schematically showing the configuration of a robot system according to an embodiment of the present invention.

【図2】教示時における処理手順を示すフローチャートFIG. 2 is a flowchart showing a processing procedure at the time of teaching.

【図3】実作業時における処理手順を示すフローチャー
FIG. 3 is a flowchart showing a processing procedure during actual work.

【図4】周囲環境が暗い場合(a)及び絞りを調整した
場合(b)の画像の様子を模式的に示す図
FIG. 4 is a diagram schematically showing a state of an image when a surrounding environment is dark (a) and when an aperture is adjusted (b).

【図5】ワークの画像の一部が視野から外れた場合
(a)及び焦点距離を変動させた場合(b)の画像の様
子を模式的に示す図
FIG. 5 is a diagram schematically showing a state of an image when a part of the image of the work is out of the field of view (a) and when the focal length is changed (b).

【図6】ワークの像がぼけている場合(a)及びピント
を調節した場合(b)の画像の様子を模式的に示す図
FIG. 6 is a diagram schematically showing a state of an image when a work image is blurred (a) and when a focus is adjusted (b).

【符号の説明】[Explanation of symbols]

図面中、1はロボットアーム、2はロボット制御装置、
10はハンド、11はロボットコントローラ(制御手
段)、12はCCDカメラ(カメラ)、13は視覚認識
装置(記憶手段、画像処理手段)、14はカメラ制御装
置(カメラ制御手段)、Wはワーク(対象物)を示す。
In the drawings, 1 is a robot arm, 2 is a robot controller,
10 is a hand, 11 is a robot controller (control means), 12 is a CCD camera (camera), 13 is a visual recognition device (storage means, image processing means), 14 is a camera control device (camera control means), and W is a work ( Object).

───────────────────────────────────────────────────── フロントページの続き (72)発明者 内藤 貴志 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 3C007 AS06 BS12 HS27 KS21 KT00 KT01 KT06 KT11 KV01 MT04 5B047 AA13 BB04 BC05 BC14 CA17 CB23 DC06 5B057 AA05 BA02 BA17 DA07 DB03 DC03 DC04 DC05 DC08 DC33 DC36 DC39 5C022 AB01 AB12 AB21 AC42 AC51 AC69 AC74 AC78    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Takashi Naito             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. F term (reference) 3C007 AS06 BS12 HS27 KS21 KT00                       KT01 KT06 KT11 KV01 MT04                 5B047 AA13 BB04 BC05 BC14 CA17                       CB23 DC06                 5B057 AA05 BA02 BA17 DA07 DB03                       DC03 DC04 DC05 DC08 DC33                       DC36 DC39                 5C022 AB01 AB12 AB21 AC42 AC51                       AC69 AC74 AC78

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 ロボットアームに取付けられたカメラ
と、 前記ロボットアームを予めワーク等の対象物に対する教
示目標位置に位置させた状態で前記カメラにより前記対
象物を撮影した際の画像上の特徴量を目標データとして
記憶する記憶手段と、 前記カメラにより前記対象物を撮影した撮影画像データ
を処理して現在の画像上の特徴量を現在データとして求
め、前記目標データとの誤差を算出する画像処理手段
と、 この画像処理手段により得られた誤差に基づいて、その
誤差を減少させるように前記ロボットアームの位置姿勢
をフィードバック制御するロボット制御手段とを具備し
てなるロボット制御装置であって、 前記カメラは、その撮影時の光学的条件を調整する光学
系調整手段を備えて構成されると共に、 前記カメラにより前記対象物を撮影した撮影画像データ
に基づいて該カメラの光学系調整手段を制御するカメラ
制御手段を備えたことを特徴とするロボット制御装置。
1. A camera attached to a robot arm, and a feature amount on an image when the object is photographed by the camera in a state where the robot arm is preliminarily positioned at a teaching target position for the object such as a work. Image processing for processing the photographed image data of the object photographed by the camera to obtain the feature amount on the current image as the current data, and calculating an error from the target data. A robot controller comprising: a means for controlling the position and orientation of the robot arm so as to reduce the error based on the error obtained by the image processing means. The camera is configured to include an optical system adjusting unit that adjusts the optical condition at the time of shooting, and the camera allows the pair to be adjusted. Robot control apparatus characterized by comprising a camera control means for controlling the optical system adjusting means of the camera based on the captured image data obtained by photographing the object.
【請求項2】 前記光学系調整手段は、焦点距離変動機
構を備えると共に、前記カメラ制御手段は、前記対象物
の画像全体が前記カメラの視野内に収まるように前記焦
点距離変動機構を制御することを特徴とする請求項1記
載のロボット制御装置。
2. The optical system adjusting means includes a focal length changing mechanism, and the camera controlling means controls the focal length changing mechanism so that the entire image of the object falls within the field of view of the camera. The robot controller according to claim 1, characterized in that:
【請求項3】 前記記憶手段には、前記焦点距離変動機
構により焦点距離が複数段階に変化された複数個の目標
データが記憶されると共に、前記画像処理手段は、前記
カメラ制御手段により制御された焦点距離に対応した目
標データを用いて現在データの誤差を算出することを特
徴とする請求項2記載のロボット制御装置。
3. The storage means stores a plurality of target data whose focal length is changed in a plurality of steps by the focal length changing mechanism, and the image processing means is controlled by the camera control means. The robot controller according to claim 2, wherein an error of the current data is calculated using the target data corresponding to the focal length.
【請求項4】 前記光学系調整手段は、焦点調節機構を
備えると共に、前記カメラ制御手段は、前記目標データ
記憶時と同等のピントで対象物を撮影するように前記焦
点調節機構を制御することを特徴とする請求項1ないし
3のいずれかに記載のロボット制御装置。
4. The optical system adjusting means includes a focus adjusting mechanism, and the camera controlling means controls the focus adjusting mechanism so as to photograph an object with the same focus as when the target data is stored. The robot controller according to any one of claims 1 to 3, characterized in that:
【請求項5】 前記光学系調整手段は、絞り調整機構を
備えると共に、前記カメラ制御手段は、前記目標データ
記憶時と同等の露光条件となるように前記絞り調整機構
を制御することを特徴とする請求項1ないし4のいずれ
かに記載のロボット制御装置。
5. The optical system adjusting means includes an aperture adjusting mechanism, and the camera control means controls the aperture adjusting mechanism so that an exposure condition equivalent to that when the target data is stored is obtained. The robot controller according to any one of claims 1 to 4.
【請求項6】 前記光学系調整手段は、前記カメラの撮
影画像データのADゲインを調整するADゲイン調整手
段を備えると共に、前記カメラ制御手段は、前記目標デ
ータ記憶時と同等の露光条件となるように前記ADゲイ
ン調整手段を制御することを特徴とする請求項1ないし
4のいずれかに記載のロボット制御装置。
6. The optical system adjusting means includes AD gain adjusting means for adjusting the AD gain of the image data of the camera, and the camera controlling means has an exposure condition equivalent to that when the target data is stored. 5. The robot controller according to claim 1, wherein the AD gain adjusting means is controlled as described above.
JP2002007357A 2002-01-16 2002-01-16 Robot control device Pending JP2003211382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002007357A JP2003211382A (en) 2002-01-16 2002-01-16 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002007357A JP2003211382A (en) 2002-01-16 2002-01-16 Robot control device

Publications (1)

Publication Number Publication Date
JP2003211382A true JP2003211382A (en) 2003-07-29

Family

ID=27645893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002007357A Pending JP2003211382A (en) 2002-01-16 2002-01-16 Robot control device

Country Status (1)

Country Link
JP (1) JP2003211382A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214265A (en) * 2008-03-12 2009-09-24 Denso Wave Inc Robot teaching apparatus
JP2009248214A (en) * 2008-04-03 2009-10-29 Kanto Auto Works Ltd Image processing device and robot control system
JP2010032282A (en) * 2008-07-28 2010-02-12 Japan Atomic Energy Agency Method and system for measuring three-dimensional position of marker
JP2010172969A (en) * 2009-01-27 2010-08-12 Yaskawa Electric Corp Robot system and method of controlling robot
JP2011136377A (en) * 2009-12-25 2011-07-14 Ihi Corp Robot control device and method
JP2011235380A (en) * 2010-05-07 2011-11-24 Honda Motor Co Ltd Control device
JP2012028949A (en) * 2010-07-21 2012-02-09 Canon Inc Image processing device and control method of the same
US20130185913A1 (en) * 2012-01-24 2013-07-25 Kabushiki Kaisha Yaskawa Denki Production system and article producing method
CN103802137A (en) * 2013-12-30 2014-05-21 苏州亚安智能科技有限公司 Visualized industrial mechanical arm
JP2014124765A (en) * 2012-12-27 2014-07-07 Nitto Seiko Co Ltd Automatic thread fastening device
JP2015085458A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Robot control device, robot system and robot
JP2015136764A (en) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 Control device, robot system, robot and robot control method
CN106392605A (en) * 2016-09-13 2017-02-15 国网重庆市电力公司电力科学研究院 Automatic watt-hour meter lead-sealing bolt aligning system
CN107921643A (en) * 2015-09-03 2018-04-17 富士机械制造株式会社 Robot system
DE102017127025A1 (en) 2017-02-08 2018-08-09 Omron Corporation Image processing system, image processing device, method for reconfiguring a circuit in an FPGA and program for reconfiguring a circuit in an FPGA
CN108858202A (en) * 2018-08-16 2018-11-23 中国科学院自动化研究所 The control method of part grabbing device based on " to quasi- approach-crawl "
JP2019063954A (en) * 2017-10-03 2019-04-25 株式会社ダイヘン Robot system, calibration method and calibration program
WO2019109847A1 (en) * 2017-12-07 2019-06-13 真善美创新科技有限公司 Mechanical actuating structure and photographic robot
JP2020064566A (en) * 2018-10-19 2020-04-23 ファナック株式会社 Image processing apparatus using a plurality of imaging conditions
CN111601015A (en) * 2019-02-20 2020-08-28 富士施乐株式会社 Machining device, machining system, storage medium, and machining method
JP2020192090A (en) * 2019-05-28 2020-12-03 株式会社島津製作所 X-ray machine
US11095798B2 (en) 2018-03-15 2021-08-17 Canon Kabushiki Kaisha Image capturing system, image capturing apparatus, and control method of the same
US11305427B2 (en) 2017-12-15 2022-04-19 Kawasaki Jukogyo Kabushiki Kaisha Robot system and robot control method
JP7483455B2 (en) 2020-03-26 2024-05-15 キヤノン株式会社 Image processing device, method and program for controlling the image processing device

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214265A (en) * 2008-03-12 2009-09-24 Denso Wave Inc Robot teaching apparatus
JP4508252B2 (en) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ Robot teaching device
JP2009248214A (en) * 2008-04-03 2009-10-29 Kanto Auto Works Ltd Image processing device and robot control system
JP2010032282A (en) * 2008-07-28 2010-02-12 Japan Atomic Energy Agency Method and system for measuring three-dimensional position of marker
JP2010172969A (en) * 2009-01-27 2010-08-12 Yaskawa Electric Corp Robot system and method of controlling robot
JP2011136377A (en) * 2009-12-25 2011-07-14 Ihi Corp Robot control device and method
JP2011235380A (en) * 2010-05-07 2011-11-24 Honda Motor Co Ltd Control device
JP2012028949A (en) * 2010-07-21 2012-02-09 Canon Inc Image processing device and control method of the same
US20130185913A1 (en) * 2012-01-24 2013-07-25 Kabushiki Kaisha Yaskawa Denki Production system and article producing method
US9272377B2 (en) * 2012-01-24 2016-03-01 Kabushiki Kaisha Yaskawa Denki Production system and article producing method
JP2014124765A (en) * 2012-12-27 2014-07-07 Nitto Seiko Co Ltd Automatic thread fastening device
JP2015085458A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Robot control device, robot system and robot
US10059001B2 (en) 2013-10-31 2018-08-28 Seiko Epson Corporation Robot control device, robot system, and robot
CN103802137A (en) * 2013-12-30 2014-05-21 苏州亚安智能科技有限公司 Visualized industrial mechanical arm
JP2015136764A (en) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 Control device, robot system, robot and robot control method
US10875186B2 (en) 2015-09-03 2020-12-29 Fuji Corporation Robot system
CN107921643A (en) * 2015-09-03 2018-04-17 富士机械制造株式会社 Robot system
JPWO2017037908A1 (en) * 2015-09-03 2018-06-21 株式会社Fuji Robot system
CN107921643B (en) * 2015-09-03 2021-05-07 株式会社富士 Robot system
EP3345729B1 (en) * 2015-09-03 2021-07-07 FUJI Corporation Robot system with camera
CN106392605A (en) * 2016-09-13 2017-02-15 国网重庆市电力公司电力科学研究院 Automatic watt-hour meter lead-sealing bolt aligning system
US10474124B2 (en) 2017-02-08 2019-11-12 Omron Corporation Image processing system, image processing device, method of reconfiguring circuit in FPGA, and program for reconfiguring circuit in FPGA
DE102017127025B4 (en) 2017-02-08 2019-08-08 Omron Corporation Image processing system, image processing device, method for reconfiguring a circuit in an FPGA and program for reconfiguring a circuit in an FPGA
DE102017127025A1 (en) 2017-02-08 2018-08-09 Omron Corporation Image processing system, image processing device, method for reconfiguring a circuit in an FPGA and program for reconfiguring a circuit in an FPGA
JP2019063954A (en) * 2017-10-03 2019-04-25 株式会社ダイヘン Robot system, calibration method and calibration program
WO2019109847A1 (en) * 2017-12-07 2019-06-13 真善美创新科技有限公司 Mechanical actuating structure and photographic robot
US11305427B2 (en) 2017-12-15 2022-04-19 Kawasaki Jukogyo Kabushiki Kaisha Robot system and robot control method
US11095798B2 (en) 2018-03-15 2021-08-17 Canon Kabushiki Kaisha Image capturing system, image capturing apparatus, and control method of the same
CN108858202A (en) * 2018-08-16 2018-11-23 中国科学院自动化研究所 The control method of part grabbing device based on " to quasi- approach-crawl "
CN108858202B (en) * 2018-08-16 2020-11-10 中国科学院自动化研究所 Control method of part grabbing device based on alignment, approach and grabbing
JP2020064566A (en) * 2018-10-19 2020-04-23 ファナック株式会社 Image processing apparatus using a plurality of imaging conditions
JP7376227B2 (en) 2018-10-19 2023-11-08 ファナック株式会社 Image processing device using multiple imaging conditions
CN111601015A (en) * 2019-02-20 2020-08-28 富士施乐株式会社 Machining device, machining system, storage medium, and machining method
JP2020192090A (en) * 2019-05-28 2020-12-03 株式会社島津製作所 X-ray machine
JP7243453B2 (en) 2019-05-28 2023-03-22 株式会社島津製作所 X-ray equipment
JP7483455B2 (en) 2020-03-26 2024-05-15 キヤノン株式会社 Image processing device, method and program for controlling the image processing device

Similar Documents

Publication Publication Date Title
JP2003211382A (en) Robot control device
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
JP2003211381A (en) Robot control device
JP3173042B2 (en) Robot numerical controller
JP2010112859A (en) Robot system, robot control device, and method for controlling robot
CN104796616A (en) Focusing method and focusing system based on distance sensor of mobile terminal
CN112104851B (en) Detection method, device and detection system for picture correction
JP2003231078A (en) Position control method for robot arm and robot device
CN112549052A (en) Control device for a robot device for adjusting the position of a component supported by the robot
WO2019134117A1 (en) Pan-tilt control method, pan-tilt and machine readable storage medium
US20090052881A1 (en) Method for controlling direction controllable flash unit and imaging system using same
KR20220072331A (en) Hand eye calibration system and method
CN112164112A (en) Method and device for acquiring pose information of mechanical arm
JP2003311670A (en) Positioning control method of robot arm and robot equipment
CN107571290A (en) The calibrating installation of industrial robot end effector, method and system
CN107756391B (en) Correction method of mechanical arm correction system
JP2007019776A (en) Imaging system
JP2017050376A (en) Electronic component mounting device and electronic component mounting method
JP7130041B2 (en) Imaging device
CN107274447B (en) Depth image acquisition device and depth image acquisition method
JP5223683B2 (en) Work holding position and orientation measurement system and work transfer system
WO2018179829A1 (en) Moving body image capturing device and moving body image capturing method
CN108748155A (en) The automatic aligning method of more scenes
JP4321225B2 (en) Imaging system and imaging method
JP2010214546A (en) Device and method for assembling

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060711