JP3175623B2 - Robot control device - Google Patents

Robot control device

Info

Publication number
JP3175623B2
JP3175623B2 JP06839097A JP6839097A JP3175623B2 JP 3175623 B2 JP3175623 B2 JP 3175623B2 JP 06839097 A JP06839097 A JP 06839097A JP 6839097 A JP6839097 A JP 6839097A JP 3175623 B2 JP3175623 B2 JP 3175623B2
Authority
JP
Japan
Prior art keywords
target point
imaging
point position
robot
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP06839097A
Other languages
Japanese (ja)
Other versions
JPH10264066A (en
Inventor
隆宏 板倉
一郎 木村
敏夫 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP06839097A priority Critical patent/JP3175623B2/en
Publication of JPH10264066A publication Critical patent/JPH10264066A/en
Application granted granted Critical
Publication of JP3175623B2 publication Critical patent/JP3175623B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、所定空間内の任意
の位置に移動し且つ任意の姿勢に制御可能なロボットの
手先に撮像装置を装着し、そのロボットに対する制御に
より撮像対象物を上記撮像装置により所定位置から撮像
するロボットの制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup device mounted on a hand of a robot which can be moved to an arbitrary position in a predetermined space and controlled to an arbitrary posture, and the object to be imaged is controlled by controlling the robot. The present invention relates to a robot control device that captures an image from a predetermined position using a device.

【0002】[0002]

【従来の技術】テレビカメラなどを手先に取付けた手先
視覚付ロボットにおいて、ロボットの動作中に停止動作
が入ることなく精度よく撮像する場合、特公平7−46
288号公報に記載されているように、ロボット位置を
サンプリングタイム毎に記憶し、この位置データを用い
て撮像目標点である教示点の位置ずれ及び撮像タイミン
グ誤差の算出をし、補正を行うようにしている。補正は
撮像目標点(=ロボット動作点)に位置ずれ補正データ
を加えて目標点を通過させる方法が試みられている。ま
た、撮像タイミング誤差については実際経路がテレビカ
メラの何れのサンプリングタイムの後に撮像目標点を通
過するかを求め、そのサンプリングタイムから撮像点通
過までの時間を演算して記憶しておき、プレイバック動
作時に記憶したサンプリング時点と時間誤差より画像処
理装置に対して撮像開始命令を発行する方法が知られて
いる。
2. Description of the Related Art In a robot with a visual hand attached to a hand such as a television camera or the like, when an image is accurately taken without a stop operation during the operation of the robot, Japanese Patent Publication No. 7-46 is disclosed.
As described in Japanese Patent Publication No. 288, a robot position is stored for each sampling time, and a position shift and an imaging timing error of a teaching point, which is an imaging target point, are calculated and corrected using this position data. I have to. For the correction, a method has been attempted in which position shift correction data is added to an imaging target point (= robot operating point) to pass the target point. As for the imaging timing error, it is determined after which sampling time of the TV camera the actual route passes through the imaging target point, and the time from the sampling time to the passage of the imaging point is calculated and stored, and the playback time is calculated. There is known a method of issuing an imaging start command to an image processing apparatus based on a sampling time and a time error stored during operation.

【0003】[0003]

【発明が解決しようとする課題】ところで、近年、複雑
な立体形状の対象物の様々な箇所をロボットに取付けた
テレビカメラで見たいという要望がある。この場合、6
軸ロボットなどの手先にテレビカメラを装着し、ロボッ
トに対する制御により対象物を撮像することが考えられ
るが、そのような構成において従来例で示すようなロボ
ットの位置補正及び撮像タイミング誤差の補正を行うだ
けでは、テレビカメラがどこを向いているのか分らな
い。このため、ティーチング時と同じ画像が得られず、
結局、テレビカメラによる対象物の計測などを正確に行
えないといった問題があった。
By the way, in recent years, there has been a demand to view various portions of an object having a complicated three-dimensional shape with a television camera mounted on a robot. In this case, 6
It is conceivable that a television camera is attached to a hand of an axis robot or the like and an image of an object is captured by controlling the robot. In such a configuration, position correction of the robot and correction of an imaging timing error as shown in a conventional example are performed. Just do not know where the TV camera is pointing. For this reason, the same image as at the time of teaching cannot be obtained,
As a result, there is a problem that it is not possible to accurately measure an object using a television camera.

【0004】本発明は上記事情に鑑みてなされたもの
で、その目的は、撮像装置が装着されたロボットを停止
させることなく、撮像装置により撮像対象物を所望の撮
像位置及び撮像姿勢で撮像することが可能となるロボッ
トの制御装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to image an object to be imaged at a desired imaging position and imaging posture by an imaging device without stopping a robot equipped with the imaging device. It is an object of the present invention to provide a robot control device capable of performing the following.

【0005】[0005]

【課題を解決するための手段】請求項1の発明によれ
ば、制御手段は、ロボットの手先に装着された撮像装置
が撮像目標点位置記憶手段に記憶された撮像目標点位置
を通過するようにロボットを動作させると共に、その撮
像目標点位置において撮像装置の姿勢が撮像目標点姿勢
記憶手段に記憶された目標の姿勢となるようにロボット
を動作させる。
According to the first aspect of the present invention, the control unit controls the imaging device mounted on the hand of the robot to pass through the imaging target point position stored in the imaging target point position storage unit. The robot is operated so that the posture of the imaging device at the imaging target point position becomes the target posture stored in the imaging target point posture storage means.

【0006】ところが、ロボットを高速で動作させるよ
うな場合は、位置検出手段によるサンプリングタイム時
に撮像装置が撮像目標点位置に位置しないと共に、撮像
装置が撮像目標点位置において目標の姿勢とならない。
However, when the robot is operated at a high speed, the imaging device is not located at the imaging target point position at the time of sampling by the position detecting means, and the imaging device does not assume the target posture at the imaging target point position.

【0007】そこで、制御手段は、位置検出手段の検出
タイミングで撮像装置が撮像目標点位置記憶手段に記憶
された撮像目標点位置となるように位置し且つその撮像
目標点において撮像装置が撮像目標点姿勢記憶手段に記
憶された姿勢となるように前記ロボットを動作させる。
Therefore, the control means locates the imaging device at the imaging target point position stored in the imaging target point position storage means at the detection timing of the position detection means, and at the imaging target point, the imaging device detects the imaging target point. The robot is operated so as to have the posture stored in the point posture storage means.

【0008】そして、制御手段は、このような制御状態
の下で、撮像装置を所定タイミングで駆動する。これに
より、撮像目標点位置に略位置し且つ略目標の姿勢で撮
像対象物を撮像することができる。
The control means drives the imaging device at a predetermined timing under such a control state. This makes it possible to image the imaging target substantially at the imaging target point position and at the substantially desired posture.

【0009】請求項2の発明によれば、制御手段は、位
置検出手段によるサンプリングタイム時に撮像装置が撮
像目標点位置に位置するように位置補正すると共に撮像
目標点位置において撮像装置が目標の姿勢となるように
姿勢補正した状態でロボットを動作させる。これによ
り、撮像装置は、位置検出手段のサンプリングタイム時
に撮像目標点位置若しくはその近傍に位置すると共に、
撮像目標点位置において目標の姿勢若しくはその姿勢に
近い姿勢となる。
According to the second aspect of the present invention, the control means corrects the position so that the imaging device is located at the imaging target point position at the time of sampling by the position detection means, and at the same time the imaging device is at the target attitude at the imaging target point position. The robot is operated with the posture corrected so that Thereby, the imaging device is located at or near the imaging target point position at the time of sampling of the position detection means,
At the imaging target point position, the target posture becomes a posture or a posture close to the posture.

【0010】そして、制御手段は、位置検出手段により
撮像装置が撮像目標点位置若しくはこれの近傍に位置し
たことを検出したときは、撮像装置を駆動する。これに
より、撮像装置は、撮像目標点位置に略位置し且つ略目
標の姿勢で撮像対象物を撮像することができる。
The control means drives the imaging device when the position detection means detects that the imaging device is located at or near the imaging target point position. Thereby, the imaging device can image the imaging target object substantially at the imaging target point position and at the substantially target posture.

【0011】請求項3の発明によれば、動作目標点位置
設定手段は、撮像装置の通過経路に沿って撮像目標点位
置の前後に複数の動作目標点位置を設定し、動作目標点
位置記憶手段はその動作目標点位置を記憶する。
According to the third aspect of the present invention, the operation target point position setting means sets a plurality of operation target point positions before and after the imaging target point position along the passage of the imaging device, and stores the operation target point position. The means stores the operation target point position.

【0012】そして、制御手段は、撮像装置が動作目標
点位置記憶手段に記憶された動作目標点位置を通過する
ようにロボットを制御する。このとき、ロボットは各動
作目標点位置を通過するように動作するものの、撮像装
置は動作目標点位置を通過せず、その近傍を通過するの
が通常である。
The control means controls the robot such that the imaging device passes through the operation target point position stored in the operation target point position storage means. At this time, although the robot operates so as to pass through each operation target point position, the imaging device does not normally pass through the operation target point position but passes near the operation target point position.

【0013】そこで、制御手段は、位置検出手段による
サンプリングタイム時に撮像装置が撮像目標点位置の近
傍に位置したときの位置と撮像目標点位置との位置ずれ
量だけ動作目標点位置を位置補正する。これにより、位
置検出手段によるサンプリングタイム時に撮像装置を撮
像目標点位置に精度よく位置させることができる。
Therefore, the control means corrects the position of the operation target point by an amount of displacement between the position when the imaging device is located near the imaging target point position and the imaging target point position at the time of sampling by the position detection means. . Thus, the imaging device can be accurately positioned at the imaging target point position at the time of sampling by the position detection means.

【0014】請求項4の発明によれば、ロボットの動作
により撮像装置が撮像対象物の周囲を移動する場合は、
撮像装置が撮像目標点位置を通過する方向に沿った面と
当該撮像目標点位置における撮像方向を中心とする円が
交差する交点は、撮像目標点位置から略同一距離である
ことから、撮像目標点位置は撮像装置が撮像目標点位置
を通過するように移動する曲線の軌跡の近傍に位置す
る。
According to the fourth aspect of the present invention, when the imaging device moves around the object to be imaged by the operation of the robot,
Since the intersection point where the plane along the direction in which the imaging device passes through the imaging target point position and the circle centered on the imaging direction at the imaging target point position intersects is approximately the same distance from the imaging target point position, the imaging target The point position is located near a locus of a curve that moves the imaging device so as to pass through the imaging target point position.

【0015】そこで、制御手段は、動作目標点位置記憶
手段に記憶されている動作目標点位置を位置ずれ量だけ
位置補正する。これにより、撮像装置が移動する曲線の
軌跡が位置ずれ量だけ移動することになり、撮像装置に
よる撮像タイミングを撮像目標点位置に精度よく一致さ
せることができる。
Therefore, the control means corrects the position of the operation target point stored in the operation target point position storage means by the amount of positional deviation. As a result, the locus of the curve on which the imaging device moves moves by the amount of displacement, and the imaging timing of the imaging device can be accurately matched with the imaging target point position.

【0016】請求項5の発明によれば、制御手段は、動
作目標点位置において撮像装置の姿勢が撮像目標点位置
における目標の姿勢となるように制御する。このとき、
撮像装置の姿勢を高速で変化させるような場合は、撮像
装置は前後の姿勢の影響を受けて目標の姿勢とならな
い。
According to the fifth aspect of the present invention, the control means controls the attitude of the imaging device at the operation target point position to be the target attitude at the imaging target point position. At this time,
When the attitude of the imaging device is changed at a high speed, the imaging device does not become the target attitude due to the influence of the front and rear attitudes.

【0017】この場合、撮像目標点位置は動作目標点位
置の近傍に位置しているので、撮像装置が撮像目標点位
置の近傍に位置したときの姿勢と目標の姿勢との姿勢ず
れ量だけ動作目標点位置における姿勢を補正することに
より、撮像装置が撮像目標点位置の近傍に位置したとき
の姿勢を目標の姿勢とすることができる。
In this case, since the imaging target point position is located in the vicinity of the operation target point position, the imaging device operates by the amount of the positional deviation between the attitude when the imaging device is located in the vicinity of the imaging target point position and the target attitude. By correcting the posture at the target point position, the posture when the imaging device is located near the imaging target point position can be set as the target posture.

【0018】そこで、制御手段は、位置検出手段により
撮像装置が撮像目標点位置の近傍に位置したことを検出
したときは、そのときの撮像装置の姿勢と撮像目標点に
おける目標の姿勢との姿勢ずれ量だけ撮像装置が動作目
標点に位置したときの姿勢を補正することにより、撮像
目標点における姿勢を目標の姿勢に精度よく合せること
ができる。
Therefore, when the position detecting means detects that the imaging device is located near the imaging target point position, the control means determines the attitude of the imaging device at that time and the target attitude at the imaging target point. By correcting the posture when the imaging device is located at the operation target point by the amount of the deviation, the posture at the imaging target point can be accurately adjusted to the target posture.

【0019】請求項6の発明によれば、動作目標点位置
として撮像装置が撮像目標点位置の近傍を通過する方向
に沿った面と当該撮像目標点における撮像方向を中心と
する円とが交差する交点を設定した場合には、撮像目標
点位置は動作目標点位置の中央に位置することから、動
作目標点位置における目標の姿勢を補正することによ
り、撮像目標点における撮像装置の姿勢を精度よく目標
の姿勢とすることができる。
According to the sixth aspect of the present invention, the surface along the direction in which the imaging device passes near the imaging target point position intersects the circle having the imaging direction at the imaging target point as the operation target point position. When the intersection point is set, the imaging target point position is located at the center of the operation target point position. Therefore, by correcting the target posture at the operation target point position, the orientation of the imaging device at the imaging target point can be accurately determined. The target posture can be set well.

【0020】請求項7の発明によれば、空間領域設定手
段は、位置検出手段によるサンプリングタイム時に撮像
装置が少なくとも1回は位置するような撮像目標点位置
を含む空間領域を各撮像目標位置において設定する。そ
して、空間領域記憶手段は、空間領域設定手段により設
定された空間領域データを記憶する。
According to the seventh aspect of the present invention, the spatial region setting means is configured such that the imaging device is located at least once at the time of sampling by the position detection means.
Is set at each imaging target position . Then, the space area storage means stores the space area data set by the space area setting means.

【0021】そして、制御手段は、位置検出手段により
撮像装置が空間領域記憶手段に記憶された空間領域デー
タが示す領域に位置したことを検出したときは撮像装置
を駆動する。これにより、撮像装置が撮像目標点若しく
はこれの近傍に位置したタイミングで精度よく撮像装置
を駆動することができる。
The control means drives the imaging device when the position detection means detects that the imaging device is located in the area indicated by the spatial area data stored in the spatial area storage means. This makes it possible to accurately drive the imaging device at the timing when the imaging device is located at or near the imaging target point.

【0022】[0022]

【発明の実施の形態】以下、本発明を視覚センサ付ロボ
ット装置に適用した一実施例を図面を参照して説明す
る。図2は全体の構成を概略的に示している。この図2
において、6軸ロボット1はロボット制御装置2により
制御されるもので、そのマニピュレータ3の手先にはC
CDカメラからなるシャッタカメラ4(本発明の撮像装
置に相当)が装着されている。このシャッタカメラ4
は、画像処理装置5からトリガーが与えられたタイミン
グで撮像信号を画像処理装置5に出力するようになって
いる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a robot device with a visual sensor will be described below with reference to the drawings. FIG. 2 schematically shows the entire configuration. This figure 2
, The six-axis robot 1 is controlled by the robot controller 2, and the manipulator 3 has
A shutter camera 4 composed of a CD camera (corresponding to the imaging device of the present invention) is mounted. This shutter camera 4
Is configured to output an imaging signal to the image processing device 5 at a timing when a trigger is given from the image processing device 5.

【0023】画像処理装置5は、シャッタカメラ4から
の撮像信号に基づいて画像処理を施すことにより、検査
対象物6(本発明の撮像対象物に相当)の形状を認識す
る。ティーチペンダント7は、ロボット制御装置2に対
してシャッタカメラ4を所望の撮像位置及び所望の撮像
姿勢となるように教示するためのものである。
The image processing device 5 recognizes the shape of the inspection object 6 (corresponding to the imaging object of the present invention) by performing image processing based on an imaging signal from the shutter camera 4. The teach pendant 7 is for instructing the robot controller 2 to set the shutter camera 4 at a desired imaging position and a desired imaging posture.

【0024】図1は全体構成を示すブロック図である。
この図1において、ロボット制御装置2は主制御部8
(本発明の制御手段、位置検出手段、動作目標点位置設
定手段、動作目標点姿勢設定手段、空間領域設定手段に
相当)を主体とすると共に、撮像目標点記憶部9(本発
明の撮像目標点位置記憶手段、撮像目標点姿勢記憶手段
に相当)、ロボット動作目標点記憶部10(本発明の動
作目標点位置記憶手段、動作目標点姿勢記憶手段に相
当)、撮像点位置・姿勢検知領域記憶部11(本発明の
検知領域記憶手段に相当)、ずれ量記憶部12、検知記
憶部13を備えて構成されている。
FIG. 1 is a block diagram showing the overall configuration.
In FIG. 1, the robot controller 2 includes a main controller 8
(Corresponding to the control means, the position detection means, the operation target point position setting means, the operation target point attitude setting means, and the space area setting means of the present invention), and the imaging target point storage section 9 (the imaging target of the present invention). Point position storage means, imaging target point / posture storage means), robot operation target point storage unit 10 (equivalent to operation target point position storage means, operation target point / posture storage means of the present invention), imaging point position / posture detection area A storage unit 11 (corresponding to a detection area storage unit of the present invention), a shift amount storage unit 12, and a detection storage unit 13 are provided.

【0025】一方、6軸ロボット1は、ロボット制御装
置2からの指令に応じて複数のサーボモータ14により
所定のマニピュレータ3を動作させることによりシャッ
タカメラ4の位置及び姿勢を制御するようになってい
る。この場合、サーボモータ14により駆動されるマニ
ピュレータ3の位置はエンコーダ15(本発明の位置検
出手段に相当)により検出されるようになっている。
On the other hand, the 6-axis robot 1 controls the position and the attitude of the shutter camera 4 by operating a predetermined manipulator 3 by a plurality of servomotors 14 in response to a command from the robot controller 2. I have. In this case, the position of the manipulator 3 driven by the servomotor 14 is detected by the encoder 15 (corresponding to the position detecting means of the present invention).

【0026】そして、画像処理装置5は、ロボット制御
装置2の主制御部8からの指令に応じてシャッタカメラ
4にトリガーを指令すると共に、シャッタカメラ4から
入力した画像信号に基づいて画像処理を実行することに
より検査対象物6を認識するようになっている。
The image processing device 5 issues a trigger to the shutter camera 4 in response to a command from the main control unit 8 of the robot control device 2, and performs image processing based on an image signal input from the shutter camera 4. By executing, the inspection object 6 is recognized.

【0027】次に上記構成の作用について説明する。本
システムは、図3に示すようにティーチングモード、学
習モード、プレイバックモードに分けられており、それ
らのモードを順に実行することによりシャッタカメラ4
の撮像位置及び撮像姿勢の精度を高めるようになってい
る。
Next, the operation of the above configuration will be described. This system is divided into a teaching mode, a learning mode, and a playback mode as shown in FIG. 3, and the shutter camera 4 is executed by sequentially executing those modes.
The accuracy of the image pickup position and the image pickup posture is improved.

【0028】まず、ロボット制御装置2に対してティー
チングモードを設定した状態でティーチペンダント7に
よりシャッタカメラ4の撮像目標点位置Pi 及び撮像姿
勢Si をロボット制御装置2に教示する。
First, the teaching pendant 7 teaches the imaging target point position Pi and the imaging posture Si of the shutter camera 4 to the robot control device 2 with the teaching mode set for the robot control device 2.

【0029】図4はティーチングモードを示している。
この図4において、ロボット制御装置2は、教示された
撮像目標点位置Pi 及び撮像姿勢Si を順に記憶する
(S401)。
FIG. 4 shows the teaching mode.
In FIG. 4, the robot controller 2 sequentially stores the taught imaging target point position Pi and the imaging posture Si taught (S401).

【0030】この場合、撮像目標点位置Pi は、図7に
示すようにベース座標系(ロボットが有する座標系)に
おいてベクトルPi=(Xi,Yi,Zi)(但し、i
=1,2,……,n)で表すことができる。つまり、撮
像目標点Piの1つ前の撮像目標点はPi-1 、1つ後の
撮像目標点はPi+1 で表すことができる。
In this case, as shown in FIG. 7, the imaging target point position Pi is determined by a vector Pi = (Xi, Yi, Zi) (where i
= 1, 2,..., N). That is, the imaging target point immediately before the imaging target point Pi can be represented by Pi-1, and the imaging target point immediately after the imaging target point Pi can be represented by Pi + 1.

【0031】一方、撮像姿勢Si は以下の式で表すこと
ができる。
On the other hand, the imaging posture Si can be expressed by the following equation.

【数1】 (Equation 1)

【0032】この数式1において、ベクトルSixはシャ
ッタカメラ4の画像平面X軸方向単位ベクトルxmiをベ
ース座標系で表し、ベクトルSiyは画像平面Y軸方向単
位ベクトルymiをベース座標系で表し、ベクトルSizは
カメラ視線方向単位ベクトルzmiをベース座標系で表し
ている。また、XAiはベクトルxmiのベース座標系での
X成分、YAiはベクトルxmiのベース座標系でのY成
分、ZAiはベクトルxmiのベース座標系でのZ成分、X
Biはベクトルymiのベース座標系でのX成分、YBiはベ
クトルymiのベース座標系でのY成分、ZBiはベクトル
ymiのベース座標系でのZ成分、Xciはベクトルzmiの
ベース座標系でのX成分、Yciはベクトルzmiのベース
座標系でのY成分、Zciはベクトルzmiのベース座標系
でのZ成分を表している。
In this equation 1, the vector Six represents the unit vector xmi in the image plane X direction of the shutter camera 4 in the base coordinate system, the vector Siy represents the unit vector ymi in the image plane Y direction in the base coordinate system, and the vector Siz Represents the camera viewing direction unit vector zmi in the base coordinate system. XAi is the X component of the vector xmi in the base coordinate system, YAi is the Y component of the vector xmi in the base coordinate system, ZAi is the Z component of the vector xmi in the base coordinate system, X
Bi is the X component of the vector ymi in the base coordinate system, YBi is the Y component of the vector ymi in the base coordinate system, ZBi is the Z component of the vector ymi in the base coordinate system, and Xci is X in the base coordinate system of the vector zmi. The component Yci represents the Y component of the vector zmi in the base coordinate system, and Zci represents the Z component of the vector zmi in the base coordinate system.

【0033】そして、ロボット制御装置2は、オペレー
タによる教示作業が終了したときは(S402:YE
S)、図7に示すようにロボット動作目標点位置データ
であるPi の近傍にロボット動作目標点位置データであ
るベクトルMi,1 、Mi,2 及びそれらのロボット動作目
標点位置における姿勢データであるベクトルSi,1 、S
i,2 を自動生成してロボット動作目標点記憶部10に格
納する(S403)。
Then, when the teaching operation by the operator is completed, the robot controller 2 (S402: YE
S) As shown in FIG. 7, the vectors Mi, 1, Mi, 2, which are the robot operation target point position data, near the robot operation target point position data Pi, and the posture data at those robot operation target point positions. Vectors Si, 1 and S
i, 2 is automatically generated and stored in the robot operation target point storage unit 10 (S403).

【0034】この場合、ロボット動作点目標点Mi,1 、
Mi,2 は、例えばカメラ視線方向と垂直な方向でカメラ
撮像目標点位置を中心に等距離Li で同一姿勢の2点と
して自動生成する。
In this case, the robot operating point target point Mi, 1,
Mi, 2 is automatically generated as two points having the same posture at the same distance Li about the camera imaging target point position in the direction perpendicular to the camera viewing direction, for example.

【0035】つまり、位置補正対象とするカメラ撮像目
標点位置をPi 、その視線単位ベクトルをSi,z 、ひと
つ前のカメラ撮像目標点位置をPi-1 、ひとつ後のカメ
ラ撮像目標点位置をPi+1 とし、Pi を通りベクトルS
i,z に鉛直な半径Li (大きさはロボット動作速度で決
まる)の円2Li を考える。また、Pi 、Pi-1 、Pi+
1 を含む平面Hi の法線単位ベクトルをベクトルNi と
する。この円2Li と平面Hi との交線がロボットの手
先、ひいてはシャッタカメラ4が通過する経路となる。
That is, Pi is the target position of the camera image to be corrected, Si, z is the line-of-sight unit vector, Pi-1 is the position of the immediately preceding camera image, and Pi is the position of the next camera image target point. +1 and the vector S
Consider a circle 2Li with a radius Li (the size is determined by the robot operation speed) perpendicular to i, z. Also, Pi, Pi-1 and Pi +
A normal unit vector of the plane Hi including 1 is defined as a vector Ni. The line of intersection of the circle 2Li and the plane Hi is the path through which the robot's hand, and thus the shutter camera 4 passes.

【0036】ここで、円2Li と平面Hi との交線の平
行単位ベクトルをliとすると、◎
Here, assuming that a parallel unit vector of an intersection line between the circle 2Li and the plane Hi is li, ◎

【数2】 ここで、数式2の(2)は、円2LI を含む平面と平面
Hiが平行な場合は、2平面の交線は求まらないことか
ら、線分Pi-1 、Pi+1 に平行な直線と円2Liとの交
線をロボットの通過経路とすることを意味している。ま
た、法線単位ベクトルNiが図7に示す方向に設定され
ている場合は、ベクトルliは図7に示す方向となり、
Mi,1 =Pi−Li・liとなるが、法線単位ベクトル
Niが図7に示す方向とは逆方向に設定されている場合
は、ベクトルl1も図7に示す方向とは逆方向となり、
Mi,1 =Pi+Li・liとなる。このことは、ロボッ
ト動作目標点Mi,2 に関しても同様である。
(Equation 2) Here, in equation (2), when the plane including the circle 2LI and the plane Hi are parallel to each other, the intersection of the two planes is not obtained, and therefore, the planes parallel to the line segments Pi-1 and Pi + 1 are not obtained. This means that the intersection of the straight line and the circle 2Li is set as the passage route of the robot. When the normal unit vector Ni is set in the direction shown in FIG. 7, the vector li becomes the direction shown in FIG.
Mi, 1 = Pi−Li · li, but when the normal unit vector Ni is set in the opposite direction to the direction shown in FIG. 7, the vector 11 also becomes the opposite direction to the direction shown in FIG.
Mi, 1 = Pi + Li · li. The same applies to the robot operation target point Mi, 2.

【0037】また、Si,1 =Si,2 =Siに設定する。
つまり、上述のようにして設定したロボット動作目標点
位置Mi,1 、Mi,2 における撮像姿勢Si,1 、Si,2 を
ティーチングモードで設定した撮像姿勢Siとする。
Further, Si, 1 = Si, 2 = Si is set.
That is, the imaging postures Si, 1, Si, 2 at the robot operation target point positions Mi, 1, Mi, 2 set as described above are taken as the imaging postures Si set in the teaching mode.

【0038】さらに、各々の撮像目標点Pi を中心とし
て、図8に示すように6軸ロボット1の進行方向に対し
てシャッタカメラ4が制御サンプリングタイムTs に移
動するだけの距離Ki(Ki =Vi ・Ts mm:Vi は
ロボット動作速度)で且つ6軸ロボット1の進行方向と
直角方向にロボット軌跡誤差(r1mm)以上となる空間
領域にロボット位置・姿勢検知領域Di を設定し、ロボ
ット制御装置2の撮像点位置・姿勢検知領域記憶部11
に格納する(S404)。
Further, as shown in FIG. 8, the distance Ki (Ki = Vi) for moving the shutter camera 4 to the control sampling time Ts with respect to the traveling direction of the six-axis robot 1 around each imaging target point Pi. Ts mm: Vi is the robot operation speed) and sets the robot position / posture detection area Di in a space area where the robot trajectory error (r1 mm) or more is perpendicular to the traveling direction of the 6-axis robot 1, and the robot controller 2 Imaging point position / posture detection area storage unit 11
(S404).

【0039】続いて、ロボット制御装置2に対して学習
モードを設定する。図5は学習モードを示している。こ
の図5において、ロボット制御装置2は、後述するプレ
イバックモードと同一条件で制御されるロボット動作目
標点位置に基づいてサンプリングタイム毎の補間データ
を演算することによりロボット動作補間目標値を求める
(S501)。
Subsequently, a learning mode is set for the robot controller 2. FIG. 5 shows the learning mode. In FIG. 5, the robot controller 2 calculates a robot operation interpolation target value by calculating interpolation data for each sampling time based on a robot operation target point position controlled under the same conditions as a playback mode described later ( S501).

【0040】つまり、上述した学習モードにおいては、
ロボットが通過する位置として動作目標点位置を設定す
るものの、実際のロボットが動作する目標経路として
は、ロボットが動作目標点位置若しくはその近傍を円滑
に通過するようにロボット動作補間目標値を設定するの
である。
That is, in the learning mode described above,
Although the operation target point position is set as the position where the robot passes, the robot operation interpolation target value is set so that the robot passes smoothly at or near the operation target point position as the target path where the actual robot operates. It is.

【0041】そして、ロボットを動作させると、ロボッ
ト制御装置2は、ロボットが動作補間目標値位置を通過
するようにマニピュレータ3を動作する(S502)。
このロボットの動作状態では、図8に示すように6軸ロ
ボット1のマニピュレータ3の手先の位置情報Rij、及
び姿勢情報Rsi,j (j=1,2,……)をエンコーダ
15からの出力に基づいて順に読取る。(S503)こ
のとき、マニピュレータ3の手先は、図8に示す動作目
標点位置Mi,1 、Mi,2 を円滑に通過するように制御さ
れることから、同図に示すように交線Aを通過して撮像
目標点位置Pi の近傍を通過するようになる。
Then, when the robot is operated, the robot controller 2 operates the manipulator 3 so that the robot passes the position of the motion interpolation target value (S502).
In the operation state of the robot, the position information Rij and the posture information Rsi, j (j = 1, 2,...) Of the hand of the manipulator 3 of the six-axis robot 1 are output to the output from the encoder 15 as shown in FIG. Read in order based on (S503) At this time, the hand of the manipulator 3 is controlled so as to smoothly pass through the operation target point positions Mi, 1 and Mi, 2 shown in FIG. 8, so that the intersection line A as shown in FIG. It passes through the vicinity of the imaging target point position Pi.

【0042】ここで、ロボット制御装置2は、順に読取
った位置情報Ri,J と撮像目標点点位置・姿勢検知領域
記憶部11に記憶されているデータDi とを比較し(S
504)、この領域Di に位置情報Ri,j が含まれてい
ると判断したときは(S504:YES)、この現在位
置情報Ri,J 及び現在姿勢情報Rsi,j を検知記憶部1
3に格納する(S506)。
Here, the robot controller 2 compares the sequentially read position information Ri, J with the data Di stored in the imaging target point position / posture detection area storage unit 11 (S
504) If it is determined that the area Di includes the position information Ri, j (S504: YES), the current position information Ri, J and the current attitude information Rsi, j are stored in the detection storage unit 1.
3 (S506).

【0043】つまり、図8において、ロボット制御装置
2は、位置情報Ri,1 、Ri,2 、Ri,3 と順に読取り、
続く位置情報Ri,4 が領域Di に含まれていると判断し
たときは、以下の式で表される現在位置情報Ri,4 及び
現在姿勢情報Rsi,4を検知記憶部13に格納する。
That is, in FIG. 8, the robot controller 2 reads the position information Ri, 1, Ri, 2, Ri, 3 in this order.
When it is determined that the subsequent position information Ri, 4 is included in the area Di, the current position information Ri, 4 and the current attitude information Rsi, 4 expressed by the following equations are stored in the detection storage unit 13.

【0044】[0044]

【数3】 (Equation 3)

【0045】続いて、上述した一連のロボット動作が終
了したときは(S.506:YES)、検知記憶部13
に記憶した現在位置情報Ri と撮像目標点記憶部9に格
納しているカメラ撮像目標点位置情報Pi とを比較し、
撮像目標点位置ずれ量Hi (ΔXi ,ΔYi ,ΔZi )
を以下のように演算する。
Subsequently, when the above-described series of robot operations is completed (S.506: YES), the detection storage unit 13
Is compared with the camera target position information Pi stored in the target image storage unit 9,
Imaging target point positional shift amount Hi (ΔXi, ΔYi, ΔZi)
Is calculated as follows.

【0046】[0046]

【数4】ΔXi =Xri−Xi 、ΔYi =Yri−Yi 、Δ
Zi =Zri−Zi
ΔXi = Xri−Xi, ΔYi = Yri−Yi, Δ
Zi = Zri-Zi

【0047】また、検知記憶部13に記憶した現在姿勢
情報Rsiと撮像目標点記憶部9に格納している撮像姿勢
情報Si とを比較し、姿勢ずれ量Hs(ΔAi ,ΔBi
,ΔCi )を以下のように演算する。
Further, the current posture information Rsi stored in the detection storage unit 13 and the imaging posture information Si stored in the imaging target point storage unit 9 are compared, and the posture deviation amounts Hs (ΔAi, ΔBi
, ΔCi) are calculated as follows.

【0048】[0048]

【数5】 この数式5におけるMi は姿勢変換マトリクスで、撮像
姿勢情報Si に対する現在姿勢情報Rsiの姿勢ずれ量を
示している。ここで、ΔAi はX軸まわり、ΔBi はY
軸まわり、ΔCi はZ軸まわりの回転ずれを表してい
る。また、数式5は、シャッタカメラ4の向きを、ま
ず、X軸まわりにずれ量ΔAi だけ回転してから、Y軸
まわりにずれ量ΔBi だけを回転し、さらにZ軸まわり
にずれ量ΔCi だけ回転することを意味している。
(Equation 5) In the equation (5), Mi is an attitude conversion matrix, which indicates the amount of attitude shift of the current attitude information Rsi with respect to the imaging attitude information Si. Where ΔAi is around the X axis and ΔBi is Y
.DELTA.Ci about the axis represents a rotational deviation about the Z axis. Equation 5 indicates that the direction of the shutter camera 4 is first rotated about the X axis by the shift amount ΔAi, then rotated only around the Y axis by the shift amount ΔBi, and further rotated about the Z axis by the shift amount ΔCi. It means to do.

【0049】ここで、数式5は、ティーチングしたカメ
ラ撮像目標点の姿勢がSiであり、ロボットを実際に動
作させた後の検知姿勢がRsi,4であった場合に、姿勢S
iからRsi,4への回転移動を表す行列Miは、X軸まわ
りの回転をΔAi、Y軸まわりの回転をΔBi、Z軸ま
わりの回転をΔCiとすると、Rsi,4=Si・Miとな
る。この場合、Mi=Si−1・Rsi,4となり、Si、
Rsi,4が既知であるので、MiひいてはΔAi,ΔB
i,ΔCiを算出することができる。
Here, Expression 5 indicates that the posture S is obtained when the posture of the camera imaging target point after teaching is Si and the detected posture after actually operating the robot is Rsi, 4.
The matrix Mi representing the rotational movement from i to Rsi, 4 is Rsi, 4 = Si · Mi, where ΔAi is the rotation around the X axis, ΔBi is the rotation around the Y axis, and ΔCi is the rotation around the Z axis. . In this case, Mi = Si −1 · Rsi, 4, and Si,
Since Rsi, 4 is known, Mi and thus ΔAi, ΔB
i, ΔCi can be calculated.

【0050】そして、ロボット制御装置2は、撮像目標
点位置ずれ量Hi 及び姿勢ずれ量Hsをずれ量記憶部1
2に格納する。上述のようにして学習モードを終了した
ときは、ロボット制御装置2に対してプレイバックモー
ドを設定する。
Then, the robot control device 2 stores the imaging target point position deviation amount Hi and the posture deviation amount Hs in the deviation amount storage unit 1.
2 is stored. When the learning mode is completed as described above, the playback mode is set for the robot controller 2.

【0051】図6はプレイバックモードを示している。
この図6において、ロボット制御装置2は、各々の撮像
目標点位置情報Pi に対応したロボット動作目標点記憶
部10の位置情報Mi,1 、Mi,2 からずれ量記憶部12
に記憶した位置ずれ量Hi だけ減じるように補正する
(S601)。
FIG. 6 shows the playback mode.
In FIG. 6, the robot control device 2 stores the shift amount storage unit 12 from the position information Mi, 1 and Mi, 2 of the robot operation target point storage unit 10 corresponding to each imaging target point position information Pi.
(S601).

【0052】また、姿勢データSi,1 、Si,2 からずれ
量記憶部12に記憶した姿勢ずれ量Hsiを下記の式に示
すように減じるように補正する(S602)。
Also, the posture deviation Hsi stored in the deviation amount storage unit 12 is corrected from the posture data Si, 1 and Si, 2 so as to be reduced as shown in the following equation (S602).

【数6】 [Si,1 ´]=[Si,2 ´]=[Si ][Mi ´] この数式6において、[Mi ´]は[Mi ]のΔAi 、
ΔBi 、ΔCiを−ΔAi 、−ΔBi 、−ΔCi に置換
えたものである。
[Si, 1 '] = [Si, 2'] = [Si] [Mi '] In this equation 6, [Mi'] is [Delta] Ai of [Mi],
ΔBi and ΔCi are replaced with -ΔAi, -ΔBi and -ΔCi.

【0053】そして、上述のようにして求めたロボット
動作目標点位置情報Mi,1 ´、Mi,2 ´及び姿勢情報S
i,1 ´、Si,2 ´を新たな目標値として、以下、学習モ
ードと同様に制御する(S603〜S607)。
The robot operation target point position information Mi, 1 ', Mi, 2' and attitude information S obtained as described above are obtained.
With i, 1 'and Si, 2' as new target values, control is performed in the same manner as in the learning mode (S603 to S607).

【0054】この場合、学習モードと異なるのは、6軸
ロボットの現在位置情報Ri,j が撮像点位置姿勢検知領
域のデータDi と比較され、この領域Di に入ったとき
に(S607:YES)、画像処理装置5に撮像開始指
令を出力する点である(S608)。これにより、画像
処理装置5はシャッタカメラ4にトリガを出力し、それ
に応じてシャッタカメラ4はその時点における映像信号
を出力するので、画像処理装置5はシャッタカメラ4か
らトリガを出力した時点の画像信号を入力して画像処理
することにより検査対象物6を認識することができる。
In this case, the difference from the learning mode is that the current position information Ri, j of the six-axis robot is compared with the data Di of the imaging point position / posture detection area, and when it enters this area Di (S607: YES). The other point is that an imaging start command is output to the image processing apparatus 5 (S608). As a result, the image processing device 5 outputs a trigger to the shutter camera 4 and the shutter camera 4 outputs the video signal at that time accordingly. The inspection object 6 can be recognized by inputting a signal and performing image processing.

【0055】上記構成によれば、ロボット制御装置2
は、学習モードを実行することによりティーチングモー
ドで教示した撮像目標点位置をロボットがサンプリング
タイム時に通過するように位置補正すると共に、その撮
像目標点位置において撮像目標姿勢となるように位置補
正するようにしたので、撮像目標位置となるように位置
補正するだけの従来技術と比較して、ロボットの位置姿
勢誤差を補正でき、しかも撮像タイミングはサンプリン
グタイミングに合わせることを、新たな機能を必要とせ
ずに達成できる。これにより、ロボット動作中に停止動
作させることなく、正確な撮像が実現でき、検査の高速
化が可能となる。
According to the above configuration, the robot controller 2
Execute the learning mode to correct the position of the imaging target point taught in the teaching mode so that the robot passes at the sampling time, and to correct the position so that the imaging target point position becomes the imaging target posture. Therefore, compared to the conventional technology that only corrects the position so as to become the imaging target position, the position and orientation error of the robot can be corrected, and the imaging timing is adjusted to the sampling timing without requiring a new function. Can be achieved. Accordingly, accurate imaging can be realized without stopping operation during operation of the robot, and inspection can be speeded up.

【0056】本発明は、上記実施例にのみ限定されるも
のではなく、次のように変形または拡張できる。本実施
例では、学習モードをティーチングモード、プレイバッ
クモードとは別のモードとして説明したが、プレイバッ
クモード中に行うようにしてもよい。
The present invention is not limited to the above embodiment, but can be modified or expanded as follows. In the present embodiment, the learning mode is described as a mode different from the teaching mode and the playback mode. However, the learning mode may be performed during the playback mode.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例における全体構成を示す概略
FIG. 1 is a schematic diagram showing an overall configuration according to an embodiment of the present invention.

【図2】6軸ロボットと検査対象物との配置関係を示す
FIG. 2 is a diagram showing an arrangement relationship between a six-axis robot and an inspection object.

【図3】ロボット制御装置の動作モードの順番を示すフ
ローチャート
FIG. 3 is a flowchart showing the order of operation modes of the robot control device.

【図4】ロボット制御装置のティーチングモードを示す
フローチャート
FIG. 4 is a flowchart showing a teaching mode of the robot control device.

【図5】ロボット制御装置の学習モードを示すフローチ
ャート
FIG. 5 is a flowchart showing a learning mode of the robot control device.

【図6】ロボット制御装置のプレイバックモードを示す
フローチャート
FIG. 6 is a flowchart showing a playback mode of the robot control device.

【図7】ロボット制御装置による動作目標点の生成方法
の原理を示す図
FIG. 7 is a diagram showing the principle of a method of generating an operation target point by the robot control device.

【図8】ロボットの撮像目標点位置と実際の通過位置と
の関係を示す図
FIG. 8 is a diagram showing a relationship between a position of an imaging target point of a robot and an actual passing position.

【図9】ロボットの撮像目標点位置と位置補正後の通過
位置との関係を示す図
FIG. 9 is a diagram illustrating a relationship between a target position of an imaging target of a robot and a passing position after position correction.

【符号の説明】[Explanation of symbols]

1は6軸ロボット、2はロボット制御装置、3はマニピ
ュレータ、4はシャッタカメラ(撮像装置)、5は画像
処理装置、6は検査対象物(撮像対象物)、8は主制御
部(制御手段、位置検出手段、動作目標点位置設定手
段、動作目標点姿勢設定手段、空間領域設定手段)、9
は撮像目標点記憶部(撮像目標点位置記憶手段、撮像目
標点姿勢記憶手段)、10はロボット動作目標点記憶部
(動作目標点位置記憶手段、動作目標点姿勢記憶手
段)、11は撮像点位置・姿勢検知領域記憶部(空間領
域記憶手段)である。
1 is a 6-axis robot, 2 is a robot controller, 3 is a manipulator, 4 is a shutter camera (imaging device), 5 is an image processing device, 6 is an inspection object (imaging object), 8 is a main control unit (control means) , Position detecting means, operation target point position setting means, operation target point attitude setting means, space area setting means), 9
Is an imaging target point storage unit (imaging target point position storage means, imaging target point / posture storage means), 10 is a robot operation target point storage unit (operation target point position storage means, operation target point / posture storage means), and 11 is an imaging point It is a position / posture detection area storage unit (spatial area storage means).

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−313225(JP,A) 特開 平8−108386(JP,A) 特開 平9−47991(JP,A) 特開 平5−336523(JP,A) (58)調査した分野(Int.Cl.7,DB名) B25J 3/00 - 3/10 B25J 9/10 - 9/22 B25J 13/00 - 13/08 B25J 19/02 - 19/06 H04N 7/18 G01B 11/24 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-8-313225 (JP, A) JP-A-8-108386 (JP, A) JP-A-9-47991 (JP, A) 336523 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) B25J 3/00-3/10 B25J 9/10-9/22 B25J 13/00-13/08 B25J 19/02 -19/06 H04N 7/18 G01B 11/24

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 所定空間内の任意の位置に移動し且つ任
意の姿勢に制御可能なロボットの手先に撮像装置を装着
し、そのロボットに対する制御により撮像対象物を上記
撮像装置により所定位置から撮像するロボットの制御装
置において、 前記撮像対象物の周囲に設定された複数の撮像目標点の
位置を記憶する撮像目標点位置記憶手段と、 撮像目標点毎に前記撮像装置の姿勢を記憶する撮像目標
点姿勢記憶手段と、 ロボットの動作状態で前記撮像装置の位置をサンプリン
グタイム毎に検出する位置検出手段と、 前記位置検出手段の検出タイミングで前記撮像装置が前
記撮像目標点位置記憶手段に記憶された撮像目標点位置
となるように位置し且つその撮像目標点において前記撮
像装置が前記撮像目標点姿勢記憶手段に記憶された姿勢
となるように前記ロボットを動作させた状態で前記撮像
装置を所定タイミングで駆動する制御手段とを備えたこ
とを特徴とするロボットの制御装置。
An imaging device is mounted on a hand of a robot which can move to an arbitrary position in a predetermined space and can be controlled to an arbitrary posture, and an image of an object to be imaged is captured from the predetermined position by the imaging device by controlling the robot. An imaging target point storage means for storing positions of a plurality of imaging target points set around the imaging target; and an imaging target for storing an attitude of the imaging device for each imaging target point. Point attitude storage means, position detection means for detecting the position of the imaging device at each sampling time in the operation state of the robot, and the imaging device is stored in the imaging target point position storage means at the detection timing of the position detection means. The imaging device is positioned so as to be the imaging target point position, and at the imaging target point, the image capturing device has the attitude stored in the imaging target point attitude storage means. The robot controller being characterized in that with said control means for driving the imaging device robot while operating at a predetermined timing.
【請求項2】 前記制御手段は、前記位置検出手段の検
出タイミングで前記撮像装置が前記撮像目標点位置記憶
手段に記憶された撮像目標点位置に位置するように位置
補正し且つその撮像目標点において前記撮像装置が前記
撮像目標点姿勢記憶手段に記憶された姿勢となるように
姿勢補正した状態で前記ロボットを動作させると共に、
その動作状態で前記位置検出手段により前記撮像装置が
前記撮像目標点位置記憶手段に記憶された撮像目標点位
置若しくはこれの近傍位置に位置したことを検出したと
きに前記撮像装置を駆動することを特徴とする請求項1
記載のロボットの制御装置。
2. The control means corrects the position of the imaging device at the detection timing of the position detection means so as to be positioned at the imaging target point position stored in the imaging target point position storage means, and corrects the imaging target point. While operating the robot in a state where the imaging device is posture corrected so as to be the posture stored in the imaging target point posture storage means,
In the operation state, when the position detection unit detects that the imaging device is located at the imaging target point position stored in the imaging target point position storage unit or at a position near the imaging target point position, the imaging device is driven. Claim 1.
The control device of the described robot.
【請求項3】 前記撮像装置の通過経路に沿って前記撮
像目標点位置記憶手段に記憶された撮像目標点位置の前
後に複数の動作目標点位置を設定する動作目標位置設定
手段と、 この動作目標点位置設定手段により設定された複数の動
作目標点位置を記憶する動作目標点位置記憶手段とを備
え、 前記制御手段は、前記撮像装置が前記動作目標点位置記
憶手段に記憶された動作目標点位置を通過するように前
記ロボットを動作させると共に、その動作に応じて前記
位置検出手段により前記撮像装置が撮像目標点位置の近
傍に位置したことを検出したときは、そのときの前記撮
像装置の検出位置と前記撮像目標点位置記憶手段に記憶
された撮像目標点位置との位置ずれ量だけ前記動作目標
点位置記憶手段に記憶された動作目標点位置を補正した
状態でロボットを動作させることを特徴とする請求項2
記載のロボットの制御装置。
3. An operation target position setting unit that sets a plurality of operation target point positions before and after the imaging target point position stored in the imaging target point position storage unit along a passage route of the imaging device; Operation target point position storage means for storing a plurality of operation target point positions set by the target point position setting means, wherein the control means is configured to control the operation target stored in the operation target point position storage means by the imaging device. When the robot is operated so as to pass through a point position, and when the position detecting unit detects that the imaging device is positioned near the imaging target point position in accordance with the operation, the imaging device at that time is detected. A state in which the operation target point position stored in the operation target point position storage unit is corrected by a positional deviation amount between the detected position of the image and the imaging target point position stored in the imaging target point position storage unit. Claim 2, characterized in that to operate the robot
The control device of the described robot.
【請求項4】 前記動作目標点位置設定手段は、前記撮
像装置が撮像目標点位置の近傍を通過する方向に沿った
面と当該撮像目標点位置における前記撮像装置の撮像方
向を中心とする円とが交差する交点を動作目標点位置と
して設定することを特徴とする請求項3記載のロボット
の制御装置。
4. The operation target point position setting means includes a surface along a direction in which the imaging device passes near the imaging target point position and a circle centered on the imaging direction of the imaging device at the imaging target point position. 4. The control device for a robot according to claim 3, wherein an intersection point between the two is set as an operation target point position.
【請求項5】 前記動作目標点位置記憶手段に記憶され
た動作目標点位置における前記撮像装置の姿勢を設定す
る動作目標点姿勢設定手段と、 この動作目標点姿勢設定手段により設定された姿勢を記
憶する動作目標点姿勢記憶手段とを備え、 前記制御手段は、前記動作目標点位置記憶手段に記憶さ
れた各動作目標点位置における前記撮像装置の姿勢が前
記撮像目標点姿勢記憶手段に記憶された姿勢となるよう
にロボットを動作させると共に、前記位置検出手段によ
り前記撮像装置が撮像目標点位置の近傍に位置したこと
を検出したときは、そのときの前記撮像装置の姿勢と撮
像目標点位置における目標の姿勢との姿勢ずれ量だけ前
記動作目標点姿勢記憶手段に記憶された姿勢を補正した
状態でロボットを動作させることを特徴とする請求項3
または4記載のロボットの制御装置。
5. An operation target point attitude setting means for setting an attitude of the imaging device at an operation target point position stored in the operation target point position storage means, and an attitude set by the operation target point attitude setting means. An operation target point attitude storage means for storing, wherein the control means stores the attitude of the imaging device at each operation target point position stored in the operation target point position storage means in the imaging target point attitude storage means. When the robot is operated so as to assume the posture, and when the position detecting means detects that the imaging device is located near the imaging target point position, the posture of the imaging device and the imaging target point position at that time are detected. 4. The robot is operated in a state in which the posture stored in the operation target point posture storage means has been corrected by the amount of the posture deviation from the target posture in the step (c).
Or the control device for a robot according to 4.
【請求項6】 前記動作目標点姿勢設定手段は、前記撮
像装置が前記撮像目標点位置の近傍を通過する方向に沿
った面と当該撮像目標点位置における撮像方向を中心と
する円とが交差する交点を動作目標点位置として設定す
ることを特徴とする請求項5記載のロボットの制御装
置。
6. The operation target point attitude setting means, wherein the plane along the direction in which the imaging device passes near the imaging target point position intersects a circle centered on the imaging direction at the imaging target point position. The control device for a robot according to claim 5, wherein an intersection point of the movement is set as an operation target point position.
【請求項7】 前記位置検出手段によるサンプリングタ
イム時に前記撮像装置が少なくとも1回は位置するよう
な撮像目標点位置を含む空間領域を各撮像目標位置にお
いて設定する空間領域設定手段と、 この空間領域設定手段により設定された空間領域データ
を記憶する空間領域記憶手段とを備え、 前記制御手段は、前記位置検出手段により前記撮像装置
が前記空間領域記憶手段に記憶された空間領域データが
示す領域に位置したことを検出したときに前記撮像装置
を駆動することを特徴とする請求項1乃至6の何れかに
記載のロボットの制御装置。
7. The apparatus according to claim 1, wherein said imaging device is positioned at least once at a sampling time by said position detecting means.
The spatial area including the various imaging target point positions is
A space area setting means for setting the space area data set by the space area setting means, and the control means controls the position detection means to cause the imaging device to store the space area data. 7. The robot control device according to claim 1, wherein the imaging device is driven when it is detected that the image pickup device is located in an area indicated by the spatial area data stored in the means.
JP06839097A 1997-03-21 1997-03-21 Robot control device Expired - Lifetime JP3175623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06839097A JP3175623B2 (en) 1997-03-21 1997-03-21 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06839097A JP3175623B2 (en) 1997-03-21 1997-03-21 Robot control device

Publications (2)

Publication Number Publication Date
JPH10264066A JPH10264066A (en) 1998-10-06
JP3175623B2 true JP3175623B2 (en) 2001-06-11

Family

ID=13372349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06839097A Expired - Lifetime JP3175623B2 (en) 1997-03-21 1997-03-21 Robot control device

Country Status (1)

Country Link
JP (1) JP3175623B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4032410B2 (en) 2001-11-09 2008-01-16 ソニー株式会社 Information processing system, information processing method, program, recording medium, and information processing apparatus
US8352076B2 (en) * 2009-06-03 2013-01-08 Canon Kabushiki Kaisha Robot with camera
JP5912627B2 (en) * 2012-02-14 2016-04-27 川崎重工業株式会社 Imaging inspection apparatus, control apparatus and control method thereof
JP6571723B2 (en) 2017-07-11 2019-09-04 ファナック株式会社 PROGRAMMING DEVICE FOR GENERATING OPERATION PROGRAM AND PROGRAM GENERATION METHOD

Also Published As

Publication number Publication date
JPH10264066A (en) 1998-10-06

Similar Documents

Publication Publication Date Title
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
EP1215017B1 (en) Robot teaching apparatus
KR970007039B1 (en) Detection position correction system
US20110029131A1 (en) Apparatus and method for measuring tool center point position of robot
CN111565895B (en) Robot system and robot control method
JP6661028B2 (en) Work position correction method
EP0796704A1 (en) Apparatus and method for correcting a travelling route for a robot
JPH0435885A (en) Calibration method for visual sensor
JP2000293695A (en) Picture processor
JP2005106825A (en) Method and apparatus for determining position and orientation of image receiving device
JPH0431836B2 (en)
JP4615418B2 (en) Industrial robot control method
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
JP3412465B2 (en) Mobile robot device
JPH07266272A (en) Follow-up method and device for manipulator
JP3175623B2 (en) Robot control device
JP4056662B2 (en) Appearance inspection device
JPH0746288B2 (en) Control method and device for robot with hand vision
JPH0588721A (en) Controller for articulated robot
JP3562096B2 (en) Position detection method
JP3218553B2 (en) Robot system control method and device
JP3404681B2 (en) Sensor pointing direction sequential control method
JPH05197416A (en) Teaching device for robot operation point
JPH0731536B2 (en) Teaching data correction robot
JPS61131887A (en) Calibration system of robot having visual sensation

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 13

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term