JPH06270083A - Work position detector - Google Patents

Work position detector

Info

Publication number
JPH06270083A
JPH06270083A JP5060707A JP6070793A JPH06270083A JP H06270083 A JPH06270083 A JP H06270083A JP 5060707 A JP5060707 A JP 5060707A JP 6070793 A JP6070793 A JP 6070793A JP H06270083 A JPH06270083 A JP H06270083A
Authority
JP
Japan
Prior art keywords
work
camera
cameras
feature point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5060707A
Other languages
Japanese (ja)
Inventor
Noriyuki Uchiumi
典之 内海
Yoshinori Sugiyama
義範 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokico Ltd
Original Assignee
Tokico Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokico Ltd filed Critical Tokico Ltd
Priority to JP5060707A priority Critical patent/JPH06270083A/en
Publication of JPH06270083A publication Critical patent/JPH06270083A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To detect a position of a work moving over a wide range in real time with high accuracy. CONSTITUTION:TV cameras 2-4 photograph images of three characteristic points on a work, and image recognizing devices 10-12 detect respectively coordinates in an image plane of these respective characteristic points, and a computing device 13 carries out computation on the coordinates in a reference coordinate system of the respective characteristic points according to these coordinates, and sends a position or posture correcting command of the respective TV cameras to a driving means of universal heads 5-7 so that the respective characteristic points can fall within visual fields of the respective TV cameras 2-4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボット等を有する自
動生産ライン用装置に用いて好適なワーク位置検知装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work position detecting device suitable for use in an automatic production line device having a robot or the like.

【0002】[0002]

【従来の技術】自動生産ラインにおいては、各生産機器
がライン内を流れるワークに対し適切な作業を施す必要
があり、そのためには到来するワークの位置・姿勢を正
確に検出する必要がある。このようなワークの位置を検
出するための方法として、従来、次の2通りの方法があ
った。
2. Description of the Related Art In an automatic production line, it is necessary for each production apparatus to perform an appropriate work on a work flowing in the line, and for that purpose, it is necessary to accurately detect the position and orientation of the incoming work. Conventionally, there have been the following two methods for detecting the position of such a work.

【0003】<第1の方法>ワークを平行移動・回転移
動が可能な6自由度を有する物体であると仮定しその位
置・姿勢を演算する。ワーク位置検出に際し、ワーク上
の同一直線上に位置しない3点、例えば、穴等を代表点
として定める。そして、これらの各代表点を各々2台の
カメラにより異なる方向から見るステレオカメラ方式に
より撮影し、撮影により得られた各特徴点の画像平面内
での座標に基づき、作業空間におけるワークの位置およ
び姿勢を求める。
<First Method> It is assumed that the work is an object having 6 degrees of freedom capable of parallel movement / rotational movement, and its position / orientation is calculated. When the work position is detected, three points that are not on the same straight line on the work, such as holes, are defined as representative points. Then, each of these representative points is photographed by a stereo camera method in which two cameras are seen from different directions, and the position of the work in the work space and Ask for posture.

【0004】<第2の方法>ワークの外形を画する各辺
の中から相互に平行でない第1および第2の辺を選択
し、これらの2辺の位置関係を予めメモリに記憶してお
く。そして、ワークが作業空間内に到来した場合、この
ワークの第1の辺が作業空間内に設定された相互に平行
な第1および第2の検出平面と交わる2交点を例えば光
学的手段により検出する。さらにワークの第2の辺が第
1および第2の検出平面と非平行な第3の検出平面と交
わる交点を検出する。そして、これら3個の交点の座標
に基づき、第1および第2の辺に関する位置情報を求
め、これらの位置情報に基づきワークの位置を検出す
る。なお、本願出願人は、この方法に基づくワーク位置
検知装置を特願平2−9541号にて提案している。
<Second Method> First and second sides that are not parallel to each other are selected from the respective sides that define the outer shape of the work, and the positional relationship between these two sides is stored in advance in a memory. . Then, when the work arrives in the work space, two intersecting points where the first side of the work intersects the mutually parallel first and second detection planes set in the work space are detected by, for example, optical means. To do. Further, the intersection point where the second side of the work intersects the third detection plane that is non-parallel to the first and second detection planes is detected. Then, based on the coordinates of these three intersections, position information regarding the first and second sides is obtained, and the position of the work is detected based on these position information. The applicant of the present application has proposed a work position detecting device based on this method in Japanese Patent Application No. 2-9541.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述の
第1若しくは第2の方法は、いずれも固定されたカメラ
等によってワークを撮影することによりワーク位置を検
出するものであるので、カメラ等の視野に対応した狭い
範囲内でのワーク位置検出しかすることができないとい
う問題があった。また、このようにワーク位置の検出可
能な範囲が狭いため、かかる範囲をワークが通過する短
時間しかワーク位置の検出をすることができないという
問題があった。ここで、カメラ等の視野を広げれば、ワ
ーク位置の検出可能範囲を広げることが一応可能であ
る。しかし、、カメラの視野を広げた場合、これにより
ワーク位置の測定精度が低下してしまうという問題が生
じる。
However, in the first and second methods described above, since the work position is detected by photographing the work with a fixed camera or the like, the field of view of the camera or the like is detected. However, there is a problem that it is only possible to detect the work position within a narrow range corresponding to. Further, since the work position detectable range is narrow, there is a problem that the work position can be detected only for a short time when the work passes through the range. Here, if the field of view of the camera or the like is widened, it is possible to broaden the detectable range of the work position. However, when the field of view of the camera is widened, this causes a problem that the measurement accuracy of the work position is reduced.

【0006】本発明は、このような事情に鑑みてなされ
たものであり、ラインを流れるワークの位置を測定精度
を低下させることなく広い範囲に亙って検出することが
できるワーク位置検知装置を提供することを目的とす
る。
The present invention has been made in view of the above circumstances, and provides a work position detecting device capable of detecting the position of a work flowing in a line over a wide range without lowering the measurement accuracy. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】本発明に係るワーク位置
検知装置は、ワーク上の特徴点付近の画像を撮影手段に
よって撮影し、該特徴点の画像平面内での結像位置に基
づき、該特徴点の所定の基準座標系における座標を演算
し、前記ワークの位置および姿勢を特定する情報として
出力するワーク位置検知装置であって、前記特徴点が前
記撮影手段によって撮影されるように前記撮影手段の取
付位置または姿勢を変更する変更手段を具備することを
特徴とする。
A work position detecting apparatus according to the present invention takes an image of a feature point on a work by a photographing means, and based on the image formation position of the feature point in an image plane, A work position detecting device for calculating coordinates of a feature point in a predetermined reference coordinate system and outputting the information as information for specifying the position and orientation of the work, wherein the feature point is photographed by the photographing means. It is characterized by comprising a changing means for changing a mounting position or a posture of the means.

【0008】[0008]

【作用】上記発明によれば、特徴点が撮影手段によって
撮影されるように撮影手段の位置または姿勢が変更され
るので広い範囲に亙って移動するワークの位置を検出す
ることができる。
According to the above invention, since the position or posture of the photographing means is changed so that the characteristic points are photographed by the photographing means, it is possible to detect the position of the work moving over a wide range.

【0009】[0009]

【実施例】以下、図面を参照して本発明の一実施例につ
いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0010】A:実施例の構成 図1は自動車生産ラインのある工程に設置された本実施
例によるワーク位置検出装置を示す全体図である。この
図において、Oは作業空間に固定された基準座標系であ
る。この基準座標系は、XO軸、YO軸およびZO軸から
なる直交座標系であり、本実施例においては作業空間内
におけるワークの位置を特定するために使用される。1
はワークたる自動車車体であり、図示せぬコンベア等に
よりこの工程の作業空間内に搬送される。ここで、車体
1の搬送方向はXO軸方向にほぼ一致している。
A: Structure of Embodiment FIG. 1 is an overall view showing a work position detecting apparatus according to this embodiment installed in a certain process of an automobile production line. In this figure, O is a reference coordinate system fixed in the work space. This reference coordinate system is an orthogonal coordinate system composed of an X O axis, a Y O axis, and a Z O axis, and is used to specify the position of the work in the working space in this embodiment. 1
Is a car body that is a work, and is conveyed into the work space of this process by a conveyor (not shown). Here, the transport direction of the vehicle body 1 substantially coincides with the X O axis direction.

【0011】2,3,4はテレビジョンカメラ(以下、
TVカメラと略す)であり、ワーク1の表面の同一直線
上にない3つの特徴点9a,9b,9c付近の各画像を
各々撮影する。ここで、各TVカメラ2,3,4は、各
々が撮影する特徴点の動きに追従して位置または姿勢が
自動的に変更されるように構成されている(後述)た
め、その視野は作業空間におけるワークの全移動量とは
無関係に比較的狭く設定される。例えば、搬送精度が比
較的良い場合には視野の大きさは「±数10cm」に設
定される。
2, 3 and 4 are television cameras (hereinafter,
The image is abbreviated as a TV camera), and images of three feature points 9a, 9b, and 9c that are not on the same straight line on the surface of the work 1 are captured. Here, the TV cameras 2, 3 and 4 are configured so that their positions or postures are automatically changed in accordance with the movements of the feature points captured by the respective TV cameras (described later), so that their field of view is set to work. It is set relatively narrow regardless of the total movement of the workpiece in the space. For example, when the transport accuracy is relatively good, the size of the field of view is set to "± several tens cm".

【0012】本実施例は、各TVカメラ2,3,4によ
って各特徴点を撮影することにより作業空間における各
特徴点の位置(すなわち、上記基準座標系における座標
値)を求めるものであるが、各特徴点の位置は撮影によ
り得られた画像平面上での各特徴点の座標を基準座標系
での座標に変換することにより求める。この座標変換を
可能にするため、本実施例では各TVカメラに固定され
た直交座標系を想定している。ここで、各TVカメラに
対し固定された直交座標系とは以下のような座標軸によ
り構成される座標系をいう。 z軸:当該カメラの撮影方向(当該カメラから視野の中
心を見る方向)に対応した軸である。この軸上のすべて
の点は画像平面の中心に結像される。 x軸:水平面に含まれ、かつ、上記z軸と直交する軸で
ある。 y軸:上記z軸およびx軸と直交する軸である。
In this embodiment, the position of each characteristic point in the working space (that is, the coordinate value in the above-mentioned reference coordinate system) is obtained by photographing each characteristic point by each TV camera 2, 3, 4. , The position of each feature point is obtained by converting the coordinates of each feature point on the image plane obtained by photographing into coordinates in the reference coordinate system. In order to make this coordinate conversion possible, this embodiment assumes an orthogonal coordinate system fixed to each TV camera. Here, the orthogonal coordinate system fixed to each TV camera means a coordinate system constituted by the following coordinate axes. z-axis: An axis corresponding to the shooting direction of the camera (direction in which the center of the field of view is viewed from the camera). All points on this axis are imaged in the center of the image plane. x-axis: An axis included in the horizontal plane and orthogonal to the z-axis. y-axis: An axis orthogonal to the z-axis and the x-axis.

【0013】図2にTVカメラ2によって撮影された特
徴点9a付近の画像を例示する。この図においてR
(0,0)が上記画像平面の中心を表している。図示の
場合、特徴点9aは、この中心からx軸方向およびy軸
方向に各々u画素およびv画素だけ隔たった位置P
(u,v)に結像している。本実施例では、各TVカメ
ラを介して得られる各特徴点についての画面中心からの
隔たりを表すずれ量データ(u,v)に基づき各特徴点
の基準座標系での位置が演算される。
FIG. 2 illustrates an image around the feature point 9a taken by the TV camera 2. R in this figure
(0,0) represents the center of the image plane. In the illustrated case, the feature point 9a is located at a position P separated from the center by u pixels and v pixels in the x-axis direction and the y-axis direction, respectively.
The image is formed at (u, v). In this embodiment, the position of each feature point in the reference coordinate system is calculated based on the shift amount data (u, v) representing the distance from the screen center for each feature point obtained via each TV camera.

【0014】5,6,7は各々雲台であり、各TVカメ
ラ2,3,4はこれらの雲台に固定されている。これら
の雲台5,6,7には、サーボモータ等の駆動手段が設
けられており、これらの駆動手段がコントローラ8から
の命令に従って各雲台を駆動することにより、各TVカ
メラの位置または姿勢の変更、すなわち、各TVカメラ
の並行移動または上下角,水平角の変更が行われるよう
になっている。上述したTVカメラを特徴点の動きに追
従させる制御もコントローラおよび駆動手段によってな
されるものである。
Reference numerals 5, 6, and 7 are pan heads, and the TV cameras 2, 3, and 4 are fixed to these pan heads. These pan heads 5, 6 and 7 are provided with drive means such as servo motors, and by these drive means driving each pan head in accordance with a command from the controller 8, the position of each TV camera or The posture is changed, that is, the TV cameras are moved in parallel or the vertical angle and the horizontal angle are changed. The control for causing the above-mentioned TV camera to follow the movement of the characteristic points is also performed by the controller and the driving means.

【0015】次に図3に示すブロック図を参照して本実
施例のシステム構成について説明する。同図に示すよう
に、コントローラ8は、画像認識装置10,11,1
2、演算器13および記憶装置14から構成されてい
る。まず、画像認識装置10,11,12は、TVカメ
ラ2,3,4によって撮影された各画像に基づき、特徴
点9a,9b,9cを各々検知し、各特徴点の画像平面
上での位置を表す上記ずれ量データ(u,v)を各々演
算装置13に出力する。記憶装置14は、ワーク1の各
特徴点間の距離、すなわち、特徴点9aおよび9b間距
離、特徴点9bおよび9c間距離、特徴点9cおよび9
a距離を距離データとして記憶する。一般的に、距離デ
ータはワーク1たる自動車車体の車種によって異なった
ものとなる。このため、記憶装置14には、生産ライン
において取扱う全車種に対応した距離データが予め記憶
され、車種番号を指定することによりその車種番号に対
応した距離データが読み出されるように構成されてい
る。また、記憶装置14には、上述したTVカメラ2,
3,4の設置条件に関するデータ、すなわち、以下のデ
ータが記憶される。 TVカメラ2,3,4の各設置位置の基準座標系Oに
おける座標値 TVカメラ2,3,4の初期位置における各撮影方向
の水平角および上下角 上記ずれ量データ(u,v)に基づきTVカメラの水
平角回転方向の移動量および上下角回転方向の移動量を
演算するための関係式
Next, the system configuration of this embodiment will be described with reference to the block diagram shown in FIG. As shown in the figure, the controller 8 includes image recognition devices 10, 11, 1
2, the calculator 13 and the storage device 14. First, the image recognition devices 10, 11 and 12 respectively detect the feature points 9a, 9b and 9c based on the images captured by the TV cameras 2, 3 and 4, and determine the position of each feature point on the image plane. The shift amount data (u, v) representing the above is output to the arithmetic unit 13, respectively. The storage device 14 stores the distances between the respective feature points of the work 1, that is, the distances between the feature points 9a and 9b, the distances between the feature points 9b and 9c, and the feature points 9c and 9.
The distance a is stored as distance data. Generally, the distance data varies depending on the vehicle type of the vehicle body of the work 1. Therefore, the storage device 14 is preliminarily stored with distance data corresponding to all vehicle types handled on the production line, and by designating a vehicle type number, the distance data corresponding to the vehicle type number is read out. In addition, the storage device 14 includes the above-mentioned TV camera 2,
Data regarding the installation conditions 3 and 4, that is, the following data are stored. Coordinate values of the installation positions of the TV cameras 2, 3 and 4 in the reference coordinate system O Horizontal angle and vertical angle of each shooting direction at the initial positions of the TV cameras 2, 3 and 4 Based on the deviation amount data (u, v) A relational expression for calculating the movement amount in the horizontal angle rotation direction and the movement amount in the vertical angle rotation direction of the TV camera.

【0016】演算装置13は、記憶装置14に記憶され
たワーク1の車種番号に対応する距離データと、上記T
Vカメラ2,3,4の設置条件に関するデータと、画像
認識装置10,11,12から供給される各特徴点に対
応したずれ量データ(u,v)と、雲台5,6,7の現
在における位置、水平方向角および上下角とに基づき、
ワーク1の基準座標系における位置および姿勢を特定す
るためのデータを算出し、メインコントローラ15へ出
力する。このメインコントローラ15は、演算装置13
から得たデータに基づき、図示しないロボットを制御す
るための信号を出力する。また、演算装置13は、各特
徴点を各TVカメラ2,3,4の視野内に収めるのに必
要な各TVカメラ2,3,4の水平角または上下角の補
正量を各ずれ量データ(u,v)および上記関係式に
基づいて算出し、その補正量に従った水平角または上下
角の補正動作の指令を各TVカメラの駆動手段に与え
る。
The computing device 13 stores the distance data corresponding to the vehicle type number of the work 1 stored in the storage device 14 and the above-mentioned T
Data concerning the installation conditions of the V cameras 2, 3, 4 and shift amount data (u, v) corresponding to each feature point supplied from the image recognition devices 10, 11, 12 and the pan heads 5, 6, 7 Based on the current position, horizontal angle and vertical angle,
Data for specifying the position and orientation of the work 1 in the reference coordinate system is calculated and output to the main controller 15. The main controller 15 includes a computing device 13
Based on the data obtained from the above, a signal for controlling a robot (not shown) is output. In addition, the arithmetic unit 13 calculates the correction amount of the horizontal angle or the vertical angle of each TV camera 2, 3, 4 necessary to put each feature point in the field of view of each TV camera 2, 3, 4 for each shift amount data. It is calculated based on (u, v) and the above relational expression, and a command for correcting the horizontal angle or the vertical angle according to the correction amount is given to the drive means of each TV camera.

【0017】B:実施例の動作 次に、本実施例の動作を図4および図5を参照して説明
する。まず、図4に示すステップS1において、ワーク
1の車種番号とワーク1の位置検出開始の指示がメイン
コントローラ15から演算装置13に送られる。演算装
置13は、この車種番号に対応する各特徴点間の距離デ
ータおよびTVカメラ2,3,4の設置条件等に関する
データ(上記データ〜を含む)を記憶装置14から
読み出す。また、認識フラグ(後述)、検知フラグ(後
述)をOFFにしてデータの初期化を行う。
B: Operation of Embodiment Next, the operation of this embodiment will be described with reference to FIGS. 4 and 5. First, in step S1 shown in FIG. 4, the vehicle type number of the work 1 and an instruction to start the position detection of the work 1 are sent from the main controller 15 to the arithmetic unit 13. The computing device 13 reads from the storage device 14 the distance data between the respective characteristic points corresponding to the vehicle type number and the data (including the above data) regarding the installation conditions of the TV cameras 2, 3 and 4. Further, the recognition flag (described later) and the detection flag (described later) are turned off to initialize the data.

【0018】次にステップS2に進むと、演算装置13
は、ステップS1において読み出されたデータに基づい
てTVカメラ2,3,4を初期位置へ移動させる指令を
作成して雲台5,6,7の各駆動手段に与え、各TVカ
メラの位置を初期化する。次にステップS3に進み、演
算装置13は、一定時間を計時するタイマをスタートさ
せる。
Next, in step S2, the arithmetic unit 13
Creates a command to move the TV cameras 2, 3, 4 to the initial position based on the data read in step S1 and gives the command to each drive means of the platform heads 5, 6, 7 to determine the position of each TV camera. To initialize. Next, in step S3, the arithmetic unit 13 starts a timer for measuring a fixed time.

【0019】次にステップS4に進み、以下のいずれか
の条件を満足するか否かを判断し、この判断結果が「Y
es」である期間、特徴点の位置検出、雲台の位置また
は姿勢の制御等を行うステップS5〜S17の各処理を
実行する。 条件1:タイマがスタートしてから一定時間内であるこ
と 条件2:各TVカメラ2,3,4に対応した認識フラグ
がすべてON状態であること
Next, in step S4, it is determined whether or not any of the following conditions is satisfied, and the result of this determination is "Y".
During the period of "es", each processing of steps S5 to S17 for detecting the position of the characteristic point, controlling the position or posture of the platform, etc. is executed. Condition 1: Within a fixed time after the timer is started Condition 2: All recognition flags corresponding to each TV camera 2, 3 and 4 are in ON state

【0020】上記において、認識フラグとは、当該TV
カメラが特徴点を検知した場合にON状態とされるフラ
グである。また、検知フラグとは、すべての認識フラグ
がON状態である場合にONとされるフラグである。ス
テップS4において条件1または2に該当するか否かを
判断するのは、次の理由によるものである。すなわち、
ワーク1の位置検出のためにはすべての特徴点9a,9
b,9cがTVカメラ2,3,4によって捉えられなけ
ればならないが、これらの特徴点がTVカメラの視野か
ら大きく逸脱している場合にはワーク1が位置検出され
ることなく作業空間を通過してしまう不具合が起こり得
る。そこで、すべての特徴点が認識されない時間が一定
時間を越えた場合に上記不具合の兆候とみなすことと
し、この不具合に対処するためのアラームを発生すべく
上記条件1または2に該当するか否かの判断を行ってい
る。
In the above description, the recognition flag means the TV.
This is a flag that is turned on when the camera detects a feature point. The detection flag is a flag that is turned on when all the recognition flags are in the on state. The reason why the condition 1 or 2 is satisfied in step S4 is as follows. That is,
To detect the position of the work 1, all the feature points 9a, 9
b and 9c must be captured by the TV cameras 2, 3 and 4, but if these characteristic points deviate significantly from the field of view of the TV camera, the work 1 passes through the work space without being detected in position. It is possible that there will be problems. Therefore, if the time during which all the characteristic points are not recognized exceeds a certain time, it is considered as a symptom of the above-mentioned defect, and whether the above condition 1 or 2 is met to generate an alarm for dealing with this defect. Is making a decision.

【0021】次にステップS5〜S17の各処理につい
て説明する。まず、ステップS4の判断結果が「Ye
s」となってステップS5に進むと、カメラ番号nを
「1」〜「3」まで変化させ(n=「1」〜「3」はT
Vカメラ2〜4および画像認識装置10〜12に各々対
応)、各nについてステップS6、S7を実行する。ま
ず、ステップS6に進むと、演算装置13は、画像認識
装置10〜12のうちカメラ番号nに対応するものに画
像取込みの指示を与える。この結果、カメラ番号nに対
応する画像認識装置は、対応するTVカメラから画像を
取込むと共に、画像を構成する各画素の濃度を所定のし
きい値と比較することにより画像を白黒パターン化し、
このようにして得た白黒パターン中から特徴点の画像を
検出する。また、画像認識装置は、特徴点を検知するこ
とができた場合にその特徴点についてずれ量データ
(u,v)を求める。次にステップS7に進み、演算装
置13は、カメラ番号nに対応した画像認識装置が特徴
点を検出したか否かを判断する。この判断結果が「Ye
s」である場合は図5にPAD図を示すステップS8〜
S14までの各処理へと進む。一方、この判断結果が
「No」の場合はカメラ番号nに対応した認識フラグを
OFF状態とし(ステップS15)、ステップS5に戻
る。
Next, each processing of steps S5 to S17 will be described. First, the determination result of step S4 is “Yes
When it becomes "s" and proceeds to step S5, the camera number n is changed from "1" to "3" (n = "1" to "3" is T
V cameras 2 to 4 and image recognition devices 10 to 12 respectively), and steps S6 and S7 are executed for each n. First, in step S6, the arithmetic unit 13 gives an instruction to capture an image to one of the image recognition devices 10 to 12 corresponding to the camera number n. As a result, the image recognition device corresponding to the camera number n captures the image from the corresponding TV camera, and compares the density of each pixel forming the image with a predetermined threshold value to form a black-and-white pattern of the image,
The image of the feature point is detected from the black-and-white pattern thus obtained. Further, when the image recognition device can detect the feature point, the image recognition device obtains the shift amount data (u, v) for the feature point. Next, in step S7, the arithmetic device 13 determines whether or not the image recognition device corresponding to the camera number n has detected a feature point. This judgment result is "Ye
If it is "s", step S8-showing the PAD diagram in FIG.
The process proceeds to each process up to S14. On the other hand, when the result of this determination is "No", the recognition flag corresponding to the camera number n is turned off (step S15), and the process returns to step S5.

【0022】次にステップS7から図5に示すステップ
S8に進むと、演算装置13はカメラ番号nに対応した
認識フラグをON状態とする。次にステップS9に進
み、カメラ番号nに対応する画像認識装置から特徴点の
ずれ量データ(u,v)を取り込む。次にステップS1
0に進み、ステップS9において得たずれ量データ
(u,v)を記憶装置14に記憶された上記関係式に
従って雲台の上下回転方向または水平回転方向の移動量
に変換する。次にステップS11に進み、ステップS1
0において求めた移動量を用い、下記式に従って雲台の
目標位置を求める。雲台の目標位置=雲台の現在位置+
移動量
Next, when proceeding from step S7 to step S8 shown in FIG. 5, the arithmetic unit 13 turns on the recognition flag corresponding to the camera number n. Next, in step S9, the feature point deviation amount data (u, v) is fetched from the image recognition device corresponding to the camera number n. Next step S1
In step S9, the shift amount data (u, v) obtained in step S9 is converted into a vertical movement direction or a horizontal movement direction of the platform according to the above relational expression stored in the storage device 14. Next, in step S11, step S1
The target position of the platform is calculated according to the following equation using the movement amount calculated in 0. Target position of pan head = current position of pan head +
Amount of movement

【0023】次にステップS12に進み、ステップS1
1において求めた目標位置が雲台の動作可能範囲外であ
るか否かを判断する。この判断結果が「Yes」である
場合にはステップS13に進み、雲台の目標位置を動作
可能範囲内であってステップS11において得られた目
標位置にもっとも近い値に設定すると共にそのように設
定した目標位置に合せて移動量を修正し、ステップS1
4に進む。一方、ステップS12の判断結果が「No」
である場合はステップS13を実行することなくステッ
プS14に進む。次にステップS14に進むと、上述の
ようにして演算された目標位置までカメラ番号nに対応
した雲台を駆動する。そして、図4におけるステップS
5に戻り、新たなカメラ番号nについて上記処理を繰り
返し、すべてのカメラ番号n=「1」〜「3」について
上記処理を終えた場合にはステップS16へ進む。
Next, in step S12, step S1
It is determined whether or not the target position obtained in 1 is outside the operable range of the platform. If the result of this determination is "Yes", then the operation proceeds to step S13, in which the target position of the platform is set to a value within the operable range that is closest to the target position obtained in step S11, and so is set. The amount of movement is corrected according to the desired target position, and step S1
Go to 4. On the other hand, the determination result of step S12 is “No”
If so, the process proceeds to step S14 without executing step S13. Next, in step S14, the platform corresponding to the camera number n is driven to the target position calculated as described above. Then, step S in FIG.
Returning to step 5, the above processing is repeated for a new camera number n, and when the above processing is completed for all camera numbers n = “1” to “3”, the process proceeds to step S16.

【0024】次にステップS16に進むと、TVカメラ
2,3,4により全ての特徴点9a,9b,9cを認識
したか否か、すなわち、カメラ番号n=「1」〜「3」
に対応した全ての認識フラグがON状態か否かを判断す
る。この判断結果が「Yes」である場合にはステップ
S17に進み、TVカメラ2,3,4によって捉えられ
た画像平面上における各特徴点9a,9b,9cの位置
と、記憶装置14に記憶されたワーク1の各特徴点間の
距離データと、現在におけるTVカメラ2,3,4の位
置および姿勢(上下角および水平方向角)とに基づき、
各特徴点の基準座標系における位置を演算し、ワーク1
の位置および姿勢を特定する情報としてメインコントロ
ーラ15へ出力する。なお、このように画像平面上にお
ける各特徴点の座標値を基準座標系における座標値へ変
換する手法は、本願出願人により出願された特願平5−
7967号に開示されている。さらにステップS18に
進み、すべてのTVカメラ2,3,4がON状態となっ
たことにより検知フラグをON状態とする。
Next, in step S16, it is determined whether or not all the feature points 9a, 9b, 9c have been recognized by the TV cameras 2, 3 and 4, that is, the camera number n = "1" to "3".
It is determined whether all the recognition flags corresponding to are in the ON state. If the result of this determination is "Yes", the flow proceeds to step S17, where the positions of the respective characteristic points 9a, 9b, 9c on the image plane captured by the TV cameras 2, 3, 4 and the storage device 14 are stored. Based on the distance data between the respective feature points of the work 1 and the current position and posture (vertical angle and horizontal angle) of the TV cameras 2, 3 and 4,
The position of each feature point in the reference coordinate system is calculated, and the work 1
Is output to the main controller 15 as information for specifying the position and orientation of the. A method for converting the coordinate value of each feature point on the image plane into the coordinate value in the reference coordinate system in this way is described in Japanese Patent Application No.
No. 7967. Further, the process proceeds to step S18, and the detection flag is turned on because all the TV cameras 2, 3, 4 are turned on.

【0025】一方、ステップS4の判断結果が「No」
になるとステップS19に進み、タイマのストップおよ
びリセットを行う。次にステップS20に進み、検知フ
ラグがON状態であるか否かを判断する。検知フラグが
OFF状態である場合、すなわち、本ワーク位置検知装
置によってワークの検知を行うことができなかった場合
は、この判断結果が「No」となってステップS21へ
進み、メインコントローラ15へワーク検知エラーを知
らせる。
On the other hand, the determination result of step S4 is "No".
If so, the process proceeds to step S19, and the timer is stopped and reset. Next, in step S20, it is determined whether or not the detection flag is in the ON state. When the detection flag is in the OFF state, that is, when the work position cannot be detected by the work position detection device, the determination result is “No”, the process proceeds to step S21, and the work is sent to the main controller 15. Notify the detection error.

【0026】C:実施例効果 上記実施例によれば以下の効果が得られる。 (1)広い範囲に亙って移動するワークの位置を実時間
かつ高精度で検出することができる。 (2)画像認識装置等が行う画像処理は特徴点の位置を
特定する程度の簡単なものでよいため、処理速度が早く
なり、生産ラインの効率を向上させることができる。 (3)各特徴点は同一直線上にない3個の点であればよ
いのでワークの形状に対する制約が少ない。
C: Effects of Embodiments According to the above embodiments, the following effects can be obtained. (1) The position of a work moving over a wide range can be detected in real time and with high accuracy. (2) Since the image processing performed by the image recognition device or the like may be as simple as identifying the position of the characteristic point, the processing speed is increased and the efficiency of the production line can be improved. (3) Since each characteristic point may be three points that are not on the same straight line, there are few restrictions on the shape of the work.

【0027】<変形例>上記実施例では、3台のTVカ
メラにより各特徴点9a,9b,9cを撮影するように
したが、各特徴点の位置が近い場合は1台の2個又は3
個の特徴点を捉えて処理することも可能である。これら
の場合のうち1台のカメラで2個の特徴点を捉える場合
には、ステップS9において各特徴点のずれ量を求めた
際に、2個の特徴点の中点と画像平面の中心とが一致す
るように雲台の移動量を決定すればよい。また、1台の
カメラで3個の特徴点を捉える場合には各特徴点のx,
y座標値の最大値と最小値の絶対値が等しくなるように
雲台の移動量を決定すればよい。
<Modification> In the above embodiment, the three feature points 9a, 9b, 9c are photographed by three TV cameras. However, when the feature points are close to each other, two feature points 9 or 9 are used.
It is also possible to capture and process individual feature points. In the case where one camera captures two feature points among these cases, when the shift amount of each feature point is obtained in step S9, the midpoint of the two feature points and the center of the image plane are determined. The moving amount of the pan head may be determined so that Also, when three feature points are captured by one camera, x,
The amount of movement of the platform may be determined so that the maximum value and the minimum value of the y coordinate values are equal.

【0028】[0028]

【発明の効果】以上説明したように、本発明に係るワー
ク位置検知装置は、ワーク上の特徴点付近の画像を撮影
手段によって撮影し、該特徴点の画像平面内での結像位
置に基づき、該特徴点の所定の基準座標系における座標
を演算し、前記ワークの位置および姿勢を特定する情報
として出力するワーク位置検知装置であって、前記特徴
点が前記撮影手段によって撮影されるように前記撮影手
段の取付位置または姿勢を変更する変更手段を具備する
ものであるので、広い範囲に亙って移動するワークの位
置を実時間かつ高精度で検出することができるという効
果がある。
As described above, the work position detecting apparatus according to the present invention takes an image of the vicinity of the feature point on the work by the photographing means, and based on the image formation position of the feature point in the image plane. A work position detection device for calculating coordinates of the feature point in a predetermined reference coordinate system and outputting the information as information for specifying the position and orientation of the work, wherein the feature point is photographed by the photographing means. Since the changing means for changing the mounting position or the posture of the photographing means is provided, there is an effect that the position of the work moving over a wide range can be detected in real time and with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明における一実施例の全体図である。FIG. 1 is an overall view of an embodiment of the present invention.

【図2】 同実施例において撮影される特徴点の画像の
一例を示す図である。
FIG. 2 is a diagram showing an example of an image of feature points captured in the same embodiment.

【図3】 同実施例のシステム構成を示すブロック図で
ある。
FIG. 3 is a block diagram showing a system configuration of the embodiment.

【図4】 同実施例の動作を説明するPAD図である。FIG. 4 is a PAD diagram explaining the operation of the embodiment.

【図5】 同実施例の動作を説明するPAD図である。FIG. 5 is a PAD diagram explaining the operation of the embodiment.

【符号の説明】[Explanation of symbols]

1 ワーク O 基準座標系 2,3,4 TVカメラ(撮影手段) 5,6,7 雲台(変更手段) 10,11,12 画像認識装置 13 演算装置 14 記憶装置 15 メインコントローラ 1 Work O Reference Coordinate System 2,3,4 TV Camera (Shooting Means) 5,6,7 Platform (Changing Means) 10,11,12 Image Recognition Device 13 Computing Device 14 Storage Device 15 Main Controller

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ワーク上の特徴点付近の画像を撮影手段
によって撮影し、該特徴点の画像平面内での結像位置に
基づき、該特徴点の所定の基準座標系における座標を演
算し、前記ワークの位置および姿勢を特定する情報とし
て出力するワーク位置検知装置であって、 前記特徴点が前記撮影手段によって撮影されるように前
記撮影手段の取付位置または姿勢を変更する変更手段を
具備することを特徴とするワーク位置検知装置。
1. An image near a feature point on a work is photographed by a photographing means, and a coordinate of the feature point in a predetermined reference coordinate system is calculated based on an imaged position of the feature point in an image plane, A work position detecting device for outputting as information specifying the position and posture of the work, comprising a changing means for changing the mounting position or posture of the photographing means so that the characteristic points are photographed by the photographing means. A work position detection device characterized by the above.
JP5060707A 1993-03-19 1993-03-19 Work position detector Pending JPH06270083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5060707A JPH06270083A (en) 1993-03-19 1993-03-19 Work position detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5060707A JPH06270083A (en) 1993-03-19 1993-03-19 Work position detector

Publications (1)

Publication Number Publication Date
JPH06270083A true JPH06270083A (en) 1994-09-27

Family

ID=13150037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5060707A Pending JPH06270083A (en) 1993-03-19 1993-03-19 Work position detector

Country Status (1)

Country Link
JP (1) JPH06270083A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074617A (en) * 2003-09-04 2005-03-24 Yaskawa Electric Corp Production system
JP2011242247A (en) * 2010-05-18 2011-12-01 Tamagawa Seiki Co Ltd Space stabilizing device
JP2016032854A (en) * 2014-07-31 2016-03-10 川崎重工業株式会社 Work device
JP2018206295A (en) * 2017-06-09 2018-12-27 株式会社東海理化電機製作所 Image recognition device
JP2019128274A (en) * 2018-01-25 2019-08-01 ファナック株式会社 Article conveyance system
JP2021534990A (en) * 2018-08-30 2021-12-16 ヴェオ ロボティクス, インコーポレイテッド Systems and methods for automatic sensor alignment and configuration

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074617A (en) * 2003-09-04 2005-03-24 Yaskawa Electric Corp Production system
JP2011242247A (en) * 2010-05-18 2011-12-01 Tamagawa Seiki Co Ltd Space stabilizing device
JP2016032854A (en) * 2014-07-31 2016-03-10 川崎重工業株式会社 Work device
JP2018206295A (en) * 2017-06-09 2018-12-27 株式会社東海理化電機製作所 Image recognition device
JP2019128274A (en) * 2018-01-25 2019-08-01 ファナック株式会社 Article conveyance system
CN110081816A (en) * 2018-01-25 2019-08-02 发那科株式会社 Article carrying system
US10703577B2 (en) 2018-01-25 2020-07-07 Fanuc Corporation Object conveying system
DE102019101005B4 (en) * 2018-01-25 2020-09-17 Fanuc Corporation Object conveyor system
JP2021534990A (en) * 2018-08-30 2021-12-16 ヴェオ ロボティクス, インコーポレイテッド Systems and methods for automatic sensor alignment and configuration
US11543796B2 (en) 2018-08-30 2023-01-03 Veo Robotics, Inc. Systems and methods for automatic sensor registration and configuration

Similar Documents

Publication Publication Date Title
JP3173042B2 (en) Robot numerical controller
JP3279479B2 (en) Video monitoring method and device
JP2003311670A (en) Positioning control method of robot arm and robot equipment
JPH06270083A (en) Work position detector
JPS6334093A (en) Visual device
JP2003302345A (en) Inspection method using robot and inspection system
JP2003117867A (en) Position and attitude controlling method using visual servo
JPH06214622A (en) Work position sensor
JP4073995B2 (en) Electronic component position detection method
JPH04269194A (en) Plane measuring method
JPH10320565A (en) Image processing method and device therefor
JP3175623B2 (en) Robot control device
JP2974794B2 (en) Multi-view recognition method for polygonal parts
JPH08285526A (en) Image recognition system
JPS6149774A (en) Outside surface welding method of weld pipe
JPH03281182A (en) Coordinate correcting method for moving robot
JPH04250700A (en) Mounting method for electronic component
JP2915979B2 (en) Position and rotation angle detecting device, pointing device thereof, and robot operation teaching device using the same
JPS6325871B2 (en)
JP2600027B2 (en) Image alignment method and apparatus
JPS63254575A (en) Calibration device for visual sensor
JPH01211006A (en) Deciding method for recognizing position of operating information of image type unmanned vehicle
JPH07146145A (en) Road detection apparatus
JPH05204459A (en) Fitting method for location measuring unit and connector
JPH07329894A (en) Air frame position and attitude detection device