JPH05314257A - Image processor and robot controller - Google Patents

Image processor and robot controller

Info

Publication number
JPH05314257A
JPH05314257A JP4113787A JP11378792A JPH05314257A JP H05314257 A JPH05314257 A JP H05314257A JP 4113787 A JP4113787 A JP 4113787A JP 11378792 A JP11378792 A JP 11378792A JP H05314257 A JPH05314257 A JP H05314257A
Authority
JP
Japan
Prior art keywords
image
calculation
target frame
frame
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4113787A
Other languages
Japanese (ja)
Inventor
Tadashi Akita
正 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4113787A priority Critical patent/JPH05314257A/en
Publication of JPH05314257A publication Critical patent/JPH05314257A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To exactly calculate the measuring information of an object by flexibly setting a computation object frame to an objective image concerning arithmetic for the centroid coordinate value of the object without fixing that frame and to recognize the object at high speed. CONSTITUTION:This image processor is provided with a range setting means 11 to set the computation object frame to the image acquiring object, a range moving means 12 to move the computation object frame set to the image acquiring object, an arithmetic means 13 to calculate the centroid coordinate or standard deviation of the objective image inside the computation object frame, and a range changing means 14 to enlarge or reduce the computation object frame, and changes the position or size of the computation object frame based on the centroid coordinate value or the standard deviation value of the objective image inside the computation object frame in the past. And the robot controller is provided with a robot work part 17, an image acquiring means 18, a control means 20 or an image processing means 19 composed of the image processor.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】〔目 次〕 産業上の利用分野 従来の技術(図10) 発明が解決しようとする課題(図11) 課題を解決するための手段(図1,2) 作用 実施例 (1)第1の実施例(図3〜5) (2)第2の実施例(図6,7) (3)第3の実施例(図8) (4)第4の実施例(図9) 発明の効果[Table of Contents] Industrial Application Field of the Related Art (FIG. 10) Problem to be Solved by the Invention (FIG. 11) Means for Solving the Problem (FIGS. 1 and 2) Action Embodiment (1) First Example 1 (FIGS. 3 to 5) (2) Second Example (FIGS. 6 and 7) (3) Third Example (FIG. 8) (4) Fourth Example (FIG. 9) effect

【0002】[0002]

【産業上の利用分野】本発明は、画像処理装置及びロボ
ット制御装置に関するものであり、更に詳しく言えば、
画像取得情報から各種計測量を計算する装置及びその応
用装置の改善に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device and a robot control device, and more specifically,
The present invention relates to improvements in an apparatus that calculates various measurement amounts from image acquisition information and an application apparatus thereof.

【0003】近年、各種電子機器や精密機械の製造工程
の自動化に伴い、目的とする対象物にロボットハンドを
位置決めして各種教示作業をするロボット制御装置が使
用されている。また、ロボットの目としてテレビカメラ
が搭載され、対象物の画像取得データから計測した位置
情報に基づいてその対象物の教示作業する制御方法が開
発されている。
In recent years, along with automation of manufacturing processes of various electronic devices and precision machines, a robot control device for positioning a robot hand on a target object and performing various teaching work is used. In addition, a control method has been developed in which a television camera is mounted as the eyes of the robot and the teaching work of the target object is performed based on the position information measured from the image acquisition data of the target object.

【0004】ところで、従来例のロボット制御装置によ
れば、テレビカメラを利用して対象物の重心位置,面
積,向き等の各種計測量を計算する場合、その画像計測
部において、演算処理の高速化を図るため、重心座標値
の演算に係わり対象画像に対して計算対象枠が固定され
ている。
By the way, according to the robot controller of the conventional example, when calculating various measurement amounts such as the position of the center of gravity, the area, and the direction of the object using the television camera, the image measuring section of the robot control device performs high-speed calculation processing. In order to achieve the realization, the calculation target frame is fixed for the target image involved in the calculation of the barycentric coordinate value.

【0005】このため、計算対象枠の内部に対象物の画
像と対象物以外の物体とが含まれた場合に、その内部画
面を計算対象する重心座標値の計算であっても、画像処
理に限界を生じ、その正確さを欠いて計算された重心座
標が対象物の重心位置と整合しない場合がある。
Therefore, when an image of a target object and an object other than the target object are included in the calculation target frame, even in the calculation of the barycentric coordinate value for which the internal screen is calculated, the image processing is not performed. There may be a limit, and the barycentric coordinate calculated without accuracy may not match the barycentric position of the object.

【0006】このような状態で、制御系が誤って対象物
の重心位置を認識し、以後の教示作業において、制御ミ
ス等を引き起こすことがある。そこで、対象物の重心座
標値の演算に係わり対象画像に対し計算対象枠を固定す
ることなく、それを流動的に設定して対象物の計測情報
を正確に演算すること、及び、高速に対象物の認識をす
ることができる装置及びその応用装置が望まれている。
In such a state, the control system may erroneously recognize the position of the center of gravity of the object, causing a control error or the like in the subsequent teaching work. Therefore, the calculation target frame is not fixed to the target image, which is involved in the calculation of the barycentric coordinate value of the target object, and it is fluidly set to accurately calculate the measurement information of the target object, and the target object is calculated at high speed. A device capable of recognizing an object and its application device are desired.

【0007】[0007]

【従来の技術】図10,11は、従来例に係る説明図であ
る。また、図10は、従来例に係るロボット制御装置の物
体認識方法の説明図であり、図10(a)はその構成図で
あり、また、図10(b)はその画像処理フローチャート
をそれぞれ示している。
2. Description of the Related Art FIGS. 10 and 11 are explanatory views of a conventional example. 10 is an explanatory diagram of an object recognition method of a robot controller according to a conventional example, FIG. 10 (a) is its configuration diagram, and FIG. 10 (b) is its image processing flowchart. ing.

【0008】例えば、目的とする対象物10にロボット
ハンド1を位置決めして各種教示作業をするロボット制
御装置は、図10(a)において、ロボットハンド1,テ
レビカメラ2,画像計測部3及びロボット制御部4から
成る。
For example, a robot controller for positioning the robot hand 1 on a target object 10 for various teaching operations is shown in FIG. 10 (a), which is a robot hand 1, a television camera 2, an image measuring section 3 and a robot. It consists of the control unit 4.

【0009】当該装置の機能は、テレビカメラ2を搭載
したロボットハンド1が対象物10の領域上付近に移動
されると、その領域の画像がテレビカメラ2により撮像
される。また、画像計測部3でその画像信号が白黒階調
係る二値化データに変換され、そのデータが画像計測部
3により演算処理され、対象物10が認識される。これ
により、対象物10にロボットハンド1が位置決めさ
れ、把持作業等の教示作業が行われる。
The function of the device is that when the robot hand 1 having the television camera 2 is moved to the vicinity of the area of the object 10, the image of the area is captured by the television camera 2. Further, the image measuring unit 3 converts the image signal into binarized data relating to black and white gradation, and the data is arithmetically processed by the image measuring unit 3 to recognize the object 10. As a result, the robot hand 1 is positioned on the object 10 and teaching work such as gripping work is performed.

【0010】なお、図11(a),(b)は、従来例に係
る問題点を説明する対象物10の取得画像図であり、対
象物10の領域の画像データをあるスライスレベルによ
り二値化した明るい部分を白,暗い部分を黒をモニタテ
レビに表示した図を示している。
11 (a) and 11 (b) are acquired image diagrams of the object 10 for explaining the problems in the conventional example, and the image data of the area of the object 10 is binarized by a certain slice level. The figure shows the changed bright parts in white and the dark parts in black on the monitor TV.

【0011】例えば、対象物10にロボットハンド1を
位置決めする場合に、画像計測部3において、対象物1
0が存在すると思われる領域画像に計算対象枠Fが設定
され、その内部の対象画像について、その重心座標が計
測される。
For example, when the robot hand 1 is positioned on the object 10, the image measuring unit 3 uses the object 1
The calculation target frame F is set in the region image in which 0 is considered to exist, and the barycentric coordinates of the target image inside thereof are measured.

【0012】すなわち、図10(b)において、まず、ス
テップP1でカメラ入力画像を適当なレベルにより二値
化する。次いで、ステップP2で対象物10がもっとも
有りそうなところに計算対象枠Fを設定する。
That is, in FIG. 10B, first, in step P1, the camera input image is binarized by an appropriate level. Then, in step P2, the calculation target frame F is set at a position where the object 10 is most likely to exist.

【0013】例えば、図11(a)に示すように対象物1
0と対象物以外の物体9との離隔距離や対象物10の大
きさを考慮して、予め、画像計測部3に対して、重心座
標を演算する対象画像領域に係わり計算対象枠Fの大き
さが固定される。これは、計算対象枠Fをある範囲に設
定することによって、対象物10と対象物外の物体9を
切り分けることができるためである。これにより、計算
対象枠外の領域については、重心座標計算に含めず、そ
の枠内に限って演算を実行することにより計算時間の短
縮化が図れる。
For example, as shown in FIG.
In consideration of the separation distance between 0 and the object 9 other than the target object and the size of the target object 10, the size of the calculation target frame F related to the target image area in which the barycentric coordinates are calculated with respect to the image measurement unit 3 in advance. Is fixed. This is because the target object 10 and the object 9 outside the target object can be separated by setting the calculation target frame F in a certain range. As a result, the calculation time can be shortened by not including the area outside the calculation target frame in the calculation of the barycentric coordinates and executing the calculation only within the frame.

【0014】次に、ステップP3で計算対象枠Fの内部
を対象に重心座標を求め、その後、ステップP4で求め
た重心座標を対象物10の重心位置として位置決め等の
作業が行われる。
Next, in step P3, the barycentric coordinates are obtained for the inside of the calculation target frame F, and thereafter, the barycentric coordinates obtained in step P4 are used as the barycentric position of the object 10 for positioning and the like.

【0015】[0015]

【発明が解決しようとする課題】ところで、従来例によ
れば画像計測部3において、演算処理の高速化を図るた
め、重心座標値の演算に係わり対象画像に対して計算対
象枠Fが固定されている。
By the way, according to the conventional example, in the image measuring unit 3, in order to speed up the calculation process, the calculation target frame F is fixed to the target image involved in the calculation of the barycentric coordinate value. ing.

【0016】このため、図11(b)に示すように計算対
象枠Fの内部に対象物10の画像と対象物以外の物体9
とが含まれた場合に、その内部画面を計算対象する重心
座標値の計算であっても、演算処理に限界を生じてその
正確さに欠けることから、計算された重心座標が対象物
10の重心位置と整合しない場合がある。
Therefore, as shown in FIG. 11B, the image of the object 10 and the object 9 other than the object 9 are placed inside the calculation object frame F.
Even if the calculation of the barycentric coordinate value for which the internal screen is to be calculated is included, the calculated barycentric coordinate of the target object 10 is not accurate because the calculation process has a limit. It may not match the position of the center of gravity.

【0017】これは、重心座標値の誤差に比べて面積の
違いがわずかとなるためであり、これにより、その面積
差から対象物10を確実に検出するのが困難となる。す
なわち、計算対象枠Fを固定した方法では、テレビカメ
ラ2の位置ずれ等により、図11(b)において、計算対
象枠Fが対象外の物体9のほんの一部のみを含む場合で
あっても、対象物10の重心座標から該物体9までの距
離が遠い成分となるため、重心座標計算値の誤差が大き
くなり、それが真の対象物10の重心座標位置から大き
く掛け離れてしまうこととなる。
This is because the difference in area is smaller than the error in the coordinate value of the center of gravity, which makes it difficult to reliably detect the object 10 from the difference in area. That is, in the method in which the calculation target frame F is fixed, even if the calculation target frame F includes only a part of the non-target object 9 in FIG. Since the distance from the barycentric coordinates of the object 10 to the object 9 is a long component, the error of the calculated value of the barycentric coordinates becomes large, which greatly deviates from the true barycentric coordinate position of the object 10. ..

【0018】この結果、計算対象枠内の対象物10の面
積計算値が予定していた対象物11の実際面積値と異な
ることにより、計測不能あるいはテレビカメラ2の取得
領域の誤り,すなわち、それが取り付けられたロボット
ハンド1の位置ずれが大きすぎたとして処理される。
As a result, since the calculated area value of the object 10 in the calculation object frame is different from the actual area value of the object 11 that has been planned, measurement is impossible or an error in the acquisition area of the television camera 2, that is, It is processed as if the displacement of the robot hand 1 to which is attached is too large.

【0019】かかる場合、計算対象枠Fの中心とその内
部画面に係る重心座標計算値とがたまたま一致すること
もある。しかし、対象物以外の物体9の画素(ノイズ画
像)が含まれた重心座標計算値では、真に計算対象枠F
の中心が対象物10の画像重心座標に一致するとは限ら
ない。
In such a case, the center of the calculation target frame F may happen to coincide with the calculated value of the barycentric coordinates of the internal screen. However, in the calculated barycentric coordinates including the pixels (noise image) of the object 9 other than the target object, the true calculation target frame F
The center of does not always match the image centroid coordinates of the object 10.

【0020】このような状態で、制御系が誤って対象物
10の重心位置を認識し、以後の教示作業に移行する
と、ロボットハンド1を対象物10に衝突させたり、そ
れを転倒させる等の制御ミスが起こる。
In such a state, when the control system mistakenly recognizes the position of the center of gravity of the object 10 and shifts to the teaching work thereafter, the robot hand 1 collides with the object 10 or falls. Control error occurs.

【0021】これにより、計算対象枠Fを固定する方法
を採り入れた画像計測部3においては、誤った重心座標
値を演算する恐れがあり、画像処理の信頼性の低下を招
く。また、該重心座標値の計測不能に陥った場合に、再
度、テレビカメラ2の移動,すなわち、ロボットハンド
1の移動が必要となり位置決め処理の高速化の妨げとな
るという問題がある。
As a result, in the image measuring unit 3 which adopts the method of fixing the calculation target frame F, there is a possibility that an incorrect barycentric coordinate value may be calculated, and the reliability of the image processing is lowered. Further, when the gravity center coordinate value cannot be measured, the television camera 2 needs to be moved again, that is, the robot hand 1 needs to be moved again, which hinders the speeding up of the positioning process.

【0022】本発明は、かかる従来例の問題点に鑑み創
作されたものであり、対象物の重心座標値の演算に係わ
り対象画像に対し計算対象枠を固定することなく、それ
を流動的に設定して対象物の計測情報を正確に演算する
こと、及び、高速に対象物の認識をすることが可能とな
る画像処理装置及びロボット制御装置の提供を目的とす
る。
The present invention has been created in view of the problems of the conventional example, and it is not necessary to fix the calculation target frame to the target image, which is involved in the calculation of the barycentric coordinate value of the target, and it can be fluidized. An object of the present invention is to provide an image processing device and a robot control device that can set and accurately calculate measurement information of an object and can recognize the object at high speed.

【0023】[0023]

【課題を解決するための手段】図1,2は、本発明に係
る画像処理装置及びロボット制御装置の原理図(その
1,2)をそれぞれ示している。
1 and 2 show principle diagrams (Nos. 1 and 2) of an image processing apparatus and a robot control apparatus according to the present invention, respectively.

【0024】本発明の第1の画像処理装置は図1(a)
や図2(a)に示すように、画像取得対象16に計算対
象枠Fを設定する範囲設定手段11と、前記画像取得対
象16に設定された計算対象枠Fを移動する範囲移動手
段12と、前記計算対象枠Fの内部の対象画像の重心座
標や標準偏差を演算する演算手段13と、前記計算対象
枠Fを縮小又は拡大する範囲変更手段14とを具備し、
過去の計算対象枠Fの内部の対象画像の重心座標値や標
準偏差値に基づいて当該計算対象枠Fの位置や大きさを
変えることを特徴とする。
The first image processing apparatus of the present invention is shown in FIG.
As shown in FIG. 2A and FIG. 2A, range setting means 11 for setting the calculation target frame F in the image acquisition target 16 and range moving means 12 for moving the calculation target frame F set in the image acquisition target 16. And a calculation means 13 for calculating the barycentric coordinates and standard deviation of the target image inside the calculation target frame F, and a range changing means 14 for reducing or enlarging the calculation target frame F,
The present invention is characterized in that the position and size of the calculation target frame F are changed based on the barycentric coordinate value and standard deviation value of the target image inside the past calculation target frame F.

【0025】なお、本発明の第2の画像処理装置は、第
1の画像処理装置において、予め設定された計算範囲枠
Fの制御目標値に基づいて演算処理を繰り返すことを特
徴とする。
The second image processing apparatus of the present invention is characterized in that, in the first image processing apparatus, the arithmetic processing is repeated based on a preset control target value of the calculation range frame F.

【0026】さらに、本発明の第3の画像処理装置は、
第1の画像処理装置において、前記範囲設定手段11が
標準偏差値の定数倍の新しい計算対象枠Fを設定するこ
とを特徴とする。
Further, the third image processing apparatus of the present invention is
In the first image processing apparatus, the range setting means 11 sets a new calculation target frame F that is a constant multiple of the standard deviation value.

【0027】また、本発明の第4の画像処理装置は、第
1の画像処理装置において、前記演算手段13が図2
(b)に示すように過去の計算対象枠Fの内部の対象画
像の重心座標値と当該計算対象枠Fの内部の対象画像の
重心座標値とに基づいて重心間の距離情報を演算するこ
とを特徴とする。
A fourth image processing apparatus according to the present invention is the same as the first image processing apparatus, except that the calculating means 13 is the same as that shown in FIG.
As shown in (b), the distance information between the centers of gravity is calculated based on the center of gravity coordinate values of the target image inside the calculation target frame F and the center of gravity coordinate values of the target image inside the calculation target frame F. Is characterized by.

【0028】さらに、本発明の第4の画像処理装置にお
いて、前記制御目標値と重心間の距離情報とを比較する
比較手段15設けられることを特徴とする。なお、本発
明のロボット制御装置は図1(b)に示すように、対象
物10に係わり各種教示作業をするロボット作業部17
と、前記対象物10の画像を取得する画像取得手段18
と、前記対象物10の位置情報を計測する画像計測手段
19と、前記ロボット作業部17,画像取得手段18及
び画像計測手段19の入出力を制御する制御手段20と
を具備し、前記画像計測手段19が第1〜第4の画像処
理装置から成ることを特徴とし、上記目的を達成する。
Further, the fourth image processing apparatus of the present invention is characterized in that a comparison means 15 for comparing the control target value and distance information between the centers of gravity is provided. The robot control device of the present invention, as shown in FIG. 1B, is a robot working unit 17 that performs various teaching operations related to the object 10.
And an image acquisition means 18 for acquiring an image of the object 10.
And an image measuring unit 19 for measuring the position information of the object 10, and a control unit 20 for controlling input / output of the robot working unit 17, the image acquiring unit 18, and the image measuring unit 19, and the image measuring unit. Means 19 are characterized by comprising first to fourth image processing devices to achieve the above object.

【0029】[0029]

【作 用】本発明の第1の画像処理装置によれば、図1
(a)に示すように、範囲設定手段11,範囲移動手段
12,演算手段13及び範囲変更手段14が具備され、
過去の計算対象枠Fの内部の対象画像の重心座標値や標
準偏差値に基づいて当該計算対象枠Fの位置や大きさが
変えられる。
[Operation] According to the first image processing apparatus of the present invention, as shown in FIG.
As shown in (a), a range setting means 11, a range moving means 12, a calculating means 13 and a range changing means 14 are provided,
The position and size of the calculation target frame F can be changed based on the barycentric coordinate value and standard deviation value of the target image inside the calculation target frame F in the past.

【0030】例えば、図2(a)に示すような画像取得
対象16に計算対象枠Fが範囲設定手段11により設定
されると、画像取得対象16に設定された計算対象枠F
が範囲移動手段12により移動される。また、計算対象
枠Fの内部の対象画像の重心座標や標準偏差が演算手段
13により演算され、該計算対象枠Fが範囲変更手段1
4により縮小又は拡大される(図2(a)参照)。
For example, when the calculation target frame F is set in the image acquisition target 16 as shown in FIG. 2A by the range setting means 11, the calculation target frame F set in the image acquisition target 16 is set.
Are moved by the range moving means 12. Further, the barycentric coordinates and the standard deviation of the target image inside the calculation target frame F are calculated by the calculating means 13, and the calculation target frame F is changed to the range changing means 1
It is reduced or enlarged by 4 (see FIG. 2A).

【0031】これにより、過去の計算対象枠Fの内部の
対象画像の重心座標値や標準偏差値に基づいて当該計算
対象枠Fの位置や大きさを,高速、かつ、自由に変える
ことが可能となる。
This makes it possible to freely change the position and size of the calculation target frame F at high speed based on the barycentric coordinate value and standard deviation value of the target image inside the calculation target frame F in the past. Becomes

【0032】このため、図2(b)に示すように、最初
に設定された計算対象枠Fの内部に対象物10の画像と
対象物以外の物体9とが含まれた場合であって、その内
部画面を対象にして重心座標値を計算する場合であって
も、当該計算対象枠Fから順次,対象物以外の物体9の
画像を除外するように、その位置や大きさが自動的に変
えられることから従来例のような演算処理の限界の発生
が低減され、対象物10の面積からその重心座標値を再
現性良く計測することが可能となる。
Therefore, as shown in FIG. 2B, in the case where the image of the object 10 and the object 9 other than the object are included in the initially set calculation target frame F, Even when the barycentric coordinate value is calculated for the internal screen, the position and size are automatically set so that the images of the object 9 other than the target object are sequentially excluded from the calculation target frame F. Since the change can be changed, the limit of the arithmetic processing as in the conventional example is reduced, and the barycentric coordinate value can be measured from the area of the object 10 with good reproducibility.

【0033】これにより、計算対象枠Fの位置や大きさ
を流動的に自動変更する機能に基づいて計算された重心
座標を真の対象物10の重心位置として適用することが
可能となる。このことで、各種計測情報の演算に係り画
像計測処理の信頼性の向上を図ることが可能となる。
As a result, it becomes possible to apply the barycentric coordinates calculated based on the function of dynamically changing the position and size of the calculation target frame F as the true barycentric position of the object 10. As a result, it is possible to improve the reliability of the image measurement processing related to the calculation of various measurement information.

【0034】また、対象物10の重心座標値の演算に係
わり対象画像に対し計算対象枠が固定されることなく、
それが流動的に設定されることから、対象物の計測情報
を正確に演算することが可能となる。
Further, the calculation target frame is not fixed to the target image due to the calculation of the barycentric coordinate value of the target object 10,
Since it is set fluidly, it is possible to accurately calculate the measurement information of the object.

【0035】また、本発明の第2の画像処理装置によれ
ば、予め設定された計算範囲枠Fの制御目標値に基づい
て演算処理が繰り返される。このため、図2(a)に示
すように、最初に設定された第1番目の計算対象枠Fが
対象外の物体9のほんの一部のみを含む場合であって、
対象物10の重心座標から該物体9までの距離が遠い成
分となって、重心座標計算値の誤差が大きくなった場合
でも、第1番目の計算範囲枠Fの制御目標値に基づいて
演算処理を繰り返すことにより、例えば、次に設定され
る第2番目の計算対象枠Fにより、対象画像から対象外
の物体9が除外されるこれにより、対象物10の重心座
標が計算対象枠Fの中心に収束(漸近)してくることか
ら、それが真の対象物10の重心座標位置から誤って大
きく掛け離れることが無くなる。
Further, according to the second image processing apparatus of the present invention, the calculation processing is repeated based on the preset control target value of the calculation range frame F. Therefore, as shown in FIG. 2A, when the first calculation target frame F that is initially set includes only a part of the non-target object 9,
Even if the distance from the barycentric coordinates of the object 10 to the object 9 becomes a long component and the error of the barycentric coordinate calculation value becomes large, the calculation processing is performed based on the control target value of the first calculation range frame F. By repeating the above, for example, the non-target object 9 is excluded from the target image by the second calculation target frame F that is set next, so that the barycentric coordinates of the target object 10 are the center of the calculation target frame F. Since it converges (asymptotically), it does not erroneously largely deviate from the true barycentric coordinate position of the object 10.

【0036】また、予め設定された計算範囲枠Fの制御
目標値,例えば、予定していた対象物10の実際面積値
と計算対象枠内の対象物10の面積計算値とが極めて近
似してくることにより、従来例のような計測不能に陥る
ことが低減される。
Further, the preset control target value of the calculation range frame F, for example, the planned actual area value of the object 10 and the calculated area value of the object 10 within the calculation object frame are extremely close to each other. As a result, it is possible to reduce the possibility that measurement cannot be performed as in the conventional example.

【0037】なお、該重心座標値の計測不能に陥った場
合には警報等を発することで、当該画像計測系において
異常が発生した旨を上位の制御系に知らしめ、事前に制
御ミス等を阻止することが可能となる。
When the barycentric coordinate value cannot be measured, an alarm or the like is issued to notify the upper control system that an abnormality has occurred in the image measurement system, so that a control error or the like can be made in advance. It becomes possible to prevent it.

【0038】さらに、本発明の第3の画像処理装置によ
れば、範囲設定手段11が標準偏差値の定数倍の新しい
計算対象枠Fを設定する。例えば、計算対象枠Fの内部
について、X,Y方向について標準偏差を求め、その倍
率を設定する。
Furthermore, according to the third image processing apparatus of the present invention, the range setting means 11 sets a new calculation target frame F that is a constant multiple of the standard deviation value. For example, inside the calculation target frame F, the standard deviation is obtained in the X and Y directions, and the magnification is set.

【0039】このため、対象物10の近くに形状の異な
る対象物以外の物体9が多く存在する場合や対象物10
の形状が未定の場合に、最適な計算対象枠Fを高速に設
定することが可能となる。
Therefore, when there are many objects 9 other than the objects having different shapes near the object 10 or the object 10
When the shape of is not determined, the optimum calculation target frame F can be set at high speed.

【0040】これにより、第1,第2の画像処理装置と
同様に、対象物の計測情報を正確に演算することが可能
となる。また、本発明の第4の画像処理装置によれば、
演算手段13が図2(b)に示すように過去の計算対象
枠Fの内部の対象画像の重心座標値Xgp,Ygpと当該計
算対象枠Fの内部の対象画像の重心座標値Xgr,Ygrと
に基づいて重心間の距離情報を演算する。また、この際
に、制御目標値と当該重心間の距離情報とが比較手段1
5により比較される。
As a result, the measurement information of the object can be accurately calculated, as in the first and second image processing apparatuses. Further, according to the fourth image processing apparatus of the present invention,
As shown in FIG. 2B, the calculating means 13 calculates the barycentric coordinate values Xgp, Ygp of the target image inside the past calculation target frame F and the barycentric coordinate values Xgr, Ygr of the target image inside the calculation target frame F. The distance information between the centers of gravity is calculated based on At this time, the control target value and the distance information between the centers of gravity are compared by the comparison unit 1.
5 compared.

【0041】このため、第1,第2の画像処理装置のよ
うに、当該計算対象枠Fに係わり、対象物10の重心座
標を繰返し演算処理する場合に、目的とする計算対象枠
Fの中心位置を対象物10の重心座標値に素早く漸近さ
せることが可能となる。
For this reason, when the barycentric coordinates of the object 10 are repeatedly processed in relation to the calculation target frame F like the first and second image processing apparatuses, the center of the target calculation target frame F is calculated. The position can be quickly brought close to the barycentric coordinate value of the object 10.

【0042】これにより、画像計測処理に係る無駄時間
が極力抑制され、対象物の計測情報の高速演算をするこ
とが可能となる。なお、本発明のロボット制御装置によ
れば、図1(b)に示すように、ロボット作業部17,
画像取得手段18,画像計測手段19及び制御手段20
が具備され、該画像計測手段19が第1〜第4の画像処
理装置から成っている。
As a result, the dead time associated with the image measurement processing is suppressed as much as possible, and the measurement information of the object can be calculated at high speed. According to the robot controller of the present invention, as shown in FIG.
Image acquisition means 18, image measurement means 19, and control means 20
Is provided, and the image measuring means 19 is composed of first to fourth image processing devices.

【0043】例えば、対象物10に係わり各種教示作業
をする場合に、制御手段20を介してロボット作業部1
7が対象物10の領域上に移動され、その対象物10の
画像が画像取得手段18により取得される。また、対象
物10の位置情報が画像計測手段19により計測され
る。この際に、本発明の第1〜第4の画像処理装置から
成る画像計測手段19により過去の計算対象枠Fの重心
座標値や標準偏差値に基づいて当該計算対象枠Fの位置
や大きさが自動変更される。
For example, when performing various teaching operations related to the object 10, the robot working unit 1 is controlled through the control means 20.
7 is moved onto the area of the object 10, and the image of the object 10 is acquired by the image acquisition means 18. Further, the position information of the object 10 is measured by the image measuring means 19. At this time, the position and size of the calculation target frame F are calculated based on the barycentric coordinate values and standard deviation values of the past calculation target frame F by the image measuring means 19 including the first to fourth image processing devices of the present invention. Is automatically changed.

【0044】このため、計算対象枠Fを流動的に位置や
大きさを自動変更する機能を有する画像処理装置を採用
することで、対象物10の正確な重心座標値の演算をす
ることができる。このことから、従来例の計算対象枠F
を固定した画像計測部に比べて、画像取得手段18の取
得領域の誤り,すなわち、それが取り付けられたロボッ
ト作業部17の位置ずれが大きすぎたとして処理される
ことも少なくなる。
Therefore, by adopting the image processing device having the function of automatically changing the position and size of the calculation target frame F in a fluid manner, the accurate barycentric coordinate value of the object 10 can be calculated. .. From this, the calculation target frame F of the conventional example
Compared to the image measuring unit in which is fixed, an error in the acquisition area of the image acquiring unit 18, that is, the positional deviation of the robot working unit 17 to which it is attached is less likely to be processed.

【0045】これにより、再度、画像取得手段18の移
動,すなわち、ロボット作業部17の調整回数が低減さ
れ、その位置決め処理の高速化を図ることが可能とな
る。また、制御系における対象物10の重心位置の誤認
識が皆無に等しくなり、以後の教示作業に際に、ロボッ
ト作業部11を対象物10に衝突させたり、それを転倒
させる等の制御ミスを極力阻止することが可能となる。
As a result, again, the movement of the image acquisition means 18, that is, the number of adjustments of the robot working unit 17 is reduced, and the positioning processing can be speeded up. In addition, erroneous recognition of the position of the center of gravity of the object 10 in the control system becomes almost zero, and a control error such as colliding the robot working unit 11 with the object 10 or causing it to tip over is avoided during subsequent teaching work. It becomes possible to prevent it as much as possible.

【0046】[0046]

【実施例】次に、図を参照しながら本発明の各実施例に
ついて説明をする。図3〜9は、本発明の実施例に係る
画像処理装置及びロボット制御装置を説明する図であ
る。
Embodiments Next, embodiments of the present invention will be described with reference to the drawings. 3 to 9 are views for explaining the image processing device and the robot control device according to the embodiment of the present invention.

【0047】(1)第1の実施例の説明 図3は、本発明の各実施例に係る画像処理装置を応用し
たロボット制御装置の構成図であり、図4はその対象物
を特定する画像処理フローチャートをそれぞれ示してい
る。
(1) Description of First Embodiment FIG. 3 is a block diagram of a robot control device to which the image processing device according to each embodiment of the present invention is applied, and FIG. 4 is an image for specifying an object thereof. Each of the processing flowcharts is shown.

【0048】例えば、本発明の第1〜第5の画像処理装
置の各機能を組み合わせ、それを応用したロボット制御
装置は、図3において、ロボットハンド27,テレビカ
メラ28,画像計測システム29及びCPU(中央演算
処理装置)30,駆動制御部31及びアラーム部35等
から成る。
For example, in FIG. 3, a robot controller that combines the functions of the first to fifth image processing apparatuses of the present invention and applies them is shown in FIG. 3 as a robot hand 27, a television camera 28, an image measuring system 29 and a CPU. (Central processing unit) 30, drive control unit 31, alarm unit 35 and the like.

【0049】すなわち、ロボットハンド27はロボット
作業部17の一実施例であり、対象物10に係わり各種
教示作業をするものである。例えば、対象物10を把持
するものである。
That is, the robot hand 27 is an example of the robot working unit 17, and is for carrying out various teaching work in relation to the object 10. For example, the object 10 is gripped.

【0050】テレビカメラ28は画像取得手段18の一
実施例であり、対象物10の画像を取得し、そのアナロ
グ映像信号Sを画像処理システム29に出力するもので
ある。例えば、テレビカメラ28はロボットハンド27
の側面に固定されたり、その作業領域の天井面に設けら
れる。
The television camera 28 is an embodiment of the image acquisition means 18, and acquires an image of the object 10 and outputs its analog video signal S to the image processing system 29. For example, the TV camera 28 is the robot hand 27.
It is fixed to the side of the work area or installed on the ceiling surface of the work area.

【0051】画像計測システム29は画像計測手段19
の一実施例であり、対象物10の位置情報を計測するも
のである。なお、画像計測システム29が本発明の第1
〜第4の画像処理装置から成る。
The image measuring system 29 is the image measuring means 19
This is an example of measuring the position information of the object 10. The image measuring system 29 is the first aspect of the present invention.
~ It comprises a fourth image processing device.

【0052】例えば、画像計測システム29は図3の一
点鎖線に囲んだ部分に示すように、データバス34に接
続された計算枠設定エディタ21,計算枠移動エディタ
22,演算部23,計算枠縮小/拡大エディタ24,デ
ータ比較部25,信号処理部32及びメモリ部33等か
ら成る。
For example, in the image measuring system 29, the calculation frame setting editor 21, the calculation frame moving editor 22, the arithmetic unit 23, and the calculation frame reduction connected to the data bus 34 are shown in the part surrounded by the one-dot chain line in FIG. / Enlargement editor 24, data comparison unit 25, signal processing unit 32, memory unit 33 and the like.

【0053】すなわち、計算枠設定エディタ21は範囲
設定手段11の一実施例であり、画像取得対象16に計
算対象枠Fを設定するものである。例えば、計算枠設定
エディタ21は計算対象枠Fの内部の対象画像の標準偏
差値の定数倍の新しい計算対象枠Fを設定し、本発明の
第1や第3の画像処理装置の構成する。
That is, the calculation frame setting editor 21 is an embodiment of the range setting means 11 and sets the calculation target frame F to the image acquisition target 16. For example, the calculation frame setting editor 21 sets a new calculation target frame F that is a constant multiple of the standard deviation value of the target image inside the calculation target frame F, and constitutes the first and third image processing apparatuses of the present invention.

【0054】計算枠移動エディタ22は範囲移動手段1
2の一実施例であり、画像取得対象16に設定された計
算対象枠Fを移動するものである。演算部23は演算手
段13の一実施例であり、計算対象枠Fの内部の対象画
像の重心座標や標準偏差を演算するものである。例え
ば、演算部23が過去の計算対象枠Fの内部の対象画像
の重心座標値Xgp,Ygpと当該計算対象枠Fの内部の対
象画像の重心座標値Xgr,Ygrとに基づいて重心間の距
離情報を演算する。
The calculation frame moving editor 22 is the range moving means 1
This is an example of No. 2 and moves the calculation target frame F set in the image acquisition target 16. The calculation unit 23 is an embodiment of the calculation unit 13, and calculates the barycentric coordinates and standard deviation of the target image inside the calculation target frame F. For example, the calculation unit 23 calculates the distance between the centers of gravity based on the past center-of-gravity coordinate values Xgp and Ygp of the target image inside the calculation target frame F and the center-of-gravity coordinate values Xgr and Ygr of the target image inside the calculation target frame F. Compute information.

【0055】計算枠縮小/拡大エディタ24は範囲変更
手段14の一実施例であり、計算対象枠Fを縮小又は拡
大するものである。データ比較部25は比較手段15の
一実施例であり、制御目標値と重心間の距離情報とを比
較するものである。なお、対象画像に係わり重心間の距
離情報を演算する演算部23と当該データ比較部25と
の機能により、本発明の第4の画像処理装置が構成され
る。
The calculation frame reduction / enlargement editor 24 is an embodiment of the range changing means 14 and reduces or enlarges the calculation target frame F. The data comparison unit 25 is an embodiment of the comparison unit 15 and compares the control target value with the distance information between the centers of gravity. The fourth image processing apparatus of the present invention is configured by the functions of the calculation unit 23 that calculates the distance information between the centers of gravity related to the target image and the data comparison unit 25.

【0056】また、信号処理部32はテレビカメラ28
から出力されるアナログ映像信号Sを二値化する,例え
ば、A/D変換回路やその閾値回路から成り、その結果
として、白黒階調に係る画像データDinが得られる。
Further, the signal processing unit 32 is the television camera 28.
The analog video signal S output from the binarization circuit is binarized, for example, it is composed of an A / D conversion circuit and its threshold circuit, and as a result, image data Din relating to black and white gradation is obtained.

【0057】メモリ部33は、画像データDinを一時記
憶したり、計算対象枠Fの設定,縮小,拡大,移動等に
係る各種制御データを記憶するものである。これによ
り、画像計測システム29において、過去の計算対象枠
Fの内部の対象画像の重心座標値や標準偏差値に基づい
て当該計算対象枠Fの位置や大きさを変えることができ
る。例えば、予め設定された制御目標値に基づいて計算
対象枠Fを対象物10に収束させるための演算処理を繰
り返すことができる(本発明の第2の画像処理装置の機
能に相当する)。
The memory unit 33 temporarily stores the image data Din, and stores various control data relating to the setting, reduction, enlargement, movement, etc. of the calculation target frame F. As a result, in the image measurement system 29, the position and size of the calculation target frame F can be changed based on the barycentric coordinate value and standard deviation value of the target image inside the calculation target frame F in the past. For example, it is possible to repeat the arithmetic processing for converging the calculation target frame F on the object 10 based on a preset control target value (corresponding to the function of the second image processing apparatus of the present invention).

【0058】また、CPU30は制御手段20の一実施
例であり、ロボットハンド27,テレビカメラ28及び
画像計測システム29の入出力を制御するものである。
例えば、駆動制御部31に駆動制御データDmを出力し
たり、アラーム部35に警報データDaを出力する。
The CPU 30 is an embodiment of the control means 20 and controls the input / output of the robot hand 27, the television camera 28 and the image measuring system 29.
For example, the drive control data Dm is output to the drive control unit 31, and the alarm data Da is output to the alarm unit 35.

【0059】なお、駆動制御部31は駆動制御データD
mに基づいてロボットハンド27をX,Y,Z方向に駆
動制御をするものである。アラーム部35は、対象物1
0の認識をすることができない場合やその認識処理不能
の場合に、画像計測システム29からCPU30を介し
て出力される警報データDaに基づいて警報をするもの
である。
The drive control unit 31 uses the drive control data D
The robot hand 27 is driven and controlled in the X, Y, and Z directions based on m. The alarm unit 35 is the object 1
When 0 cannot be recognized or the recognition processing cannot be performed, an alarm is issued based on alarm data Da output from the image measuring system 29 via the CPU 30.

【0060】このようにして、本発明の各実施例に係る
画像処理装置を応用したロボット制制御装置によれば、
図3に示すように、ロボットハンド27,テレビカメラ
28,画像処理システム29,CPU30,駆動制御部
31及びアラーム部35が具備され、該画像処理システ
ム29がデータバス34に接続された計算枠設定エディ
タ21,計算枠移動エディタ22,演算部23,計算枠
縮小/拡大エディタ24,データ比較部25,信号処理
部32及びメモリ部33等から成っている。
In this way, according to the robot control device to which the image processing device according to each embodiment of the present invention is applied,
As shown in FIG. 3, a robot frame 27, a television camera 28, an image processing system 29, a CPU 30, a drive control unit 31, and an alarm unit 35 are provided, and the image processing system 29 is connected to a data bus 34 to set a calculation frame. An editor 21, a calculation frame moving editor 22, a calculation unit 23, a calculation frame reduction / enlargement editor 24, a data comparison unit 25, a signal processing unit 32, a memory unit 33 and the like.

【0061】例えば、対象物10に係わり各種教示作業
をする場合に、CPU30を介してロボットハンド27
が対象物10の領域上に移動され、その対象物10の画
像がテレビカメラ28により取得される。また、対象物
10の位置情報が画像処理システム29により計測され
る。
For example, when performing various teaching operations related to the object 10, the robot hand 27 is executed via the CPU 30.
Is moved onto the area of the object 10, and an image of the object 10 is acquired by the television camera 28. Further, the position information of the object 10 is measured by the image processing system 29.

【0062】この際に、本発明の第1〜第4の画像処理
装置から成る画像処理システム29により過去の計算対
象枠Fの重心座標値Xgp,Ygpや標準偏差値に基づいて
当該計算対象枠Fの位置や大きさが自動変更される。
At this time, the image processing system 29 including the first to fourth image processing apparatuses of the present invention uses the barycentric coordinate values Xgp and Ygp of the past calculation target frame F and the standard deviation value to calculate the calculation target frame. The position and size of F are automatically changed.

【0063】このため、計算対象枠Fを流動的に位置や
大きさを自動変更する機能を有する画像処理システム2
9を採用することで、対象物10の正確な重心座標値の
演算をすることができる。このことから、従来例の計算
対象枠Fを固定した画像計測部に比べて、テレビカメラ
28の取得領域の誤り,すなわち、それが取り付けられ
たロボットハンド27の位置ずれが大きすぎたとして処
理されることも少なくなる。
Therefore, the image processing system 2 having a function of automatically changing the position and size of the calculation target frame F dynamically.
By adopting 9, it is possible to accurately calculate the barycentric coordinate value of the object 10. From this, as compared with the image measuring unit in which the calculation target frame F is fixed in the conventional example, the error in the acquisition area of the TV camera 28, that is, the positional deviation of the robot hand 27 to which it is attached is processed as too large. Less often.

【0064】これにより、再度、テレビカメラ28の移
動,すなわち、ロボットハンド27の調整回数が低減さ
れ、その位置決め処理の高速化を図ることが可能とな
る。また、制御系における対象物10の重心位置の誤認
識が皆無に等しくなり、以後の教示作業に際に、ロボッ
ト作業部11を対象物10に衝突させたり、それを転倒
させる等の制御ミスを極力阻止することが可能となる。
As a result, the movement of the television camera 28, that is, the number of times the robot hand 27 is adjusted is reduced again, and the positioning process can be speeded up. In addition, erroneous recognition of the position of the center of gravity of the object 10 in the control system becomes almost zero, and a control error such as colliding the robot working unit 11 with the object 10 or causing it to tip over is avoided during subsequent teaching work. It becomes possible to prevent it as much as possible.

【0065】次に、本発明の各実施例に係り対象物を認
識してそれを把持するロボット制御装置について、当該
装置の画像計測システム29の動作を補足しながら説明
をする。
Next, a robot controller for recognizing an object and gripping the object according to each embodiment of the present invention will be described, supplementing the operation of the image measuring system 29 of the apparatus.

【0066】図4は、本発明の第1の実施例に係る対象
物を認識する画像処理のフローチャートであり、図5は
そのフローチャートの補足説明図をそれぞれ示してい
る。例えば、図3に示すように対象物10を認識して、
それを把持する場合、図4において、まず、ステップP
1でロボットハンド27を対象物10の領域上に移動す
る。この際に、CPU30から駆動制御部31に、駆動
制御データDmが出力されると、該制御データDmに基
づいて駆動制御部31によりロボットハンド27がX,
Y,Z方向に駆動制御される。これにより、ロボットハ
ンド27の側面に固定されたテレビカメラ28が移動さ
れ、対象物10の領域上に移動される。
FIG. 4 is a flow chart of image processing for recognizing an object according to the first embodiment of the present invention, and FIG. 5 is a supplementary explanatory view of the flow chart. For example, recognizing the object 10 as shown in FIG.
When gripping it, first in step P in FIG.
At 1, the robot hand 27 is moved onto the area of the object 10. At this time, when the drive control data Dm is output from the CPU 30 to the drive control unit 31, the drive control unit 31 causes the drive unit 31 to move the X, X, and X based on the control data Dm.
Drive control is performed in the Y and Z directions. As a result, the television camera 28 fixed to the side surface of the robot hand 27 is moved and moved onto the area of the object 10.

【0067】次に、ステップP2でテレビカメラ28の
取付け領域下の対象物10の画像取得処理をする。この
際に、テレビカメラ28により対象物10の画像が取得
され、そのアナログ映像信号Sが画像処理システム29
に出力される。
Next, in step P2, an image acquisition process of the object 10 under the attachment area of the television camera 28 is performed. At this time, the image of the object 10 is acquired by the television camera 28, and the analog video signal S is acquired by the image processing system 29.
Is output to.

【0068】次いで、ステップP3でカメラ入力画像を
適当なレベルにより二値化する。この際に、信号処理部
32により、テレビカメラ28から出力されたアナログ
映像信号Sが二値化され、その白黒階調に係る画像デー
タDinが出力される。この画像データDinがメモリ部3
3に一時格納される。
Then, in step P3, the camera input image is binarized by an appropriate level. At this time, the signal processing unit 32 binarizes the analog video signal S output from the television camera 28, and outputs image data Din related to the black and white gradation. This image data Din is stored in the memory unit 3
Temporarily stored in 3.

【0069】例えば、図5(a)において、その二値化
された画像データDinに基づいてモニタ表示をすると、
対象物10の画像と対象物以外の物体9の画像から成る
画像取得対象16が得られる。
For example, in FIG. 5A, when a monitor display is performed based on the binarized image data Din,
An image acquisition target 16 including an image of the object 10 and an image of the object 9 other than the object is obtained.

【0070】さらに、ステップP4で対象物10が最も
存在しそうな位置に第1の計算対象枠Fを仮り設定す
る。この際に、CPU30を介して画像処理システム2
9の計算枠設定エディタ21により、図5(b)に示す
ような画像取得対象16に計算対象枠Fが設定される。
なお、図5(b)において、細線で示した計算対象枠F
が最初に設定したものである。
Further, in step P4, the first calculation object frame F is provisionally set at the position where the object 10 is most likely to exist. At this time, the image processing system 2
The calculation frame setting editor 21 of 9 sets the calculation target frame F in the image acquisition target 16 as shown in FIG.
Note that in FIG. 5B, the calculation target frame F indicated by a thin line
Was initially set.

【0071】次に、ステップP5で第1の計算対象枠F
の内部を対象に重心座標Xg,Ygを求める。この際
に、例えば、画像データDinに基づいて対象物10の色
である黒を「1」,白を「0」の重み付けをしてX軸方
向,Y軸方向,についてそれぞれ(1),(2)式によ
り平均計算をする。
Next, in step P5, the first calculation target frame F
The barycentric coordinates Xg, Yg are obtained for the inside of the. At this time, for example, black, which is the color of the object 10, is weighted with “1” and white is weighted with “0” based on the image data Din, and (1) and ( The average is calculated by the formula 2).

【0072】[0072]

【数1】 [Equation 1]

【0073】これにより、演算部23を介して対象物1
0の重心座標Xg,Ygを求めることができる。ここ
で、fiはそのi番目の画素が黒の時「1」、白の時
「0」,xi,yiはその画素のX,Y軸の座標値であ
り、nは画面内の全画素数を表している。また、分母の
値はその物体の画素数,すなわち、面積を表している。
As a result, the object 1
The barycentric coordinates Xg and Yg of 0 can be obtained. Here, fi is “1” when the i-th pixel is black, “0” when it is white, xi, yi are the coordinate values of the X and Y axes of the pixel, and n is the total number of pixels in the screen. Is represented. The value of the denominator represents the number of pixels of the object, that is, the area.

【0074】その後、ステップP6で先に求めた重心座
標Xg,Ygを中心として大きさの等しい第2の計算対
象枠Fを設定する。この際に、計算枠移動エディタ22
により、画像取得対象16に設定された計算対象枠Fが
移動され、図5(b)において、点線で示した計算対象
枠Fが二度目に設定したものとなる。
Thereafter, in step P6, the second calculation target frames F having the same size centered on the barycentric coordinates Xg, Yg previously obtained are set. At this time, the calculation frame moving editor 22
As a result, the calculation target frame F set as the image acquisition target 16 is moved, and the calculation target frame F indicated by the dotted line in FIG. 5B is set for the second time.

【0075】さらに、ステップP7で第2の計算対象枠
Fの内部を対象に重心座標Xg,Ygを求める。この際
に、ステップP5と同様に第2の計算対象枠Fの内部を
対象に演算部23により重心座標Xg,Ygが求められ
る。
Further, in step P7, the barycentric coordinates Xg, Yg are obtained for the inside of the second calculation object frame F. At this time, as in step P5, the center of gravity coordinates Xg and Yg are obtained by the calculation unit 23 for the inside of the second calculation target frame F.

【0076】その後、ステップP8で先に求めた重心座
標Xg,Ygを中心として大きさの等しい第3の計算対
象枠Fを設定する。この際に、計算枠移動エディタ22
により、画像取得対象16に設定された計算対象枠Fが
移動され、図5(b)において、太線で示した計算対象
枠Fが三度目に設定したものとなる。
Then, in step P8, the third calculation target frame F having the same size with the center of gravity coordinates Xg, Yg previously obtained as the center is set. At this time, the calculation frame moving editor 22
As a result, the calculation target frame F set as the image acquisition target 16 is moved, and the calculation target frame F indicated by the thick line in FIG. 5B is set for the third time.

【0077】さらに、ステップP9で第3の計算対象枠
Fの内部を対象に重心座標Xg,Ygを求める。この際
に、ステップP5,P7と同様に第2の計算対象枠Fの
内部を対象に演算部23により重心座標Xg,Ygが求
められる。
Further, in step P9, the barycentric coordinates Xg, Yg are obtained for the inside of the third calculation object frame F. At this time, as in steps P5 and P7, the center of gravity coordinates Xg and Yg are obtained by the arithmetic unit 23 for the inside of the second calculation target frame F.

【0078】その後、ステップP8で先に求めた重心座
標Xg,Ygを対象物の重心位置XG,YGとして認識
し、以後の各種作業を行う。この際に、ロボットハンド
27により対象物10に係わり各種教示作業が行われ
る。例えば、駆動制御データDmに基づいて駆動制御部
31を介して、ロボットハンド27がテレビカメラ28
の取付けオフセット分だけX,Y方向に移動され、その
後、それがZ方向に駆動制御され、対象物10が把持さ
れる。
After that, in step P8, the barycentric coordinates Xg, Yg previously obtained are recognized as the barycentric positions XG, YG of the object, and various operations thereafter are performed. At this time, various teaching operations are performed by the robot hand 27 in relation to the object 10. For example, the robot hand 27 is operated by the television camera 28 via the drive control unit 31 based on the drive control data Dm.
Is moved in the X and Y directions by the mounting offset of, and thereafter, it is driven and controlled in the Z direction, and the object 10 is gripped.

【0079】このようにして、本発明の第1の実施例に
係る対象物を認識するロボット制御装置の画像計測方法
によれば、図4の処理フローチャートに示すように、ス
テップP4,P6,P8で過去の計算対象枠Fの内部の
対象画像の重心座標値に基づいて当該計算対象枠Fの位
置や大きさを変えている。
As described above, according to the image measuring method of the robot controller for recognizing the object according to the first embodiment of the present invention, as shown in the processing flowchart of FIG. 4, steps P4, P6 and P8 are performed. Then, the position or size of the calculation target frame F is changed based on the barycentric coordinate value of the target image inside the calculation target frame F in the past.

【0080】このため、図5(b)に示すように、最初
に設定された計算対象枠Fの内部に対象物10の画像と
対象物以外の物体9とが含まれた場合であって、その内
部画面を対象にして重心座標値Xg,Ygを計算する場
合であっても、当該計算対象枠Fから順次,対象物以外
の物体9の画像を除外するように、その位置や大きさが
自動的に変えられる。
Therefore, as shown in FIG. 5B, when the image of the object 10 and the object 9 other than the object are included in the initially set calculation target frame F, Even when the center-of-gravity coordinate values Xg and Yg are calculated for the internal screen, the positions and sizes of the objects 9 other than the object are sequentially excluded from the calculation target frame F. Can be changed automatically.

【0081】このことから従来例のような演算処理の限
界の発生が低減され、ステップP9で対象物10の面積
からその重心座標値Xg,Ygを再現性良く計測するこ
とが可能となる。
As a result, the occurrence of the limit of the arithmetic processing as in the conventional example is reduced, and the barycentric coordinate values Xg and Yg of the object 10 can be measured with good reproducibility in step P9.

【0082】これにより、計算対象枠Fの位置や大きさ
を流動的に自動変更する機能に基づいて計算された重心
座標値Xg,Ygを真の対象物10の重心位置XG,Y
Gとして適用することが可能となる。また、対象物10
の重心座標値の演算に係わり対象画像に対し計算対象枠
Fが固定されることなく、それが流動的に設定されるこ
とから、対象物の計測情報を正確に演算することが可能
となる。
As a result, the barycentric coordinate values Xg, Yg calculated based on the function of dynamically changing the position and size of the calculation target frame F are used as the barycentric position XG, Y of the true object 10.
It can be applied as G. Also, the object 10
Since the calculation target frame F is not fixed with respect to the target image due to the calculation of the center-of-gravity coordinate value of the target image, but is set in a fluid manner, it is possible to accurately calculate the measurement information of the target object.

【0083】このことで、各種計測情報の演算に係り画
像計測処理の信頼性の向上を図ることが可能となる。 (2)第2の実施例の説明 図6は、本発明の第2の実施例に係る対象物を認識する
画像処理のフローチャートであり、図7はその他実施例
に係るフローチャートの補足説明図をそれぞれ示してい
る。
As a result, it is possible to improve the reliability of the image measurement processing relating to the calculation of various measurement information. (2) Description of Second Embodiment FIG. 6 is a flowchart of image processing for recognizing an object according to the second embodiment of the present invention, and FIG. 7 is a supplementary explanatory diagram of the flowcharts according to other embodiments. Shown respectively.

【0084】図6において、第1の実施例と異なるのは
第2の実施例では、計算対象枠Fの内部の対象画像に係
る重心座標間の収束値を制御変数i,例えば、予め制御
変数i=5と設定し、それが目標以下になるまで演算処
理を繰り返すものである。
In FIG. 6, the difference from the first embodiment is that in the second embodiment, the convergence value between the barycentric coordinates of the target image inside the calculation target frame F is set to the control variable i, for example, the control variable in advance. i = 5 is set, and the calculation process is repeated until it becomes less than or equal to the target.

【0085】すなわち、ステップP1で第1の実施例と
同様に、ロボットハンド27を対象物10の領域上に移
動し、次に、ステップP2で対象物10の画像取得処理
をする。また、ステップP2でカメラ入力画像を適当な
レベルにより二値化をする。これまでは、第1の実施例
と同様である。
That is, as in the first embodiment, the robot hand 27 is moved onto the area of the object 10 in step P1, and the image acquisition processing of the object 10 is performed in step P2. In step P2, the camera input image is binarized by an appropriate level. So far, this is the same as the first embodiment.

【0086】次に、ステップP3で対象物がもっとも有
りそうなところに第1の計算対象枠Fを設定する。この
際に、制御変数i=1が計算枠設定エディタ21に設定
されると、図7(a)の細線に示すように、最初の計算
対象枠Fが画像取得対象16に設定される。
Next, in step P3, the first calculation target frame F is set at the place where the object is most likely to exist. At this time, when the control variable i = 1 is set in the calculation frame setting editor 21, the first calculation target frame F is set as the image acquisition target 16 as shown by the thin line in FIG.

【0087】その後、ステップP4で第1の計算対象枠
Fの内部を対象に重心座標Xg,Ygを求める。この際
に、第1の実施例と同様に、演算部23を介して対象物
10の重心座標Xg,Ygが求められる。
Then, in step P4, the barycentric coordinates Xg, Yg are obtained for the inside of the first calculation target frame F. At this time, as in the first embodiment, the barycentric coordinates Xg, Yg of the object 10 are obtained via the calculation unit 23.

【0088】次に、ステップP5で制御変数iに2を代
入する。この際に、制御変数i=2がデータ比較部25
に設定されると、計算枠移動エディタ22により、画像
取得対象16に設定された計算対象枠Fが移動される。
Next, in step P5, 2 is substituted for the control variable i. At this time, the control variable i = 2 is the data comparison unit 25.
When set to, the calculation frame moving editor 22 moves the calculation target frame F set in the image acquisition target 16.

【0089】次いで、ステップP6で先に求めた重心座
標Xg,Ygを中心として大きさの等しい第i番目の計
算対象枠Fを設定する。ここで、図7(a)の点線に示
すように、二度目の計算対象枠Fが画像取得対象16に
設定される。
Then, in step P6, the i-th calculation target frame F having the same size with the center of gravity coordinates Xg, Yg previously obtained as the center is set. Here, as shown by the dotted line in FIG. 7A, the second calculation target frame F is set as the image acquisition target 16.

【0090】さらに、ステップP7で第i番目の計算対
象枠Fの内部を対象に重心座標Xg,Ygを求める。こ
の際に、ステップP5と同様に、演算部23を介して対
象物10の重心座標Xg,Ygが求められる。
Further, in step P7, the barycentric coordinates Xg, Yg are obtained for the inside of the i-th calculation target frame F. At this time, the barycentric coordinates Xg, Yg of the object 10 are obtained via the calculation unit 23, as in step P5.

【0091】その後、ステップP8でi番目で計算した
重心座標Xg,Ygとi−1番目で計算をした重心座標
間の距離を求める。ここでは、演算部23により図2
(b)に示すように過去の計算対象枠Fの内部の対象画
像の重心座標値Xgp,Ygpと当該計算対象枠Fの内部の
対象画像の重心座標値Xgr,Ygrとに基づいて重心間の
距離情報が演算される。
Then, in step P8, the distance between the i-th calculated barycentric coordinates Xg and Yg and the i-1th calculated barycentric coordinates is determined. Here, the calculation unit 23 is used as shown in FIG.
As shown in (b), between the centroids based on the centroid coordinate values Xgp, Ygp of the target image inside the calculation target frame F and the centroid coordinate values Xgr, Ygr of the target image inside the calculation target frame F in the past. Distance information is calculated.

【0092】さらに、ステップP9で制御変数iに1を
加算する。ここで、先の制御変数i=2にi=1が計算
枠設定エディタ21に加算されると、計算枠移動エディ
タ22により、画像取得対象16に設定された計算対象
枠Fが移動される。ここで、図7(a)の太線に示すよ
うに、三度目の計算対象枠Fが画像取得対象16に設定
される。
Further, in step P9, 1 is added to the control variable i. Here, when i = 1 is added to the control variable i = 2 in the calculation frame setting editor 21, the calculation frame moving editor 22 moves the calculation target frame F set in the image acquisition target 16. Here, as shown by the thick line in FIG. 7A, the calculation target frame F for the third time is set as the image acquisition target 16.

【0093】次に、ステップP10で重心座標間の距離が
一定量以下になったか, 否か判断をする。この際に、そ
れが一定量以下,例えば、予め設定した制御変数i=5
になった場合(YES)には、ステップP11に移行する。
また、それが一定量以下にならない場合(NO)には、
ステップP6に戻る。ここで、データ比較部25によ
り、新旧の計算対象枠Fの内部の対象画像に係る重心座
標間の距離情報と制御目標値とが比較される。
Next, in step P10, it is determined whether or not the distance between the barycentric coordinates is below a certain amount. At this time, it is less than a certain amount, for example, a preset control variable i = 5
If it becomes (YES), the process proceeds to step P11.
If it does not fall below a certain amount (NO),
It returns to step P6. Here, the data comparison unit 25 compares the distance information between the barycentric coordinates of the target images inside the old and new calculation target frames F with the control target value.

【0094】ここで、対象物10が認識できない場合や
その認識処理不能の場合に、画像計測システム29から
CPU30を介して出力される警報データDaに基づい
てアラーム部35により警報が発せられる。
Here, when the object 10 cannot be recognized or its recognition processing is impossible, an alarm is issued by the alarm unit 35 based on the alarm data Da output from the image measuring system 29 via the CPU 30.

【0095】従って、それが一定量以下になった場合に
は、ステップP11で求めた重心座標Xg,Ygを対象物
10の重心位置XG,YGとして認識し、以後の各種教
示作業を行う。なお、その他の処理は第1の実施例と同
様であるため、その説明を省略する。
Therefore, when it becomes equal to or less than the predetermined amount, the barycentric coordinates Xg, Yg obtained in step P11 are recognized as the barycentric positions XG, YG of the object 10 and various teaching operations thereafter are performed. Since the other processing is the same as that of the first embodiment, the description thereof will be omitted.

【0096】このようにして、本発明の第2の実施例に
係る対象物を認識するロボット制御装置の画像計測方法
によれば、図6の処理フローチャートに示すように、ス
テップP5,P9で制御変数iが設定され、ステップP
10で重心座標Xg,Ygの位置の距離が一定量以下にな
ったか, 否か判断されている。
As described above, according to the image measuring method of the robot controller for recognizing the object according to the second embodiment of the present invention, the control is performed in steps P5 and P9 as shown in the processing flowchart of FIG. Variable i is set and step P
At 10, it is determined whether or not the distance between the positions of the barycentric coordinates Xg and Yg is below a certain amount.

【0097】このため、図7(a)に示すように、最初
に設定された第1番目の計算対象枠Fが対象外の物体9
のほんの一部のみを含む場合であって、対象物10の重
心座標から該物体9までの距離が遠い成分となって、重
心座標計算値の誤差が大きくなった場合でも、ステップ
P10で第1番目の計算範囲枠Fの制御目標値に基づいて
演算処理を繰り返すことにより、例えば、次に設定され
る第2番目の計算対象枠Fにより、対象画像から対象外
の物体9が除外される場合には、対象物10の重心座標
が計算対象枠Fの中心に収束(漸近)してくることか
ら、それが真の対象物10の重心座標位置から誤って大
きく掛け離れることが無くなる。
Therefore, as shown in FIG. 7A, the first set calculation target frame F is the object 9 which is not the target.
Even when only a small part of the object is included, and the distance from the barycentric coordinates of the object 10 to the object 9 becomes a long component and the error of the barycentric coordinate calculation value becomes large, the first value is determined in step P10. When the non-target object 9 is excluded from the target image by repeating the calculation process based on the control target value of the second calculation range frame F, for example, by the second calculation target frame F set next. In addition, since the barycentric coordinates of the object 10 converge (asymptote) to the center of the calculation target frame F, the barycentric coordinates of the true object 10 are prevented from being erroneously largely separated.

【0098】これにより、対象物以外の物体9よりも対
象物10が小さい場合であっても、予め設定された計算
範囲枠Fの制御目標値,例えば、予定していた対象物1
0の実際面積値と計算対象枠内の対象物10の面積計算
値とが極めて近似してくることにより、従来例のような
計測不能に陥ることが低減される。
As a result, even if the object 10 is smaller than the object 9 other than the object, the control target value of the preset calculation range frame F, for example, the planned object 1
Since the actual area value of 0 and the calculated area value of the object 10 in the calculation target frame become extremely close to each other, it is possible to reduce the possibility of measurement failure as in the conventional example.

【0099】なお、該重心座標値の計測不能に陥った場
合には警報等を発することで、当該画像計測系において
異常が発生した旨を上位の制御系に知らしめ、従来例の
ような制御ミス等を事前に阻止することが可能となる。
When the gravity center coordinate value cannot be measured, an alarm or the like is issued to notify the upper control system that an abnormality has occurred in the image measurement system, and control as in the conventional example. It becomes possible to prevent mistakes in advance.

【0100】(3)第3の実施例の説明 図8は、本発明の第3の実施例に係る対象物を認識する
画像処理のフローチャートをそれぞれ示している。
(3) Description of Third Embodiment FIG. 8 shows a flowchart of image processing for recognizing an object according to the third embodiment of the present invention.

【0101】図8において、第1,第2の実施例と異な
るのは第3の実施例では、範囲設定エディタ21が標準
偏差値の定数倍の新しい計算対象枠Fを設定するもので
ある。
In FIG. 8, the difference from the first and second embodiments is that in the third embodiment, the range setting editor 21 sets a new calculation target frame F that is a constant multiple of the standard deviation value.

【0102】すなわち、第1,第2の実施例と同様に、
ロボットハンド27を対象物10の領域上に移動し、そ
の対象物10に係る画像取得処理をする。また、図8に
おいて、ステップP1でカメラ入力画像を適当なレベル
により二値化し、さらに、ステップP2で対象物がもっ
とも有りそうなところに第1の計算対象枠Fを設定す
る。ここで、図7(a)の細線に示すように最初の計算
対象枠Fが画像取得対象16に設定される。
That is, as in the first and second embodiments,
The robot hand 27 is moved onto the area of the object 10 and an image acquisition process for the object 10 is performed. Further, in FIG. 8, the camera input image is binarized at an appropriate level in step P1, and further, in step P2, the first calculation target frame F is set at a position where an object is most likely to exist. Here, as shown by the thin line in FIG. 7A, the first calculation target frame F is set as the image acquisition target 16.

【0103】次に、ステップP3で第1の計算対象枠F
の内部を対象に重心座標Xg,Ygを求める。これまで
は、第1の実施例と同様である。その後、ステップP4
で第1の計算対象枠Fの内部を対象として標準偏差を計
算する。ここで、計算枠設定エディタ21により、計算
対象枠Fの内部の対象画像の標準偏差値の定数倍,例え
ば、その倍率kを3倍に設定する。なお、倍率kは対象
物10の形状の複雑さにより適当な値を選択する。
Next, in step P3, the first calculation target frame F
The barycentric coordinates Xg, Yg are obtained for the inside of the. So far, this is the same as the first embodiment. After that, step P4
Then, the standard deviation is calculated for the inside of the first calculation target frame F. Here, the calculation frame setting editor 21 sets a constant multiple of the standard deviation value of the target image inside the calculation target frame F, for example, its magnification k to 3. An appropriate value is selected as the magnification k depending on the complexity of the shape of the object 10.

【0104】また、X,Y方向の標準偏差値sx,sy
は(3),(4)式により演算部23で計算される。
Further, standard deviation values sx, sy in the X and Y directions
Is calculated by the calculation unit 23 according to equations (3) and (4).

【0105】[0105]

【数2】 [Equation 2]

【0106】なお、Nは対象物10の階調色(ここでは
黒=「1」)についての画素数であり、(5)式により
与えられる。
Note that N is the number of pixels for the gradation color (black = “1” here) of the object 10 and is given by the equation (5).

【0107】[0107]

【数3】 [Equation 3]

【0108】また、計算対象枠FのX軸方向及びY軸方
向の範囲を(6),(7)式に規定する。
The ranges of the calculation target frame F in the X-axis direction and the Y-axis direction are defined by the equations (6) and (7).

【0109】[0109]

【数4】 [Equation 4]

【0110】次に、ステップP5で先に求めた重心座標
Xg,Ygを中心とし、計算対象枠Fのサイズを標準偏
差値sx,syの3倍とした第2の計算対象枠Fを設定
する。ここで、計算枠縮小/拡大エディタ24により図
7(b)の点線に示すように計算対象枠Fが縮小され
る。
Next, in step P5, the second calculation target frame F is set with the center of gravity coordinates Xg, Yg obtained previously as the center and the size of the calculation target frame F set to three times the standard deviation values sx, sy. .. Here, the calculation frame reduction / enlargement editor 24 reduces the calculation target frame F as shown by the dotted line in FIG. 7B.

【0111】さらに、ステップP6で第2の計算対象枠
Fの内部を対象に重心座標Xg,Ygを求め、その後、
ステップP7で第2の計算対象枠Fの内部を対象して標
準偏差を計算する。ここで、ステップP4と同様に、計
算枠設定エディタ21により、計算対象枠Fの内部の対
象画像の標準偏差値sx,syの倍率kが3倍に設定さ
れる。
Further, in step P6, the barycentric coordinates Xg, Yg are obtained for the inside of the second calculation object frame F, and thereafter,
In step P7, the standard deviation is calculated for the inside of the second calculation target frame F. Here, similarly to step P4, the calculation frame setting editor 21 sets the magnification k of the standard deviation values sx and sy of the target image inside the calculation target frame F to 3 times.

【0112】次に、ステップP8で先に求めた重心座標
Xg,Ygを中心とし、サイズを標準偏差値sx,sy
の3倍とした第3の計算対象枠Fを設定する。ここで、
計算枠縮小/拡大エディタ24により図7(b)の太い
線示すように計算対象枠Fが縮小される。
Next, the size is standard deviation values sx, sy centered on the barycentric coordinates Xg, Yg previously obtained in step P8.
The third calculation target frame F that is three times as large as the above is set. here,
The calculation frame reduction / enlargement editor 24 reduces the calculation target frame F as indicated by the thick line in FIG.

【0113】さらに、ステップP9で第3の計算対象枠
Fの内部を対象に重心座標Xg,Ygを求め、その後、
ステップP10で求めた重心座標値Xg,Ygを対象物1
0の重心位置XG,YGとして認識し、各種作業を行
う。なお、その他の構成は第1,第2の実施例と同様で
あるため、その説明を省略する。
Further, in step P9, the barycentric coordinates Xg, Yg are obtained for the inside of the third calculation object frame F, and thereafter,
The barycentric coordinate values Xg and Yg obtained in step P10 are set to the object 1
The center of gravity position of 0 is recognized as XG and YG, and various operations are performed. Since the other structures are similar to those of the first and second embodiments, the description thereof will be omitted.

【0114】このようにして、本発明の第3の実施例に
係る対象物を認識するロボット制御装置の画像計測方法
によれば、図8の処理フローチャートに示すように、ス
テップP4,P7で標準偏差値sx,syが計算され、
その後、ステップP5,P8で標準偏差値sx,syの
3倍の新しい計算対象枠Fが設定されている。
As described above, according to the image measuring method of the robot controller for recognizing an object according to the third embodiment of the present invention, as shown in the processing flowchart of FIG. Deviation values sx and sy are calculated,
Then, in steps P5 and P8, a new calculation target frame F that is three times the standard deviation values sx and sy is set.

【0115】このため、対象物10の近くに形状の異な
る対象物以外の物体9が多く存在する場合や対象物10
の形状が未定の場合に、最適な計算対象枠Fを高速に設
定することが可能となる。
Therefore, when there are many objects 9 other than the objects having different shapes in the vicinity of the object 10 or the object 10
When the shape of is not determined, the optimum calculation target frame F can be set at high speed.

【0116】これにより、第1,第2の実施例と同様
に、対象物10の計測情報を正確に演算することが可能
となる。 (4)第4の実施例の説明 図9は、本発明の第4の実施例に係る対象物を認識する
画像処理のフローチャートを示している。
As a result, similarly to the first and second embodiments, the measurement information of the object 10 can be calculated accurately. (4) Description of Fourth Embodiment FIG. 9 shows a flowchart of image processing for recognizing an object according to a fourth embodiment of the present invention.

【0117】図9において、第1〜第3の実施例と異な
るのは第4の実施例では、標準偏差値sx,syの定数
倍の新しい計算対象枠Fを設定する場合に、計算対象枠
Fの内部の対象画像に係る重心座標間の収束値を制御変
数i,例えば、予め制御変数i=5と設定し、それが目
標以下になるまで演算処理を繰り返すものである。
In FIG. 9, the difference from the first to third embodiments is that in the fourth embodiment, the calculation target frame F is set when a new calculation target frame F that is a constant multiple of the standard deviation values sx and sy is set. The convergence value between the barycentric coordinates of the target image inside F is set as a control variable i, for example, a control variable i = 5 in advance, and the calculation process is repeated until it becomes less than the target.

【0118】すなわち、第1〜第3の実施例と同様に、
ロボットハンド27を対象物10の領域上に移動し、そ
の対象物10に係る画像取得処理をする。また、図9に
おいて、ステップP1でカメラ入力画像を適当なレベル
により二値化し、さらに、ステップP2で対象物がもっ
とも有りそうなところに第1の計算対象枠Fを設定す
る。この際に、制御変数i=1が計算枠設定エディタ2
1に設定されると、図7(a)の細線に示すように、最
初の計算対象枠Fが画像取得対象16に設定される。
That is, as in the first to third embodiments,
The robot hand 27 is moved onto the area of the object 10 and an image acquisition process for the object 10 is performed. Further, in FIG. 9, in step P1, the camera input image is binarized by an appropriate level, and in step P2, a first calculation target frame F is set at a position where an object is most likely to exist. At this time, the control variable i = 1 is the calculation frame setting editor 2
When set to 1, the first calculation target frame F is set to the image acquisition target 16 as shown by the thin line in FIG.

【0119】次に、ステップP3で第1の計算対象枠F
の内部を対象に重心座標Xg,Ygを求める。これまで
は、第2の実施例と同様である。さらに、ステップP4
で第1の計算対象枠Fの内部を対象に標準偏差を求め
る。ここで、第3の実施例と同様に、計算枠設定エディ
タ21により、計算対象枠Fの内部の対象画像の標準偏
差値sx,syの倍率kが3倍に設定される。
Next, in step P3, the first calculation target frame F
The barycentric coordinates Xg, Yg are obtained for the inside of the. Up to this point, the procedure is the same as in the second embodiment. Furthermore, step P4
Then, the standard deviation is calculated for the inside of the first calculation target frame F. Here, similarly to the third embodiment, the calculation frame setting editor 21 sets the magnification k of the standard deviation values sx and sy of the target image inside the calculation target frame F to 3 times.

【0120】その後、ステップP5で制御変数iに2を
代入する。この際に、制御変数i=2がデータ比較部2
5に設定されると、計算枠移動エディタ22により、画
像取得対象16に設定された計算対象枠Fが移動され
る。
Then, in step P5, 2 is substituted for the control variable i. At this time, the control variable i = 2 is the data comparison unit 2
When set to 5, the calculation frame moving editor 22 moves the calculation target frame F set in the image acquisition target 16.

【0121】次に、ステップP6で先に求めた重心座標
Xg,Ygを中心とし、計算対象枠Fのサイズの標準偏
差値sx,syの3倍としたi番目の計算対象枠Fを設
定する。ここで、計算枠縮小/拡大エディタ24により
図7(b)の点線に示すように計算対象枠Fが縮小され
る。
Next, in step P6, the i-th calculation target frame F is set with the center of gravity coordinates Xg, Yg previously obtained as the center and three times the standard deviation values sx, sy of the size of the calculation target frame F. .. Here, the calculation frame reduction / enlargement editor 24 reduces the calculation target frame F as shown by the dotted line in FIG. 7B.

【0122】さらに、ステップP7で第i番目の計算対
象枠Fの内部を対象に重心座標Xg,Ygを求める。こ
の際に、ステップP3と同様に、演算部23を介して対
象物10の重心座標Xg,Ygが求められる。
Further, in step P7, the barycentric coordinates Xg, Yg are obtained for the inside of the i-th calculation target frame F. At this time, as in step P3, the barycentric coordinates Xg and Yg of the object 10 are obtained via the calculation unit 23.

【0123】次に、ステップP8で第i番目の計算対象
枠Fの内部を対象に標準偏差を求める。この際に、ステ
ップP4と同様に、計算枠設定エディタ21により、計
算対象枠Fの内部の対象画像の標準偏差値sx,syの
倍率kが3倍に設定される。
Next, in step P8, the standard deviation is obtained for the inside of the i-th calculation target frame F. At this time, similarly to step P4, the calculation frame setting editor 21 sets the magnification k of the standard deviation values sx and sy of the target image inside the calculation target frame F to 3 times.

【0124】その後、ステップP9でi番目で計算した
重心座標Xg,Ygとi−1番目で計算をした重心座標
Xg,Yg位置の距離を求める。ここでは、演算部23
により過去の計算対象枠Fの内部の対象画像の重心座標
値と当該計算対象枠Fの重心座標値とに基づいて重心間
の距離情報が演算される。
Then, in step P9, the distance between the i-th barycentric coordinate Xg and Yg calculated and the i-1th barycentric coordinate Xg and Yg position is obtained. Here, the calculation unit 23
Thus, the distance information between the centers of gravity is calculated based on the center of gravity coordinate values of the target image inside the calculation target frame F and the center of gravity coordinate values of the calculation target frame F.

【0125】次いで、ステップP10で制御変数iに1を
加算する。ここで、先の制御変数i=2にi=1が計算
枠設定エディタ21に加算されると、計算枠移動エディ
タ22により、画像取得対象16に設定された計算対象
枠Fが移動される。ここで、図7(a)の太線に示すよ
うに、三度目の計算対象枠Fが画像取得対象16に設定
される。
Then, in step P10, 1 is added to the control variable i. Here, when i = 1 is added to the control variable i = 2 in the calculation frame setting editor 21, the calculation frame moving editor 22 moves the calculation target frame F set in the image acquisition target 16. Here, as shown by the thick line in FIG. 7A, the calculation target frame F for the third time is set as the image acquisition target 16.

【0126】次に、ステップP11で重心座標間の距離が
一定量以下になったか, 否か判断をする。この際に、そ
れが一定量以下になった場合(YES)には、ステップP
12に移行する。また、それが一定量以下にならない場合
(NO)には、ステップP6に戻る。
Next, in step P11, it is determined whether or not the distance between the barycentric coordinates is below a certain amount. At this time, if it becomes less than a certain amount (YES), step P
Transition to 12. If it does not fall below the fixed amount (NO), the process returns to step P6.

【0127】従って、それが一定量以下になった場合に
は、ステップP12で求めた重心座標Xg,Ygを対象物
10の重心位置XG,YGとして認識し、以後の各種作
業を行う。なお、その他の構成は第1の実施例と同様で
あるため、その説明を省略する。
Therefore, when it becomes less than a certain amount, the barycentric coordinates Xg, Yg obtained in step P12 are recognized as the barycentric positions XG, YG of the object 10 and various operations thereafter are performed. The rest of the configuration is the same as that of the first embodiment, so its explanation is omitted.

【0128】このようにして、本発明の第4の実施例に
係る対象物を認識するロボット制御装置の画像計測方法
によれば、図9の処理フローチャートに示すように、ス
テップP4(P8)で標準偏差値sx,syが計算さ
れ、その後、ステップP5で制御変数iが設定される
と、ステップP6で標準偏差値sx,syの3倍の新し
い計算対象枠Fが設定され、ステップP10で重心座標X
g,Ygの位置の距離が一定量以下になったか, 否か判
断されている。
As described above, according to the image measuring method of the robot controller for recognizing an object according to the fourth embodiment of the present invention, as shown in the processing flowchart of FIG. 9, at step P4 (P8). When the standard deviation values sx and sy are calculated, and then the control variable i is set in step P5, a new calculation target frame F that is three times the standard deviation values sx and sy is set in step P6, and the center of gravity is set in step P10. Coordinate X
It is judged whether or not the distance between the g and Yg positions is below a certain amount.

【0129】このため、第1,第2の実施例のように、
当該計算対象枠Fに係わり、対象物10の重心座標値X
g,Ygを繰返し演算処理する場合に、目的とする計算
対象枠Fの中心位置を対象物10の重心座標値に早く漸
近させることが可能となる。
Therefore, as in the first and second embodiments,
The barycentric coordinate value X of the object 10 related to the calculation target frame F
When g and Yg are repeatedly calculated, the target center position of the calculation target frame F can be asymptotically approached to the barycentric coordinate value of the object 10.

【0130】これにより、画像計測処理に係る無駄時間
が極力抑制され、対象物の計測情報の高速演算をするこ
とが可能となる。なお、本発明の画像処理装置をロボッ
ト制御装置の目に適用した実施例について述べたが、パ
ターン認識処理やその他の画像処理に適用した場合に
も、同様な効果が得られる。また、計算対象枠Fは四角
形状の場合について説明したが、円形や楕円形等の任意
形状でも同様に適用可能である。
As a result, the dead time associated with the image measurement processing is suppressed as much as possible, and the measurement information of the object can be calculated at high speed. Although the embodiment in which the image processing apparatus of the present invention is applied to the eyes of the robot controller has been described, the same effect can be obtained when applied to pattern recognition processing and other image processing. Further, although the calculation target frame F has been described as having a quadrangular shape, it can be similarly applied to an arbitrary shape such as a circle or an ellipse.

【0131】さらに、各実施例では画像取得対象16が
白背景に黒色の対象物10の場合について説明したが、
黒背景に白色の対象物10の場合でも同様な効果が得ら
れる。また、計算対象枠Fのサイズの決定方法につい
て、標準偏差値sx,syを示したが、分散値を適用し
ても良い。
Further, in each of the embodiments, the case where the image acquisition target 16 is the black target object 10 on the white background has been described.
The same effect can be obtained when the target object 10 is white on a black background. Although the standard deviation values sx and sy are shown as the method of determining the size of the calculation target frame F, the variance value may be applied.

【0132】なお、各実施例では計測値として重心座標
と面積について説明をしたが、その他の計測値,例え
ば、慣性主軸角度や等価楕円長径/短径などを用いて計
算対象枠Fの内部に係わり演算処理をしても良い。
Although the barycentric coordinates and the area have been described as the measured values in each embodiment, other measured values such as the inertial principal axis angle and the equivalent elliptic major axis / minor axis are used to calculate the inside of the calculation target frame F. Involved calculation processing may be performed.

【0133】また、各実施例ではX軸,Y軸の二次元画
像に係る計測処理の場合について説明をしたが、CTス
キャナなどの立体画像に係る計測処理の場合についても
適用可能である。
Further, in each of the embodiments, the case of the measurement processing relating to the X-axis and Y-axis two-dimensional images has been described, but it is also applicable to the case of the measurement processing relating to a stereoscopic image such as a CT scanner.

【0134】[0134]

【発明の効果】以上説明したように、本発明の画像処理
装置によれば、範囲設定手段,範囲移動手段,演算手段
及び範囲変更手段が具備され、過去の計算対象枠の内部
の対象画像の重心座標値や標準偏差値に基づいて当該計
算対象枠の位置や大きさが変えられる。
As described above, according to the image processing apparatus of the present invention, the range setting means, the range moving means, the calculating means and the range changing means are provided, and the target image inside the past calculation target frame is displayed. The position and size of the calculation target frame can be changed based on the barycentric coordinate value and the standard deviation value.

【0135】このため、最初に設定された計算対象枠の
内部に対象物の画像と対象物以外の物体とが含まれた場
合であっても、当該計算対象枠から順次,対象物以外の
物体の画像を除外するように、その位置や大きさが自動
的に変えられる。このことで、対象物の面積からその重
心座標値を再現性良く計測すること、及び、計算された
重心座標値を真の対象物の重心位置として適用すること
が可能となる。
Therefore, even when the image of the object and the object other than the object are included in the initially set object frame, the object other than the object is sequentially inserted from the object frame. The position and size are automatically changed so as to exclude the image of. This makes it possible to measure the barycentric coordinate value from the area of the object with good reproducibility, and to apply the calculated barycentric coordinate value as the true barycentric position of the object.

【0136】また、本発明の画像処理装置によれば、予
め設定された計算範囲枠の制御目標値に基づいて演算処
理が繰り返される。このため、最初に設定された第1番
目の計算対象枠が対象外の物体の一部を含む場合であっ
ても、当該計算範囲枠の制御目標値に基づいて演算処理
を繰り返すことにより、従来例のような計測不能に陥る
ことが低減される。なお、該重心座標値の計測不能に陥
った場合には警報等を発することで、事前に制御ミス等
を阻止することが可能となる。
Further, according to the image processing apparatus of the present invention, the calculation processing is repeated based on the preset control target value of the calculation range frame. Therefore, even when the first calculation target frame set first includes a part of the object that is not the target, by repeating the calculation process based on the control target value of the calculation range frame, The improper measurement is reduced. If the gravity center coordinate value cannot be measured, an alarm or the like is issued to prevent a control error or the like in advance.

【0137】さらに、本発明の画像処理装置によれば、
範囲設定手段により標準偏差値の定数倍の新しい計算対
象枠が設定されるため、対象物の近くに形状の異なる対
象物以外の物体が多く存在する場合や対象物の形状が未
定の場合に、最適な計算対象枠を高速に設定することが
可能となる。
Furthermore, according to the image processing apparatus of the present invention,
Since a new calculation target frame that is a constant multiple of the standard deviation value is set by the range setting means, when there are many objects other than the target object of different shapes near the target object or when the shape of the target object is undecided, It is possible to set the optimum calculation target frame at high speed.

【0138】また、本発明の画像処理装置によれば、過
去の計算対象枠の内部の対象画像の重心座標値と当該計
算対象枠の内部の対象画像の重心座標値とに基づいて演
算手段により重心間の距離情報が演算され、また、制御
目標値と重心間の距離情報とが比較手段により比較され
る。
Further, according to the image processing apparatus of the present invention, the calculating means is operated based on the barycentric coordinate value of the target image inside the past calculation target frame and the barycentric coordinate value of the target image inside the calculation target frame. Distance information between the centers of gravity is calculated, and the control target value and the distance information between the centers of gravity are compared by the comparison means.

【0139】このため、当該計算対象枠に係わり、対象
物の重心座標を繰返し演算処理する場合に、目的とする
計算対象枠の中心位置を対象物の重心座標値に素早く漸
近させることが可能となる。
Therefore, when the barycentric coordinate of the object is repeatedly calculated in relation to the calculation target frame, the center position of the target calculation target frame can be quickly brought close to the barycentric coordinate value of the target. Become.

【0140】これにより、画像計測処理に係る無駄時間
が極力抑制され、対象物の計測情報の高速演算をするこ
とが可能となる。なお、本発明のロボット制御装置によ
れば、ロボット作業部,画像取得手段,画像計測手段及
び制御手段が具備され、該画像計測手段が本発明の画像
処理装置から成っている。
As a result, the dead time related to the image measurement processing is suppressed as much as possible, and the measurement information of the object can be calculated at high speed. According to the robot controller of the present invention, the robot working unit, the image acquisition unit, the image measuring unit and the control unit are provided, and the image measuring unit is the image processing unit of the present invention.

【0141】このため、画像計測手段により計算対象枠
の位置や大きさが流動的に自動変更されることで、対象
物の正確な重心座標値の高速演算をすることができる。
このことから、従来例に比べて、無駄なロボット作業部
の制御が省略され、その位置決め処理の高速化を図るこ
とが可能となる。
Therefore, the position and size of the calculation target frame are fluidly and automatically changed by the image measuring means, so that the accurate barycentric coordinate value of the object can be calculated at high speed.
Therefore, as compared with the conventional example, useless control of the robot working unit is omitted, and the positioning process can be speeded up.

【0142】これにより、高信頼度の画像計測装置及び
それを応用した高性能の物体認識機能を具備するロボッ
ト制御装置の提供に寄与するところが大きい。
This greatly contributes to the provision of a highly reliable image measuring device and a robot controller having a high-performance object recognition function to which the image measuring device is applied.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理装置及びロボット制御装
置の原理図(その1)である。
FIG. 1 is a principle diagram (1) of an image processing apparatus and a robot control apparatus according to the present invention.

【図2】本発明に係る画像処理装置及びロボット制御装
置の原理図(その2)である。
FIG. 2 is a principle diagram (No. 2) of the image processing apparatus and the robot control apparatus according to the present invention.

【図3】本発明の実施例に係る画像処理装置を応用した
ロボット制御装置の構成図である。
FIG. 3 is a configuration diagram of a robot control device to which an image processing device according to an embodiment of the present invention is applied.

【図4】本発明の第1の実施例に係る対象物を認識する
画像処理のフローチャートである。
FIG. 4 is a flowchart of image processing for recognizing an object according to the first embodiment of the present invention.

【図5】本発明の第1の実施例に係るフローチャートの
補足説明図である。
FIG. 5 is a supplementary explanatory diagram of the flowchart according to the first embodiment of the present invention.

【図6】本発明の第2の実施例に係る対象物を認識する
画像処理のフローチャートである。
FIG. 6 is a flowchart of image processing for recognizing an object according to the second embodiment of the present invention.

【図7】本発明のその他の実施例に係るフローチャート
の補足説明図である。
FIG. 7 is a supplementary explanatory diagram of a flowchart according to another embodiment of the present invention.

【図8】本発明の第3の実施例に係る対象物を認識する
画像処理のフローチャートである。
FIG. 8 is a flowchart of image processing for recognizing an object according to the third embodiment of the present invention.

【図9】本発明の第4の実施例に係る対象物を認識する
画像処理のフローチャートである。
FIG. 9 is a flowchart of image processing for recognizing an object according to the fourth embodiment of the present invention.

【図10】従来例に係るロボット制御装置の物体認識方法
の説明図である。
FIG. 10 is an explanatory diagram of an object recognition method of a robot controller according to a conventional example.

【図11】従来例に係る問題点を説明する対象物の取得画
像図である。
[Fig. 11] Fig. 11 is an acquired image diagram of a target object for explaining the problems in the conventional example.

【符号の説明】[Explanation of symbols]

11…範囲設定手段、 12…範囲移動手段、 13…演算手段、 14…範囲縮小/拡大手段、 15…比較手段、 17…ロボット作業部、 18…画像取得手段、 19…画像計測手段、 20…制御手段、 F…計算対象枠、 Xgp,Ygp…過去の重心座標値、 Xgr,Ygr…現在の重心座標値。 11 ... Range setting means, 12 ... Range moving means, 13 ... Computing means, 14 ... Range reducing / enlarging means, 15 ... Comparison means, 17 ... Robot working unit, 18 ... Image acquisition means, 19 ... Image measuring means, 20 ... Control means, F ... Calculation target frame, Xgp, Ygp ... Past barycentric coordinate value, Xgr, Ygr ... Present barycentric coordinate value.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像取得対象(16)に計算対象枠
(F)を設定する範囲設定手段(11)と、前記画像取
得対象(16)に設定された計算対象枠(F)を移動す
る範囲移動手段(12)と、前記計算対象枠(F)の内
部の対象画像の重心座標や標準偏差を演算する演算手段
(13)と、前記計算対象枠(F)を縮小又は拡大する
範囲変更手段(14)とを具備し、過去の計算対象枠
(F)の内部の対象画像の重心座標値や標準偏差値に基
づいて当該計算対象枠(F)の位置や大きさを変えるこ
とを特徴とする画像処理装置。
1. A range setting means (11) for setting a calculation target frame (F) to an image acquisition target (16) and a range for moving the calculation target frame (F) set to the image acquisition target (16). A moving means (12), a calculating means (13) for calculating the barycentric coordinates and standard deviation of the target image inside the calculation target frame (F), and a range changing means for reducing or enlarging the calculation target frame (F). (14) and changing the position or size of the calculation target frame (F) based on the barycentric coordinate value or standard deviation value of the target image inside the calculation target frame (F) in the past. Image processing device.
【請求項2】 請求項1記載の画像処理装置であって、
予め設定された計算範囲枠(F)の制御目標値に基づい
て演算処理を繰り返すことを特徴とする画像処理装置。
2. The image processing device according to claim 1, wherein
An image processing apparatus, wherein arithmetic processing is repeated based on a control target value of a preset calculation range frame (F).
【請求項3】 請求項1記載の画像処理装置であって、
前記範囲設定手段(11)が標準偏差値の定数倍の新し
い計算対象枠(F)を設定することを特徴とする画像処
理装置。
3. The image processing apparatus according to claim 1, wherein
The image processing apparatus, wherein the range setting means (11) sets a new calculation target frame (F) that is a constant multiple of the standard deviation value.
【請求項4】 請求項1記載の画像処理装置であって、
前記演算手段(13)が過去の計算対象枠(F)の内部
の対象画像の重心座標値と当該計算対象枠(F)の内部
の対象画像の重心座標値とに基づいて重心間の距離情報
を演算することを特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein
The calculation means (13) calculates distance information between the centers of gravity based on the barycentric coordinate values of the target image inside the calculation target frame (F) and the barycentric coordinate values of the target image inside the calculation target frame (F) in the past. An image processing device characterized by calculating.
【請求項5】 請求項1記載の画像処理装置において、
前記制御目標値と重心間の距離情報とを比較する比較手
段(15)設けられることを特徴とする画像処理装置。
5. The image processing apparatus according to claim 1,
An image processing apparatus comprising a comparison means (15) for comparing the control target value and distance information between the centers of gravity.
【請求項6】 対象物(10)に係わり各種教示作業を
するロボット作業部(17)と、前記対象物(10)の
画像を取得する画像取得手段(18)と、前記対象物
(10)の位置情報を計測する画像計測手段(19)
と、前記ロボット作業部(17),画像取得手段(1
8)及び画像計測手段(19)の入出力を制御する制御
手段(20)とを具備し、前記画像計測手段(19)が
請求項1〜5記載の画像処理装置から成ることを特徴と
するロボット制御装置。
6. A robot working unit (17) for performing various teaching operations relating to an object (10), an image acquisition means (18) for acquiring an image of the object (10), and the object (10). Image measuring means (19) for measuring position information of
And the robot working unit (17), image acquisition means (1
8) and a control means (20) for controlling the input / output of the image measuring means (19), wherein the image measuring means (19) comprises the image processing device according to any one of claims 1 to 5. Robot controller.
JP4113787A 1992-05-06 1992-05-06 Image processor and robot controller Withdrawn JPH05314257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4113787A JPH05314257A (en) 1992-05-06 1992-05-06 Image processor and robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4113787A JPH05314257A (en) 1992-05-06 1992-05-06 Image processor and robot controller

Publications (1)

Publication Number Publication Date
JPH05314257A true JPH05314257A (en) 1993-11-26

Family

ID=14621090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4113787A Withdrawn JPH05314257A (en) 1992-05-06 1992-05-06 Image processor and robot controller

Country Status (1)

Country Link
JP (1) JPH05314257A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (en) * 1996-09-24 1998-04-14 Mazda Motor Corp Article location detecting method and device thereof
JP2008073158A (en) * 2006-09-20 2008-04-03 Olympus Corp Image processor
JP2012121083A (en) * 2010-12-07 2012-06-28 Honda Motor Co Ltd Specific part recognition method and device of workpiece
JP2013047674A (en) * 2011-07-28 2013-03-07 Kobe Steel Ltd Vibration measurement apparatus and vibration measurement method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (en) * 1996-09-24 1998-04-14 Mazda Motor Corp Article location detecting method and device thereof
JP2008073158A (en) * 2006-09-20 2008-04-03 Olympus Corp Image processor
US8285039B2 (en) 2006-09-20 2012-10-09 Olympus Corporation Image processor
JP2012121083A (en) * 2010-12-07 2012-06-28 Honda Motor Co Ltd Specific part recognition method and device of workpiece
JP2013047674A (en) * 2011-07-28 2013-03-07 Kobe Steel Ltd Vibration measurement apparatus and vibration measurement method

Similar Documents

Publication Publication Date Title
CN111482959B (en) Automatic hand-eye calibration system and method of robot motion vision system
US4803735A (en) Method and apparatus for calculating position and orientation by combination of features of partial shapes
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
JPH08210816A (en) Coordinate system connection method for determining relationship between sensor coordinate system and robot tip part in robot-visual sensor system
US11446822B2 (en) Simulation device that simulates operation of robot
CN108907526A (en) A kind of weld image characteristic recognition method with high robust
CN112276936A (en) Three-dimensional data generation device and robot control system
US20190005600A1 (en) Position control system, position detection device, and non-transitory recording medium
CN116840243B (en) Correction method and system for machine vision object recognition
JP2730457B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JPH05314257A (en) Image processor and robot controller
JP4890904B2 (en) Component position detection method and apparatus
Ravn et al. Auto-calibration in automation systems using vision
JPH04269194A (en) Plane measuring method
KR20130075712A (en) A laser-vision sensor and calibration method thereof
US11826919B2 (en) Work coordinate generation device
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
CN114902281A (en) Image processing system
JPH05314258A (en) Image processor and robot controller
US11348280B2 (en) Method and computer readable medium for pose estimation
US20230191612A1 (en) Coordinate system setting system and position/orientation measurement system
US20220092290A1 (en) Image Recognition Method And Robot System
CN111199533B (en) Image processing apparatus and method
JPH05204459A (en) Fitting method for location measuring unit and connector

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990706