JPH0814829A - Object measurement device and method - Google Patents

Object measurement device and method

Info

Publication number
JPH0814829A
JPH0814829A JP6147938A JP14793894A JPH0814829A JP H0814829 A JPH0814829 A JP H0814829A JP 6147938 A JP6147938 A JP 6147938A JP 14793894 A JP14793894 A JP 14793894A JP H0814829 A JPH0814829 A JP H0814829A
Authority
JP
Japan
Prior art keywords
edge line
data
detected
point
coordinate data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6147938A
Other languages
Japanese (ja)
Other versions
JP3384617B2 (en
Inventor
Kazumoto Tanaka
一基 田中
Naoki Yamada
直樹 山田
Makoto Shinohara
誠 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP14793894A priority Critical patent/JP3384617B2/en
Priority to US08/364,184 priority patent/US5802202A/en
Publication of JPH0814829A publication Critical patent/JPH0814829A/en
Application granted granted Critical
Publication of JP3384617B2 publication Critical patent/JP3384617B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To accurately and quickly calculate the three-dimensional position of an object, even when the characteristic point thereof is unavailable, by providing a calculation means or the like for computing the unknown of the dislocation and displacement angle of the object relative to a reference position. CONSTITUTION:The reference coordinate data of an attention point on an object assumed to be at the preset reference position is extracted with the first extraction means 7. Also, the detected coordinate data of an actual object attention point detected with an object detection means 3 is extracted with the second data extraction means 8. Then, a sight line vector is established to give an equation for finding the amount of the dislocation or the like of the object relative to the reference position, on the basis of the detected coordinate data and the reference coordinate data. Then, the equation obtained depending on the sight line vector is solved, and the unknown of a positional conversion factor regarding one of the reference coordinate data of the attention point and the detected coordinate data is calculated, thereby finding the amount of the dislocation of the object as well as the displacement angle thereof relative to the reference position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、任意の形状を有する物
体の三次元位置を計測する物体計測装置及びその方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object measuring apparatus and method for measuring the three-dimensional position of an object having an arbitrary shape.

【0002】[0002]

【従来の技術】従来、例えば特開平2−38804号公
報に示されるように、予め設定された基準位置にあると
仮定された物体のモデルデータと、実際の計測位置に配
設された物体との位置ずれ量及び変位角度を計測する物
体計測装置において、計測位置に配設された物体をカメ
ラによって撮影し、この撮影された物体画像と上記モデ
ルデータとを一致させるために、カメラの画面上におい
て上記モデルデータを平行移動させるとともに回転させ
る操作を繰り返すことにより、物体の設置状態を計測す
ることが行われている。
2. Description of the Related Art Conventionally, as shown in, for example, Japanese Unexamined Patent Publication No. 2-38804, model data of an object assumed to be at a preset reference position and an object arranged at an actual measurement position. In the object measuring device for measuring the amount of displacement and the displacement angle of the object, the object arranged at the measuring position is photographed by the camera, and in order to match the photographed object image with the model data, on the camera screen. In, the installation state of the object is measured by repeating the operation of moving the model data in parallel and rotating the model data.

【0003】[0003]

【発明が解決しようとする課題】上記公報に記載された
従来装置では、物体のコーナ部等を特徴点として設定
し、この特徴点の画像を基準位置にあると仮定した物体
の特徴点に一致させる操作を画像上において繰り返すこ
とにより、物体の位置ずれ量等を計測するように構成さ
れているため、特徴点となるコーナ部を見出すことがで
きない場合には、物体の位置を計測することができない
という問題がある。しかも、基準位置にあると仮定した
物体の特徴点と、計測位置に配設された物体の撮影画像
とが画面上において正確に一致した点を探索するのに時
間がかかり、物体の基準位置に対する位置ずれ量及び変
位角度を正確に計測することが困難であるという問題が
あった。
In the conventional device described in the above publication, a corner portion of an object is set as a feature point, and an image of this feature point matches the feature point of the object assumed to be at the reference position. By repeating the above operation on the image, it is configured to measure the amount of displacement of the object, etc., so that the position of the object can be measured when the corner portion that is the feature point cannot be found. There is a problem that you cannot do it. Moreover, it takes time to search for a point on the screen at which the feature point of the object assumed to be at the reference position and the captured image of the object arranged at the measurement position are exactly coincident with each other. There is a problem that it is difficult to accurately measure the amount of displacement and the displacement angle.

【0004】本発明は、上記問題点を解決するためにな
されたものであり、特徴点が存在しない場合において
も、物体の三次元位置を正確かつ迅速に計測することが
できる物体計測装置及びその方法を提供することを目的
としている。
The present invention has been made to solve the above problems, and an object measuring device and an object measuring device capable of accurately and quickly measuring the three-dimensional position of an object even when there are no characteristic points. It is intended to provide a way.

【0005】[0005]

【課題を解決するための手段】請求項1に係る発明は、
予め設定された基準位置に物体があると仮定してそのエ
ッジラインを媒介変数によって定義付けられた三次元曲
線のデータとして入力する入力手段と、入力されたデー
タに応じて上記エッジライン上に位置する注目点の基準
座標データを抽出する第1データ抽出手段と、計測位置
に配設された物体のエッジラインを検出する物体検出手
段と、この物体検出手段の検出データに基づいて上記エ
ッジライン上に設定された注目点の検出座標データを抽
出する第2データ抽出手段と、この第1,第2データ抽
出手段によって抽出された両座標データの一方を、位置
ずれ量及び変位角度の未知数からなる位置変換パラメー
タを使用して位置変換する位置変換手段と、この位置変
換手段によって変換された注目点の座標データに基づい
て物体検出手段の検出視点から位置変換後の注目点に向
かう視線方向ベクトルを設定する第1ベクトル設定手段
と、上記両座標データの他方に基づいて物体検出手段の
検出視点から上記エッジライン上の注目点に向かう視線
方向ベクトルを設定する第2ベクトル設定手段と、この
第1,第2ベクトル設定手段によって設定された両視線
方向ベクトルの方向が一致することを拘束条件として方
程式を設定する方程式設定手段と、この方程式を解くこ
とによって物体の基準位置に対する上記位置ずれ量及び
変位角度の未知数を算出する算出手段とを設けたもので
ある。
The invention according to claim 1 is
Input means for inputting the edge line as data of a three-dimensional curve defined by a parameter assuming that an object exists at a preset reference position, and a position on the edge line according to the input data A first data extracting means for extracting the reference coordinate data of the target point, an object detecting means for detecting the edge line of the object arranged at the measurement position, and the above-mentioned edge line on the basis of the detection data of the object detecting means. The second data extracting means for extracting the detected coordinate data of the point of interest set in (1) and one of the two coordinate data extracted by the first and second data extracting means are composed of the positional deviation amount and the unknown number of the displacement angle. Position conversion means for position conversion using position conversion parameters, and object detection means based on the coordinate data of the point of interest converted by this position conversion means. First vector setting means for setting a line-of-sight direction vector from the point of view to the target point after position conversion, and a line of sight from the detected point of view of the object detecting means to the target point on the edge line based on the other of the coordinate data. Second vector setting means for setting a direction vector, equation setting means for setting an equation under the constraint condition that the directions of both line-of-sight direction vectors set by the first and second vector setting means match, and this equation And a calculation means for calculating the unknown amount of the positional deviation amount and the displacement angle with respect to the reference position of the object.

【0006】請求項2に係る発明は、上記請求項1記載
の物体計測装置において、計測位置に配設された物体の
エッジラインにスリット光を照射する照射手段と、この
照射手段によって照射されたエッジライン状の注目点の
画像を撮影するカメラとからなる物体検出手段を設けた
ものである。
According to a second aspect of the present invention, in the object measuring device according to the first aspect, the irradiation means for irradiating the edge line of the object arranged at the measurement position with the slit light, and the irradiation means. An object detecting unit including a camera that captures an image of an edge-line-shaped point of interest is provided.

【0007】請求項3に係る発明は、予め設定された基
準位置に物体があると仮定して設定されたデータに基づ
いてこの物体のエッジラインを媒介変数によって定義付
けられた三次元曲線として表した後、このエッジライン
上に位置する注目点の基準座標データを抽出するととも
に、計測位置に配設された物体のエッジラインを物体検
出手段によって検出し、この検出データに基づいてエッ
ジライン上に位置する注目点の検出座標データを抽出し
た後、この注目点の検出座標データ及び上記基準座標デ
ータの一方を、位置ずれ量及び変位角度の未知数からな
る位置変換パラメータを使用して位置変換し、この位置
変換後の座標データに基づいて上記物体検出手段の検出
視点から位置変換後の注目点に向かう第1視線方向ベク
トルを設定するとともに、上記両座標データの他方に基
づいて物体検出手段の検出視点から上記エッジライン上
の注目点に向かう第2視線方向ベクトルを設定した後、
この第1,第2視線方向ベクトルの方向が一致すること
を拘束条件として方程式を設定し、この方程式を解くこ
とによって物体の基準位置に対する位置ずれ量及び変位
角度の未知数を算出するように構成したものである。
According to a third aspect of the present invention, the edge line of the object is represented as a three-dimensional curve defined by a parameter based on the data set assuming that the object exists at a preset reference position. After that, while extracting the reference coordinate data of the point of interest located on this edge line, the edge line of the object arranged at the measurement position is detected by the object detection means, and based on this detection data, it is detected on the edge line. After extracting the detected coordinate data of the target point to be located, one of the detected coordinate data of the target point and the reference coordinate data is subjected to position conversion using a position conversion parameter consisting of an unknown number of displacement and displacement angle, If the first line-of-sight direction vector from the detection viewpoint of the object detecting means to the target point after position conversion is set based on the coordinate data after position conversion, Moni, after setting the second sight line direction vector from the detected viewpoint towards the target point on the edge line of the object detecting means on the basis of the other of the two coordinate data,
An equation is set under the constraint that the directions of the first and second line-of-sight direction vectors match, and by solving this equation, the amount of displacement and the unknowns of the displacement angle with respect to the reference position of the object are calculated. It is a thing.

【0008】請求項4に係る発明は、上記請求項3記載
の物体計測方法において、物体検出手段によって検出さ
れた計測位置にある物体のエッジラインの検出データ
と、基準位置にあると仮定された物体のエッジラインを
上記物体検出手段によって検出した場合に求められる仮
想データとに基づき、非線形方程式の数値解法に使用す
る未知数の初期値を設定するように構成したものであ
る。
According to a fourth aspect of the invention, in the object measuring method according to the third aspect, it is assumed that the edge line detection data of the object at the measurement position detected by the object detecting means and the reference position are present. Based on the virtual data obtained when the edge line of the object is detected by the object detecting means, the initial value of the unknown number used in the numerical solution of the nonlinear equation is set.

【0009】請求項5に係る発明は、上記請求項3記載
の物体計測方法において、計測位置に配設された物体の
エッジラインを検出する物体検出手段の検出視点を複数
個所に設定し、上記物体のエッジラインを多方向から検
出するように構成したものである。
According to a fifth aspect of the present invention, in the object measuring method according to the third aspect, a plurality of detection viewpoints of an object detecting means for detecting an edge line of an object arranged at a measurement position are set, It is configured to detect edge lines of an object from multiple directions.

【0010】請求項6に係る発明は、上記請求項3記載
の物体計測方法において、計測位置に配設された物体の
エッジラインを複数の物体検出手段によってそれぞれ検
出し、この検出データに基づいてエッジライン上に位置
する注目点の検出座標データを抽出するように構成した
ものである。
According to a sixth aspect of the present invention, in the object measuring method according to the third aspect, the edge lines of the object arranged at the measurement position are respectively detected by a plurality of object detecting means, and based on the detected data. The detection coordinate data of the point of interest located on the edge line is extracted.

【0011】請求項7に係る発明は、上記請求項3記載
の物体計測方法において、計測位置に配設された物体の
エッジラインを映し出す鏡板を設置し、物体検出手段に
よって上記物体のエッジライン及びその鏡像を検出し、
この検出データに基づいてエッジライン上に位置する注
目点の検出座標データを抽出するように構成したもので
ある。
According to a seventh aspect of the present invention, in the object measuring method according to the third aspect, an end plate is provided which projects an edge line of the object disposed at a measurement position, and the object detecting means detects the edge line of the object and the edge line of the object. Detect that mirror image,
The detection coordinate data of the target point located on the edge line is extracted based on this detection data.

【0012】請求項8に係る発明は、上記請求項3記載
の物体計測方法において、円形のエッジラインを有する
物体の基準位置を構成する座標系のx−y平面上に上記
エッジラインが位置するように物体の基準座標系を設定
したものである。
According to an eighth aspect of the present invention, in the object measuring method according to the third aspect, the edge line is located on an xy plane of a coordinate system that constitutes a reference position of an object having a circular edge line. Thus, the reference coordinate system of the object is set.

【0013】請求項9に係る発明は、上記請求項8記載
の物体計測方法において、エッジライン上に設定された
注目点に加えてエッジラインを構成する円の重心を注目
点として設定し、検出手段の検出視点から上記円の重心
に向かう視線方向ベクトルを設定するように構成したも
のである。
According to a ninth aspect of the present invention, in the object measuring method according to the eighth aspect, in addition to the point of interest set on the edge line, the center of gravity of a circle forming the edge line is set as a point of interest and detection is performed. The line-of-sight direction vector from the detection viewpoint of the means toward the center of gravity of the circle is set.

【0014】[0014]

【作用】上記請求項1記載の発明によれば、物体のエッ
ジライン上において任意の位置に注目点を設定すること
により、予め設定された基準位置にあると仮定された物
体上の注目点の基準座標データが第1データ抽出手段に
よって抽出されるとともに、物体検出手段によって検出
されされた実際の物体の注目点の検出座標データが第2
データ抽出手段によって抽出され、この検出座標データ
及び上記基準座標データに基づき、物体の基準位置に対
する位置ずれ量等を求める方程式を設定するための視線
方向ベクトルが設定される。そして、この視線ベルトに
応じて設定された方程式を解いて注目点の基準座標デー
タもしくは検出座標データの一方を位置変換する際に使
用された位置変換パラメータの未知数を算出することに
より、物体の基準位置に対する位置ずれ量及び変位角度
が計算によって求められることになる。
According to the first aspect of the present invention, by setting the target point at an arbitrary position on the edge line of the object, the target point on the object which is assumed to be at the preset reference position is detected. The reference coordinate data is extracted by the first data extracting means, and the detected coordinate data of the target point of the actual object detected by the object detecting means is the second.
A line-of-sight direction vector for setting an equation for obtaining the amount of displacement of the object with respect to the reference position is set based on the detected coordinate data and the reference coordinate data extracted by the data extracting means. Then, by solving the equation set according to this line-of-sight belt and calculating the unknown number of position conversion parameters used when performing position conversion of either the reference coordinate data or the detected coordinate data of the point of interest, the reference of the object The amount of displacement and the displacement angle with respect to the position will be calculated.

【0015】上記請求項2記載の発明によれば、照射手
段によって物体に照射されたスリット光と、物体のエッ
ジラテンとの交点において生じる輝度変化がカメラによ
って撮影されることにより、上記エッジライン上の注目
点の座標データが容易かつ正確に抽出されることにな
る。
According to the second aspect of the present invention, the change in brightness that occurs at the intersection of the slit light irradiated on the object by the irradiation means and the edge Latin of the object is photographed by the camera, so that the edge line is displayed. The coordinate data of the point of interest can be easily and accurately extracted.

【0016】上記請求項3記載の発明によれば、物体の
エッジライン上において任意の位置に注目点が設定さ
れ、予め設定された基準位置にある注目点の基準座標デ
ータと、物体検出手段によって検出されされた実際の物
体の注目点の検出座標データとに基づき、物体の基準位
置に対する位置ずれ量等を求める方程式を設定するため
の視線方向ベクトルが設定される。そして、上記視線方
向ベクトルに基づいて設定された方程式を解いて注目点
の基準座標データもしくは検出座標データの一方を位置
変換する際に使用された位置変換パラメータの未知数を
算出することにより、物体の基準位置に対する位置ずれ
量及び変位角度が計算によって求められることになる。
According to the third aspect of the invention, the point of interest is set at an arbitrary position on the edge line of the object, and the reference coordinate data of the point of interest at the preset reference position and the object detecting means are used. A line-of-sight direction vector for setting an equation for obtaining the amount of displacement of the object with respect to the reference position is set based on the detected detected object coordinate data of the actual object. Then, by solving the equation set based on the line-of-sight direction vector to calculate the unknown number of position conversion parameters used when performing position conversion of one of the reference coordinate data or the detected coordinate data of the point of interest, The amount of displacement and the displacement angle with respect to the reference position will be calculated.

【0017】上記請求項4記載の発明によれば、計測位
置に配設された物体の検出位置と、予め設定された物体
の基準位置とのずれ量が大きい場合に、両位置のずれ量
に対応して設定された未知数の初期値を使用して上記方
程式を解くことにより、誤った解が求められるのを防止
しつつ、上記未知数の解が非線形方程式の数値解法によ
って迅速に求められることになる。
According to the invention described in claim 4, when the deviation amount between the detection position of the object arranged at the measurement position and the preset reference position of the object is large, the deviation amounts of both positions are determined. By solving the above equations by using the correspondingly set initial values of unknowns, the solution of the above unknowns can be quickly obtained by the numerical solution of the nonlinear equation, while preventing incorrect solutions from being obtained. Become.

【0018】上記請求項5記載の発明によれば、計測位
置に配設された物体の三次元形状が複数の角度から正確
に検出され、この検出データに基づいて上記方程式を設
定するための視線方向ベクトルが適正に設定されること
になる。
According to the fifth aspect of the invention, the three-dimensional shape of the object arranged at the measurement position is accurately detected from a plurality of angles, and the line of sight for setting the above equation based on the detected data. The direction vector will be set appropriately.

【0019】上記請求項6記載の発明によれば、計測位
置に配設された物体の三次元形状が複数の物体検出手段
によって正確に検出され、この検出データに基づいて上
記方程式を設定するための視線方向ベクトルが適正に設
定されることになる。
According to the invention of claim 6, the three-dimensional shape of the object arranged at the measurement position is accurately detected by the plurality of object detecting means, and the above equation is set based on the detected data. Will be set appropriately.

【0020】上記請求項7記載の発明によれば、単一の
物体検出手段により、計測位置に配設された物体と、鏡
板に映し出された物体の鏡像とが同時に検出され、この
検出データに基づいて上記物体の三次元形状が正確に把
握されることになる。
According to the invention described in claim 7, the single object detecting means simultaneously detects the object arranged at the measuring position and the mirror image of the object projected on the end plate, and the detected data is detected. Based on this, the three-dimensional shape of the object can be accurately grasped.

【0021】上記請求項8記載の発明によれば、物体の
エッジラインを構成する円周上に設定された注目点の基
準座標データ及び検出座標データに基づき、物体の基準
位置に対する位置ずれ量及び変位角度を求める計算が容
易に行なわれることになる。
According to the invention described in claim 8, based on the reference coordinate data and the detected coordinate data of the point of interest set on the circumference forming the edge line of the object, the positional deviation amount with respect to the reference position of the object and The calculation for obtaining the displacement angle can be easily performed.

【0022】上記請求項9記載の発明によれば、物体の
エッジラインを構成する円周上に設定された注目点の基
準座標データ及び検出座標データと、この円の重心に設
定された注目点の基準座標データ及び検出座標データと
に基づき、物体の基準位置に対する位置ずれ量及び変位
角度が計算によって正確に求められることになる。
According to the invention described in claim 9, the reference coordinate data and the detected coordinate data of the point of interest set on the circumference forming the edge line of the object, and the point of interest set at the center of gravity of the circle. Based on the reference coordinate data and the detected coordinate data, the positional deviation amount and the displacement angle of the object with respect to the reference position can be accurately calculated.

【0023】[0023]

【実施例】図1は本発明に係る物体計測装置の実施例を
示している。この物体計測装置は、自動車の搬送ライン
によって搬送されるワーク等からなる物体1の位置を計
測するものであり、仮想線で示すように、予め設定され
た加工位置に設けられた基準座標系Aの基準位置に物体
1が正確に搬送されたと仮定した場合における物体1の
エッジラインの三次元データを入力する入力手段2と、
上記加工位置に実線で示すように実際に搬送された物体
1´のエッジラインを検出する物体検出手段3と、上記
入力手段2の入力データ及び上記物体検出手段3の検出
データに基づいて上記基準位置に対して実際の物体1´
がどのような状態で設置されているかを計測する計測手
段4とを有している。
1 shows an embodiment of an object measuring device according to the present invention. This object measuring device measures the position of an object 1 made of a work or the like conveyed by a conveyance line of an automobile, and as indicated by a virtual line, a reference coordinate system A provided at a preset processing position. An input means 2 for inputting three-dimensional data of an edge line of the object 1 on the assumption that the object 1 is accurately conveyed to the reference position of
Based on the object detection means 3 for detecting the edge line of the object 1'actually conveyed to the processing position as shown by the solid line, the input data of the input means 2 and the detection data of the object detection means 3, the reference Actual object 1'for position
Has a measuring means 4 for measuring in what state it is installed.

【0024】上記入力手段2は、曲線または直線からな
る物体1のエッジラインを三次元曲線として表したデー
タを入力するキーボード等からなり、上記物体1の設計
データ等に基づいて上記基準位置に設置された物体1の
エッジラインを、予め設定された媒介変数によって定義
付けられた三次元曲線として入力するように構成されて
いる。すなわち、上記媒介変数をαに設定した場合、エ
ッジラインの三次元曲線は、x座標がfx(α)、y座
標がfy(α)、z座標がfz(α)としてそれぞれ表
されることになる。
The input means 2 comprises a keyboard or the like for inputting data in which the edge line of the object 1 consisting of a curve or a straight line is expressed as a three-dimensional curve, and is installed at the reference position based on the design data of the object 1 or the like. The edge line of the formed object 1 is configured to be input as a three-dimensional curve defined by a preset parameter. That is, when the above parameter is set to α, the three-dimensional curve of the edge line is represented as x coordinate fx (α), y coordinate fy (α), and z coordinate fz (α). Become.

【0025】また、上記物体検出手段3は、ワークの加
工位置からなる計測位置に搬送された物体1´に所定間
隔で複数本のスリット光を照射する照射手段5と、この
照射手段5によって照射された物体1´の画像を撮影す
るカメラ6とからなり、上記照射手段5によって照射さ
れた上記スリット光と物体1´のエッジラインとの交点
からなる注目点の画像をカメラ6で撮影することによ
り、上記交点において生じる輝度変化を検出してその画
像データを計測手段4に出力するように構成されてい
る。
The object detecting means 3 irradiates the object 1'conveyed to the measurement position, which is the machining position of the work, with a plurality of slit lights at a predetermined interval, and the irradiation means 5 irradiates the object 1 '. And a camera 6 for capturing an image of the object 1 ', which is an image of a point of interest formed by an intersection of the slit light emitted by the irradiating means 5 and an edge line of the object 1'. Thus, the change in luminance occurring at the intersection is detected and the image data is output to the measuring means 4.

【0026】上記計測手段4には、図2に示すように、
上記入力手段2の入力データに基づき、物体1のエッジ
ライン上の任意の位置に少なくとも6点の注目点を設定
してその基準座標データを抽出する第1データ抽出手段
7と、上記物体検出手段3の検出データに基づいて上記
エッジライン上に位置する6点の注目点の検出座標デー
タを抽出する第2データ抽出手段8と、上記第1データ
抽出手段7によって抽出された各注目点の基準座標デー
タを後述する位置変換パラメータを使用して位置変換す
る位置変換手段9とが設けられている。
In the measuring means 4, as shown in FIG.
Based on the input data of the input means 2, a first data extracting means 7 for setting at least 6 points of interest at arbitrary positions on the edge line of the object 1 and extracting the reference coordinate data thereof, and the object detecting means. A second data extracting means 8 for extracting detected coordinate data of 6 points of interest located on the edge line based on the detection data of 3, and a reference of each point of interest extracted by the first data extracting means 7. Position conversion means 9 for converting the position of the coordinate data using a position conversion parameter described later is provided.

【0027】また、上記計測手段4には、位置変換手段
9によって位置変換された注目点の座標データに基づい
て物体検出手段3の検出視点、つまりカメラ6の焦点か
ら上記位置変換後の注目点に向かう視線方向ベクトルを
設定する第1ベクトル設定手段10と、上記第2データ
抽出手段7によって抽出された各注目点の検出座標デー
タに基づいて上記物体検出手段3の検出視点から上記各
注目点に向かう視線方向ベクトルを設定する第2ベクト
ル設定手段11と、これらの第1,第2ベクトル設定手
段10,11によって設定された両視線方向ベクトルの
外積が0となることを拘束条件として方程式を設定する
方程式設定手段12と、この方程式を解くことによって
物体の基準位置に対する位置ずれ量及び変位角度を算出
する算出手段13とが設けられている。
In the measuring means 4, the point of interest after the position conversion is performed from the detection viewpoint of the object detecting means 3, that is, the focus of the camera 6, based on the coordinate data of the position of interest converted by the position converting means 9. The first vector setting means 10 for setting a line-of-sight direction vector toward the eye and the detected point of the object detection means 3 based on the detected coordinate data of the noted points extracted by the second data extraction means 7 The second vector setting means 11 for setting the line-of-sight direction vector toward the eye and the constraint condition that the outer product of both the line-of-sight direction vectors set by the first and second vector setting means 10, 11 is 0. An equation setting means 12 for setting, and a calculation means 13 for calculating the amount of displacement and the displacement angle of the object with respect to the reference position by solving this equation. It is provided.

【0028】上記構成の物体計測装置を使用して加工位
置に搬送された物体の基準位置に対する位置ずれ量及び
変位角度を計測する物体計測方法を、図3に基づいて説
明する。まず、自動車のボンネット等からなる物体1が
予め設定された基準座標系Aの基準位置にあると仮定し
て上記物体1の外周ラインからなるエッジラインのデー
タを、上記基準座標系Aにおいて媒介変数αによって定
義付けられた三次元曲線のデータとして入力手段2によ
り入力する。
An object measuring method for measuring the amount of displacement and the displacement angle of the object conveyed to the processing position with respect to the reference position by using the object measuring device having the above-mentioned structure will be described with reference to FIG. First, assuming that the object 1 such as an automobile hood is at a reference position of a reference coordinate system A set in advance, the data of the edge line formed of the outer peripheral line of the object 1 is used as a parameter in the reference coordinate system A. It is input by the input means 2 as the data of the three-dimensional curve defined by α.

【0029】次に、上記物体1のエッジライン上の任意
の位置にそれぞれ設定された6点の注目点a〜fの基準
座標データを、上記三次元曲線のデータに基づいて第1
データ抽出手段7により抽出した後、この抽出された各
基準座標データを上記位置変換手段9において未知数の
位置変換パラメータ(X,Y,Z,φ,θ,ψ)を使用
して破線で示すように位置変換する。そして、上記位置
変換後の各基準座標データに基づいて上記物体検出手段
3の検出視点Bから上記位置変換後の各注目点a〜fに
向けて伸びる視線方向ベクトルTのx方向成分、y方向
成分及びz方向成分を上記第1ベクトル設定手段10に
おいて順次設定する。
Next, based on the data of the three-dimensional curve, the reference coordinate data of the six points of interest a to f, which are set at arbitrary positions on the edge line of the object 1, are set as the first reference data.
After being extracted by the data extracting means 7, each of the extracted reference coordinate data is indicated by a broken line in the position converting means 9 using position conversion parameters (X, Y, Z, φ, θ, ψ) of unknown numbers. Convert to position. Then, based on the respective reference coordinate data after the position conversion, the x-direction component and the y-direction of the line-of-sight direction vector T extending from the detection viewpoint B of the object detecting means 3 toward the respective attention points a to f after the position conversion. The component and the z-direction component are sequentially set by the first vector setting means 10.

【0030】また、計測位置に搬送された物体1´のエ
ッジラインと、上記スリット光との交点a´〜f´を上
記物体検出手段3によって検出した後、この検出データ
に基づいて上記エッジライン上に設定された6点の注目
点の検出座標データを第2データ抽出手段7により抽出
する。そして、この検出座標データに基づいて上記物体
検出手段3の検出視点Bから上記各注目点a´〜f´に
向けて伸びる視線方向ベクトルVのx方向成分、y方向
成分及びz方向成分を上記第2ベクトル設定手段11に
おいてそれぞれ設定する。
After detecting the intersections a'to f'of the edge line of the object 1'conveyed to the measuring position and the slit light by the object detecting means 3, the edge line is detected based on the detection data. The detected coordinate data of the 6 points of interest set above are extracted by the second data extracting means 7. Then, based on the detected coordinate data, the x-direction component, the y-direction component and the z-direction component of the line-of-sight direction vector V extending from the detection viewpoint B of the object detection means 3 toward the points of interest a ′ to f ′ are described above. The second vector setting means 11 sets each.

【0031】次いで、上記第1,第2ベクトル設定手段
10,11によって設定された第1視線方向ベクトルT
と、第2視線方向ベクトルVとの外積が0になるという
拘束条件(V×T=0)に基づいて、1点につき2個の
連立方程式(f1=vy・tz−vz・ty=0,f2
vz・ty−vx・tz=0)を設定し、これを各注目
点毎に実行することにより、合計12個の連立方程式を
上記方程式設定手段12において設定する。
Next, the first line-of-sight direction vector T set by the first and second vector setting means 10 and 11 described above.
Based on the constraint condition (V × T = 0) that the outer product with the second line-of-sight direction vector V becomes 0, two simultaneous equations (f 1 = vy · tz−vz · ty = 0 per point) , F 2 =
(vz · ty−vx · tz = 0) is set, and this is executed for each target point, thereby setting a total of 12 simultaneous equations in the equation setting means 12.

【0032】その後、上記連立方程式を算出手段13に
よって解くことにより、各注目点ごとに設定された未知
数の媒介変数αおよび上記未知数の位置変換パラメータ
(X,Y,Z,φ,θ,ψ)を算出する。上記位置変換
パラメータX,Y,Zは、それぞれ上記基準位置にある
と仮定した物体1の位置と、実際に検出された物体1´
の位置との位置ずれ量を示し、φ,θ,ψは、上記基準
位置にあると仮定した物体1の設置角と、実際に検出さ
れた物体1´の設置角との変位角度を示す値であり、こ
れらの値(X,Y,Z,φ,θ,ψ)を算出することに
より、上記計測位置に搬送された物体1の設置状態を正
確に計測することができる。
After that, the simultaneous equations are solved by the calculating means 13 to set the unknown parameter parameter α and the unknown parameter position conversion parameter (X, Y, Z, φ, θ, ψ) set for each target point. To calculate. The position conversion parameters X, Y, and Z are the position of the object 1 assumed to be at the reference position and the actually detected object 1 ', respectively.
, Φ, θ, ψ are values indicating displacement angles between the installation angle of the object 1 which is assumed to be at the reference position and the installation angle of the object 1 ′ actually detected. By calculating these values (X, Y, Z, φ, θ, ψ), it is possible to accurately measure the installation state of the object 1 transported to the measurement position.

【0033】すなわち、上記基準位置にあると仮定され
た物体1のエッジライン上に位置する注目点aの基準座
標データ(x,y,z)は、そのx軸上の座標データx
を媒介変数とすると、下記の数1に示す値として抽出さ
れる。
That is, the reference coordinate data (x, y, z) of the target point a located on the edge line of the object 1 assumed to be at the reference position is the coordinate data x on the x axis.
Is a parameter, the value is extracted as a value shown in the following Expression 1.

【0034】[0034]

【数1】 [Equation 1]

【0035】次に上記基準座標データ(x,y,z)を
上記位置変換パラメータ(X,Y,Z,φ,θ,ψ)を
使用して位置変換すると、下記の数2に示す変換後の座
標データ(x´,y´,z´)が得られることになる。
Next, the reference coordinate data (x, y, z) is subjected to position conversion using the position conversion parameters (X, Y, Z, φ, θ, ψ), and after the conversion shown in the following equation 2, The coordinate data (x ', y', z ') of is obtained.

【0036】[0036]

【数2】 [Equation 2]

【0037】そして、上記変換後の座標データ(x´,
y´,z´)と、上記基本座標系Aに対するカメラ6の
焦点座標を示すデータ(c1,c2,c3)とに基づい
て、検出手段3の検出視点Bから上記変換後の注目点a
に向かう視線方向ベクトルTのx方向成分t1、y方向
成分t2及びz方向成分t3が下記の数3に示す値に設定
される。
Then, the coordinate data (x ',
y ′, z ′) and the data (c 1 , c 2 , c 3 ) indicating the focus coordinates of the camera 6 with respect to the basic coordinate system A, from the detection viewpoint B of the detection means 3 after the conversion. Point a
The x-direction component t 1 , the y-direction component t 2, and the z-direction component t 3 of the line-of-sight direction vector T directed toward are set to the values shown in the following Expression 3 .

【0038】[0038]

【数3】 (Equation 3)

【0039】また、計測位置に配設された物体1´のエ
ッジライン上に位置する注目点a´の画素座標から抽出
された検出座標データ(u,v)と、カメラ6のキャリ
ブレーションパラメータ(c11〜c33)とに基づいて上
記検出視点Bから注目点a´に向かう視線方向ベクトル
Vのx座標v1、y方向成分v2及びz方向成分v3が下
記の数4に示す値に設定される。なお、上記キャリブレ
ーションパラメータ(c11〜c33)は、カメラ6のレン
ズ中心、その光軸の向き、画角及び倍率に応じ、上記注
目点aとカメラ6の画素との一意的な関係として与えら
れる値である。
The detected coordinate data (u, v) extracted from the pixel coordinates of the point of interest a ′ located on the edge line of the object 1 ′ arranged at the measurement position and the calibration parameter of the camera 6 ( c 11 to c 33 ), the x-coordinate v 1 , the y-direction component v 2 and the z-direction component v 3 of the line-of-sight direction vector V from the detection viewpoint B toward the point of interest a ′ are the values shown in the following formula 4. Is set to. The calibration parameters (c 11 to c 33 ) are defined as a unique relationship between the point of interest a and the pixels of the camera 6 depending on the lens center of the camera 6, the direction of its optical axis, the angle of view, and the magnification. It is a given value.

【0040】[0040]

【数4】 [Equation 4]

【0041】上記数4に示す視線方向ベクトルVと、数
3に示す視線方向ベクトルTとの外積をとって、その値
を0とすると、以下に示す方程式が得られる。
Taking the outer product of the line-of-sight direction vector V shown in the above equation 4 and the line-of-sight direction vector T shown in the above equation 3 and setting the value to 0, the following equation is obtained.

【0042】 f1=v23−v32 =v2{−SθCψ・x+SθSψ・f(x)+Cθ・g(x)+Z−c3} −v3{(SφCθCψ+CφSψ)x−(SφCθSψ−CφCψ)f(x) +Y−c2}=0 f2=v31−v13 =v3{(CφCθCψ−SφSψ)x+(CφCθSψ+SφCψ)f(x) +CφSθ・g(x)+X−c1}−v1{−SθCψ・x+SθCψ・f(x) +Cθ・g(x)+Z−c3}=0 そして、上記方程式を各注目点毎に設定し、非線形方程
式の数値解法、例えばニュートン−ラプソン法等によっ
て解くことにより、各注目点ごとに設定された未知数の
媒介変数x及び上記未知数の位置変換パラメータ(X,
Y,Z,φ,θ,ψ)を算出する。このニュートン−ラ
プソン法は、未知数X,Y…として特定の近似値Xi,
Yi…を設定し、これを上記関数f1,f2……と、その
偏微分値とに当てはめることにより、上記未知数の解に
より近い近似値Xi+1,Yi+1…を求めるという演
算処理を繰返した後、収束に至った値を解とする数値解
法である。上記ニュートン−ラプソン法において、関数
1,f2の偏微分値は以下に示すようになる。
F 1 = v 2 t 3 −v 3 t 2 = v 2 {−SθCψ · x + SθSψ · f (x) + Cθ · g (x) + Z−c 3 } −v 3 {(SφCθCψ + CφSψ) x− (SφCθSψ -CφCψ) f (x) + Y -c 2} = 0 f 2 = v 3 t 1 -v 1 t 3 = v 3 {(CφCθCψ-SφSψ) x + (CφCθSψ + SφCψ) f (x) + CφSθ · g (x) + X -c 1} -v 1 {-SθCψ · x + SθCψ · f (x) + Cθ · g (x) + Z-c 3} = 0 then, the equation is set for each target point, the nonlinear equations numerical solution, e.g. By solving by the Newton-Raphson method or the like, the unknown parameter x set for each target point and the unknown position conversion parameter (X,
Y, Z, φ, θ, ψ) is calculated. This Newton-Raphson method uses a specific approximation Xi,
After Yi ... is set, and this is applied to the functions f 1 , f 2 ... And the partial differential value thereof, the calculation process of obtaining approximate values Xi + 1, Yi + 1 ... which are closer to the solution of the unknown number is repeated. , Is a numerical solution method that uses the value that has reached convergence as the solution. In the Newton-Raphson method, the partial differential values of the functions f 1 and f 2 are as follows.

【0043】 ∂f1/∂X=0 ∂f1/∂Y=−v3 ∂f1/∂Z=v2 ∂f1/∂φ=−v3{(CφCθCψ−SφSψ)x+(CφCθSψ +SφCψ)f(x)+CφSθ・g(x)} ∂f1/∂θ=v2{−CθCψ・x+CθSψ・f(x)−Sθ・g(x)} −v3{−SφSθCψ・x+SφSθSψ・f(x)+SφCθ・g(x)} ∂f1/∂ψ=v2{SθSψ・x+SθCψ・f(x)}−v3{(−SφCθSψ +CφCψ)x−(SφCθCψ+CφSψ)f(x)} ∂f1/∂x=v2{−SθCψ+SθSψ・f´(x)+Cθ・g´(x)} −v3{SφCθCψ+CφSψ−(SφCθSψ−CφSψ)・f´(x) +SφSθ・g´(x)} ∂f2/∂X=V3 ∂f2/∂Y=0 ∂f2/∂Z=−v1 ∂f2/∂φ=v3{(−SφCθCψ−CφSψ)x−(−SφCθSψ +CφCψ)f(x)−SφSθ・g(x)} ∂f2/∂θ=v3{−CφSθCψ・x+CφSθSψ・f(x)+CφCθ ・g(x)}−v1{−CφCψ・x+CθSψ・f(x)−Sθ・g(x)} ∂f2/∂ψ=v3{(−CφCθSψ−SφCψ)x−(CφCθCψ− SφSψ)f(x)}−v1{SθSψ・x+SθCψ・f(x)} ∂f2/∂x=v3{CφCθCψ−SφSψ−(CφCθSψ+SθCψ) ・f´(x)+CφSθ・g´(x)}−v1{−SθCψ+SθSψ・f´(x) +Cθ・g´(x)} 上記非線形方程式の数値解法において、物体検出手段3
によって検出された計測位置にある物体1´のエッジラ
インの検出データと、上記基準位置にある物体1のエッ
ジラインを物体検出手段1によって検出したと仮定した
場合の仮想データとから、物体1,1´の位置及び形状
を調べ、これに基づいて上記連立方程式を解くために使
用する未知数位置変換パラメータ(X,Y,Z,φ,
θ,ψ)の初期値を推定して設定する。つまり、上記ニ
ュートン−ラプソン法による反復演算は、未知数の近似
値として適当な初期値を与えて演算を開始するため、こ
の場合の初期値が真の値に近い方が計算の精度、演算時
間の短縮化の上で有利である。そこで、上記のようにし
て概略的に位置ずれ量等を調べ、その値を上記近似値の
初期値として設定することが望ましい。
∂f 1 / ∂X = 0 ∂f 1 / ∂Y = −v 3 ∂f 1 / ∂Z = v 2 ∂f 1 / ∂φ = −v 3 {(CφCθCψ−SφSψ) x + (CφCθSψ + SφCψ ) F (x) + CφSθ ・ g (x)} ∂f 1 / ∂θ = v 2 {-CθCψ ・ x + CθSψ ・ f (x) -Sθ ・ g (x)} -v 3 {-SφSθCψ ・ x + SφSθSψ ・ f ( x) + SφCθ · g (x)} ∂f 1 / ∂ψ = v 2 {SθSψ · x + SθCψ · f (x)} − v 3 {(−SφCθSψ + CφCψ) x− (SφCθCψ + CφSψ) f (x)} ∂f 1 / ∂x = v 2 {-SθCψ + SθSψ · f'(x) + Cθ · g'(x)} -v 3 {SφCθCψ + CφSψ- (SφCθSψ-CφSψ) · f'(x) + SφSθ · g'(x)} ∂f 2 / ∂X = V 3 ∂f 2 / ∂Y = 0 ∂f 2 / ∂Z = −v 1 ∂f 2 / ∂φ = v 3 {(−SφCθCψ−CφSψ) x − (− SφCθSψ + CφCψ) f ( x) − φSθ · g (x)} ∂f 2 / ∂θ = v 3 {-CφSθCψ · x + CφSθSψ · f (x) + CφCθ · g (x)} - v 1 {-CφCψ · x + CθSψ · f (x) -Sθ · g (x)} ∂f 2 / ∂ψ = v 3 {(−CφCθSψ−SφCψ) x− (CφCθCψ−SφSψ) f (x)} − v 1 {SθSψ · x + SθCψ · f (x)} ∂f 2 / ∂ x = v 3 {CφCθCψ-SφSψ− (CφCθSψ + SθCψ) ・ f ′ (x) + CφSθ · g ′ (x)} − v 1 {−SθCψ + SθSψ · f ′ (x) + Cθ · g ′ (x)} of the above nonlinear equation In the numerical solution, the object detecting means 3
From the detection data of the edge line of the object 1 ′ at the measurement position detected by the virtual data on the assumption that the edge line of the object 1 at the reference position is detected by the object detecting means 1, An unknown number position conversion parameter (X, Y, Z, φ, used to solve the above simultaneous equations based on the position and shape of 1 ′ is investigated.
Estimate and set the initial values of θ, ψ). That is, in the iterative calculation by the Newton-Rapson method, the calculation is started by giving an appropriate initial value as an approximate value of the unknown number, and thus the closer the initial value to the true value is, the accuracy of the calculation and the calculation time. It is advantageous in terms of shortening. Therefore, it is desirable to roughly check the positional deviation amount and the like as described above and set the value as the initial value of the approximate value.

【0044】上記のように基準位置にあると仮定した物
体1のエッジラインを媒介変数によって定義付けられた
三次元曲線のデータとして入力するとともに、上記未知
数の数に対応した注目点をエッジライン上に設定し、こ
の注目点の基準座標データを上記入力データに応じて抽
出した後、この注目点の基準座標データを未知数の位置
変換パラメータ(X,Y,Z,φ,θ,ψ)を使用して
位置変換し、この位置変換後の注目点に向かう視線方向
ベクトルTを設定するとともに、計測位置に配設された
物体1´のエッジラインを物体検出手段3によって検出
し、この検出データに基づいてエッジライン上に位置す
る注目点の検出座標データを抽出した後、この注目点に
向かう視線方向ベクトルVを設定するように構成したた
め、計測される物体1にコーナ部が存在しないために特
徴点を見出すことができない場合においても、上記両視
線方向ベクトルT,Vに基づいて方程式を設定し、この
方程式を解くことにより、上記物体1の設置状態を求め
ることができる。
The edge line of the object 1 which is assumed to be at the reference position as described above is input as the data of the three-dimensional curve defined by the parameter, and the attention point corresponding to the number of unknowns is input on the edge line. , The reference coordinate data of this point of interest is extracted according to the input data, and then the reference coordinate data of this point of interest is used with unknown position conversion parameters (X, Y, Z, φ, θ, ψ). Then, the position is converted, and the line-of-sight direction vector T toward the point of interest after the position conversion is set, and the edge line of the object 1'arranged at the measurement position is detected by the object detecting means 3 to obtain the detection data. Since the detection coordinate data of the point of interest located on the edge line is extracted based on the configuration, the line-of-sight direction vector V toward the point of interest is set, so that the object to be measured Even when a feature point cannot be found because there is no corner portion at, the equation is set based on the line-of-sight direction vectors T and V, and the installation state of the object 1 is obtained by solving the equation. be able to.

【0045】すなわち、上記両視線方向ベクトルT,V
の方向が一致した場合にその外積が0になることを拘束
条件として方程式を設定し、この方程式を解いて上記位
置変換パラメータ(X,Y,Z,φ,θ,ψ)を算出す
ることにより、基準位置にある物体1を位置ずれさせる
とともに設置角度を変化させて実際の物体1の配設位置
に重ね合わせるために必要な未知数を算出し、この値に
基づいて物体1の基準位置に対する位置ずれ量及び変位
角度を迅速かつ正確に求めることができる。
That is, the above-mentioned bidirectional gaze direction vectors T, V
By setting the equation with the constraint that the outer product becomes 0 when the directions of are the same, and solving the equation to calculate the position conversion parameters (X, Y, Z, φ, θ, ψ) , An unknown number required to overlap the actual position of the object 1 by shifting the installation angle of the object 1 at the reference position and changing the installation angle, and based on this value the position of the object 1 with respect to the reference position The amount of deviation and the displacement angle can be obtained quickly and accurately.

【0046】したがって、例えば自動車の組立ラインに
おいて加工位置に搬送される物体1の形状の如何に拘ら
ず、加工位置に搬送された物体1の設置状態を計算によ
って正確に求め、この設置状態を組立用ロボットにティ
ーチングすることにより、上記物体1に対する部品の自
動組付作業等を正確に実行することができる。
Therefore, for example, regardless of the shape of the object 1 transported to the processing position in an automobile assembly line, the installation state of the object 1 transported to the processing position is accurately calculated and the installation state is assembled. By teaching the use robot, it is possible to accurately execute the work of automatically assembling the parts with respect to the object 1.

【0047】なお、注目点の数は、上記未知数の位置変
換パラメータ(X,Y,Z,φ,θ,ψ)の数に等しい
数、つまり6点だけ設定すれば足りるが、6点よりも多
く設定してもよい。この場合には、最小二乗法を使って
上記位置変換パラメータを求めることにより、計測精度
を向上させることができる。
It should be noted that the number of points of interest is equal to the number of position conversion parameters (X, Y, Z, φ, θ, ψ) of the unknowns, that is, it is sufficient to set only 6 points, but it is more than 6 points. You may set many. In this case, the measurement accuracy can be improved by obtaining the position conversion parameter using the least squares method.

【0048】また、上記のように計測位置に配設された
物体1´のエッジラインにスリット光を照射する照射手
段5と、この照射手段5によって照射されたエッジライ
ン上の注目点の画像を撮影するカメラ6とからなる物体
検出手段3を設け、上記照射手段5によって照射された
スリット光と、エッジラインとの交点において生じる輝
度変化をカメラ6によって撮影するように構成した場合
には、この撮影された画像に応じて上記交点の座標を容
易かつ正確に抽出することができる。
The irradiation means 5 for irradiating the edge line of the object 1'arranged at the measurement position with the slit light as described above and the image of the point of interest on the edge line irradiated by the irradiation means 5 are displayed. In the case where the object detecting means 3 including the camera 6 for photographing is provided, and the camera 6 photographs the change in luminance generated at the intersection of the slit light irradiated by the irradiating means 5 and the edge line, It is possible to easily and accurately extract the coordinates of the intersections according to the captured image.

【0049】なお、上記照射手段5及びカメラ6からな
る物体検出手段3に代え、超音波を物体に照射してその
反射状態を検出することによって物体のエッジラインを
検出し、あるいは物体とその周囲との温度差を検出する
ことによって物体のエッジラインを検出するように構成
してもよい。
In place of the object detecting means 3 including the irradiating means 5 and the camera 6, the edge line of the object is detected by irradiating the object with ultrasonic waves and detecting the reflection state thereof, or the object and its surroundings. The edge line of the object may be detected by detecting the temperature difference between

【0050】また、上記非線形方程式の数値解法におい
て、物体検出手段3によって検出された計測位置にある
物体1´のエッジラインの検出データと、基準位置にあ
ると仮定された物体1のエッジラインを物体検出手段3
によって検出した場合に求められる仮想データとに基づ
き、上記連立方程式を解くために使用する未知数の位置
変換パラメータ(X,Y,Z,φ,θ,ψ)の初期値を
推定して設定するようにした構成によると、実際の物体
からかけ離れた位置に設定された初期値に基づいて上記
数値計算が行われることを防止できるため、効果的に計
算精度の向上及び演算時間の短縮化を図ることができ
る。
In the numerical solution of the non-linear equation, the edge line detection data of the object 1'at the measurement position detected by the object detecting means 3 and the edge line of the object 1 assumed to be at the reference position are calculated. Object detection means 3
Based on the virtual data obtained when detected by, the initial values of the position conversion parameters (X, Y, Z, φ, θ, ψ) of unknowns used for solving the simultaneous equations are estimated and set. According to the configuration described above, it is possible to prevent the above numerical calculation from being performed based on the initial value set at a position far from the actual object, so it is possible to effectively improve the calculation accuracy and shorten the calculation time. You can

【0051】なお、上記実施例では、単一のカメラ6に
よって物体1´のエッジラインを一括して検出し、物体
検出手段3の検出視点Bを一個所に設定しているが、こ
の検出視点を複数個所に設定し、上記物体1´のエッジ
ラインを多方向から検出するように構成してもよい。例
えば、図4に示すように、物体1´のエッジライン上に
複数のカメラ6を配設し、この複数のカメラ6によって
対応するエッジラインを同時に検出するように構成し、
あるいはカメラ6を移動させる移動手段を設け、一台の
カメラ6の設置位置を移動させて各エッジラインを多方
向から順次撮影するするように構成してもよい。
In the above embodiment, the edge line of the object 1'is collectively detected by the single camera 6 and the detection viewpoint B of the object detecting means 3 is set to one position. May be set at a plurality of positions, and the edge lines of the object 1 ′ may be detected from multiple directions. For example, as shown in FIG. 4, a plurality of cameras 6 are arranged on the edge line of the object 1 ′, and the plurality of cameras 6 are configured to simultaneously detect the corresponding edge lines,
Alternatively, a moving means for moving the camera 6 may be provided, and the installation position of one camera 6 may be moved so that each edge line is sequentially photographed from multiple directions.

【0052】上記のように物体1のエッジラインを多方
向から検出するように構成した場合には、一台のカメラ
6によって物体1´のエッジラインを一括して撮影する
ように構成した場合のように物体1´の画像が相対的に
小さくなったり、カメラ6の軸線方向に対する物体1´
の変位を正確に検出されなかったりする等の問題を生じ
ることがなく、物体1´の三次元形状を正確に認識して
上記視線方向ベクトルVを適正に設定することができ
る。
When the edge lines of the object 1 are detected from multiple directions as described above, the edge lines of the object 1'are collectively photographed by one camera 6. As described above, the image of the object 1 ′ becomes relatively small, or the object 1 ′ in the axial direction of the camera 6
It is possible to accurately recognize the three-dimensional shape of the object 1 ′ and appropriately set the line-of-sight direction vector V without causing a problem such that the displacement of No. 1 is not accurately detected.

【0053】また、図5に示すように、物体1´の側方
に鏡板14を設置し、一台のカメラ6からなる単一の物
体検出手段3によって物体1´のエッジラインと、鏡板
14に写し出された鏡像1″とを同時に検出してその検
出データに基づき、上記エッジライン上の任意の位置に
設定された注目点の検出座標データを抽出するように構
成してもよい。このように構成した場合には、簡単な構
成でカメラ6の軸線方向に対する物体1´の変位を正確
に検出し、物体1´の三次元形状を適正に把握すること
ができる。
Further, as shown in FIG. 5, an end plate 14 is installed on the side of the object 1 ′, and the edge line of the object 1 ′ and the end plate 14 are detected by a single object detecting means 3 composed of one camera 6. It is also possible to simultaneously detect the mirror image 1 ″ shown in FIG. 2 and extract the detected coordinate data of the target point set at an arbitrary position on the edge line based on the detected data. In the case of the above configuration, the displacement of the object 1'with respect to the axial direction of the camera 6 can be accurately detected with a simple configuration, and the three-dimensional shape of the object 1'can be properly grasped.

【0054】次に、円形のエッジラインを有する物体1
´の設置状態を計測する物体計測方法の具体例について
説明する。まず、図6に示すように、上記円形のエッジ
ラインを基準座標系Aのx−y平面上に位置させるとと
もに、円の重心をz軸上に位置させるように基準座標系
Aを設定し、そのx軸との角度αを媒介変数として定義
付けられた三次元曲線として上記エッジラインのデータ
を入力する。
Next, an object 1 having a circular edge line
A specific example of the object measuring method for measuring the installation state of the 'will be described. First, as shown in FIG. 6, while the circular edge line is located on the xy plane of the reference coordinate system A, the reference coordinate system A is set so that the center of gravity of the circle is located on the z axis. The edge line data is input as a three-dimensional curve defined by using the angle α with the x-axis as a parameter.

【0055】上記エッジラインが真円の場合には、その
周方向の変位角度を求める必要がないので、上記位置変
換パラメータψを0と置き、注目点の数を5点に設定す
る。そして、上記エッジライン上に設定された注目点a
の基準座標データ(x,y,z)は、上記三次元曲線の
データに基づいて下記の数5に示す値として抽出され
る。なお、下記の数5において、rは上記円の半径であ
る。
If the edge line is a perfect circle, it is not necessary to obtain the displacement angle in the circumferential direction, so the position conversion parameter ψ is set to 0 and the number of points of interest is set to 5. Then, the attention point a set on the edge line
The reference coordinate data (x, y, z) is extracted as a value shown in the following Expression 5 based on the data of the three-dimensional curve. In the following Expression 5, r is the radius of the circle.

【0056】[0056]

【数5】 (Equation 5)

【0057】次いで、上記基準座標データ(x,y,
z)を位置変換パラメータ(X,Y,Z,φ,θ)を使
用して位置変換することにより、下記の数6に示す変換
後の座標データ(x´,y´,z´)が得られることに
なる。
Then, the reference coordinate data (x, y,
z) is subjected to position conversion using the position conversion parameters (X, Y, Z, φ, θ) to obtain the coordinate data (x ′, y ′, z ′) after conversion shown in Equation 6 below. Will be done.

【0058】[0058]

【数6】 (Equation 6)

【0059】そして、上記位置変換後の座標データ(x
´,y´,z´)と、上記基本座標系Aに対するカメラ
6の焦点の座標データ(c1,c2,c3)とに基づい
て、検出手段3の検出視点Bから上記変換後の注目点に
向かう視線方向ベクトルTのx方向成分t1、y方向成
分t2及びz方向成分t3が下記の数7に示す値に設定さ
れる。
Then, the coordinate data (x
′, Y ′, z ′) and coordinate data (c 1 , c 2 , c 3 ) of the focus of the camera 6 with respect to the basic coordinate system A, from the detection viewpoint B of the detection means 3 after the conversion. The x-direction component t 1 , the y-direction component t 2, and the z-direction component t 3 of the line-of-sight direction vector T toward the target point are set to the values shown in the following Expression 7.

【0060】[0060]

【数7】 (Equation 7)

【0061】また、計測位置に配設された物体1´のエ
ッジライン上に位置する注目点a´の画素座標から抽出
された検出座標データ(u,v)と、カメラ6のキャリ
ブレーションパラメータ(c11〜c33)とに基づいて上
記検出視点Bから注目点a´に向かう視線方向ベクトル
Vのx方向成分v1、y方向成分v2及びz方向成分v 3
が下記の数8に示す値に設定される。
Further, the error of the object 1'disposed at the measurement position
Extracted from the pixel coordinates of the point of interest a'located on the edge line
Detected coordinate data (u, v) and the carry of the camera 6
Blation parameter (c11~ C33) And based on
Line-of-sight vector from the detection viewpoint B to the point of interest a '
X-direction component v of V1, Y-direction component v2And z-direction component v 3
Is set to the value shown in Equation 8 below.

【0062】[0062]

【数8】 (Equation 8)

【0063】上記数8に示す視線方向ベクトルVと、数
7に示す視線方向ベクトルTとの外積をとって、その値
を0とすると、以下に示す方程式が得られる。
If the outer product of the line-of-sight direction vector V shown in the above equation 8 and the line-of-sight direction vector T shown in the above equation 7 is taken and the value is set to 0, the following equation is obtained.

【0064】 f1=v23−v32 =v2(−r・SθCα+Z−c1)−v3(r・SφCθCα+r・CφSα+ Y−c2)=0 f2=v31−v13 =v3(r・CφCθCα−r・SφSα+X−c1)−v1(−r・SθCα+ Z−c3)=0 そして、上記未知数に対応した数に対応する個数だけ設
定された各注目点毎に上記方程式を設定し、この方程式
をニュートン−ラプソン法等によって解くことにより、
各方程式の媒介変数α及び上記未知数の位置変換パラメ
ータ(X,Y,Z,φ,θ)を算出する。上記ニュート
ン−ラプソン法において、関数f1,f2の偏微分値は以
下に示すようになる。
F 1 = v 2 t 3 −v 3 t 2 = v 2 (−r · SθCα + Z−c 1 ) −v 3 (r · SφCθCα + r · CφSα + Y−c 2 ) = 0 f 2 = v 3 t 1 -v 1 t 3 = v 3 ( r · CφCθCα-r · SφSα + X-c 1) -v 1 (-r · SθCα + Z-c 3) = 0 and is set by the number corresponding to the number corresponding to the unknown By setting the above equation for each attention point and solving this equation by Newton-Raphson method,
The parameter α of each equation and the position conversion parameters (X, Y, Z, φ, θ) of the unknowns are calculated. In the Newton-Raphson method, the partial differential values of the functions f 1 and f 2 are as follows.

【0065】 ∂f1/∂φ=−v3(r・CφCθCα−r・SφSα) ∂f1/∂θ=v2(−r・CθCα)−v3(−r・SφSθCα) ∂f1/∂X=0 ∂f1/∂Y=−v3 ∂f1/∂Z=v2 ∂f1/∂α=v2(r・SθSα)−v3(−r・SφCθSα+r・CφCα) ∂f2/∂φ=v3(−r・SφSθCα−r・CφSα) ∂f2/∂θ=v2(−r・CφSθCα)−v1(−r・CθCα) ∂f2/∂X=v3 ∂f2/∂Y=0 ∂f2/∂Z=−v1 ∂f2/∂α=v3(−r・CφCθSα−r・SφCα)−v1(r・SθSα) 上記のように円形のエッジラインを有する物体1を未知
数の位置変換パラメータ(X,Y,Z,φ,θ)を使用
して位置変換した後、この未知数の数に対応する個数の
注目点を上記エッジライン上の任意の位置に設定し、こ
の未知数をニュートン−ラプソン法等の非線形方程式の
数値解法によって解くことにより、上記物体1´が基準
座標系Aの原点からなる基準位置に対してどのような状
態で設置されているかを計測するように構成したため、
エッジラインの全体を検出することが困難な場合におい
ても、その設置状態を正確かつ迅速に計測することがで
きる。
∂f 1 / ∂φ = −v 3 (r · CφCθCα−r · SφSα) ∂f 1 / ∂θ = v 2 (−r · CθCα) −v 3 (−r · SφSθCα) ∂f 1 / ∂X = 0 ∂f 1 / ∂Y = −v 3 ∂f 1 / ∂Z = v 2 ∂f 1 / ∂α = v 2 (r · SθSα) −v 3 (−r · SφCθSα + r · CφCα) ∂f 2 / ∂φ = v 3 (−r · SφSθCα−r · CφSα) ∂f 2 / ∂θ = v 2 (−r · CφSθCα) −v 1 (−r · CθCα) ∂f 2 / ∂X = v 3 ∂f 2 / ∂Y = 0 0 ∂f 2 / ∂Z = -v 1 ∂f 2 / ∂α = v 3 (-r ・ CφCθSα-r ・ SφCα) -v 1 (r ・ SθSα) Circular shape as above After the position conversion of the object 1 having the edge lines of (3) using the position conversion parameters (X, Y, Z, φ, θ) of unknowns, the number of points of interest corresponding to the number of unknowns are set on the edge lines. Responsibility And the unknown is solved by a numerical solution of a nonlinear equation such as the Newton-Raphson method, whereby the object 1'is installed in any state with respect to the reference position consisting of the origin of the reference coordinate system A. Since it is configured to measure whether
Even when it is difficult to detect the entire edge line, the installation state can be accurately and quickly measured.

【0066】すなわち、円形のエッジラインを計測する
方法として円の重心を三次元視してその位置を認識する
ことも考えられるが、この方法では、エッジラインの全
体を検出することができないと、上記重心位置を正確に
認識することが困難であるため、その適用範囲が限られ
ることになるが、上記のように円形のエッジライン上に
設定された注目点の座標に基づいて上記計測を行なうよ
うに構成した場合には、上記エッジラインの任意の位置
に上記注目点を設定することができるため、上記物体1
´の基準位置に対する位置ずれ量及び変位角度を正確か
つ迅速に求めることができる。
That is, as a method of measuring a circular edge line, it is possible to three-dimensionally view the center of gravity of a circle and recognize its position, but this method cannot detect the entire edge line. Since it is difficult to accurately recognize the position of the center of gravity, the applicable range is limited. However, the measurement is performed based on the coordinates of the point of interest set on the circular edge line as described above. In such a case, since the point of interest can be set at an arbitrary position on the edge line, the object 1
The amount of displacement and the displacement angle of ′ with respect to the reference position can be accurately and quickly obtained.

【0067】したがって、オイル注入孔もしくはボトル
孔等の円形のエッジラインを有する物体が基準位置から
ずれた状態で、組立ラインの加工位置に搬送された場合
においても、上記オイル注入孔及びボルト孔等の位置を
正確に認識してオイルの自動注入作業及びボルトの自動
締付作業等を適正に実行することができる。
Therefore, even when an object having a circular edge line such as an oil injection hole or a bottle hole is moved from the reference position to the processing position of the assembly line, the oil injection hole, the bolt hole, etc. It is possible to accurately recognize the position of [1] and properly perform automatic oil injection work, automatic bolt tightening work, and the like.

【0068】また、上記のように円形のエッジラインを
基準座標系Aのx−y平面上に位置させるように基準座
標系Aを設定した場合には、この基準位置にあると仮定
されるエッジラインを表す三次元曲線を簡単な関数によ
って定義付けることができるため、未知数の値を容易に
求めることができる。特に、上記円の重心を基準座標系
Aのz軸上に位置させるように構成した場合には、上記
基本座標系Aのエッジラインを表す三次元曲線をさらに
簡単な関数によって定義付けることができるため、未知
数の値を、より容易に算出することができる。
Further, when the reference coordinate system A is set so that the circular edge line is located on the xy plane of the reference coordinate system A as described above, the edge which is assumed to be at this reference position Since the three-dimensional curve representing the line can be defined by a simple function, the unknown value can be easily obtained. Especially when the center of gravity of the circle is arranged on the z-axis of the reference coordinate system A, the three-dimensional curve representing the edge line of the basic coordinate system A can be defined by a simpler function. , The unknown value can be calculated more easily.

【0069】また、上記円の重心位置を正確に求めるこ
とができる場合には、円形のエッジライン上に設定され
た注目点に加えて、円の重心位置を注目点として設定
し、物体検出手段3の検出視点Bから円の重心に向かう
視線方向ベクトルを設定するように構成してもよい。こ
のように構成した場合には、上記エッジライン上に設定
された注目点に向かう視線方向ベクトルと、円の重心か
らなる注目点とに向けて設定される視線方向ベクトルと
に基づいて物体1´の設置状態を、より正確に計測する
ことができる。
If the barycentric position of the circle can be accurately obtained, the barycentric position of the circle is set as the target point in addition to the target point set on the circular edge line, and the object detecting means is set. The line-of-sight direction vector from the detection viewpoint B of 3 toward the center of gravity of the circle may be set. In such a configuration, the object 1 ′ based on the line-of-sight direction vector set toward the point of interest set on the edge line and the line-of-sight direction vector set toward the point of interest formed of the center of gravity of the circle. The installation state of can be measured more accurately.

【0070】なお、上記ニュートン−ラプソンに代え、
二分法、はさみうち法及び割線法等からなる非線形方程
式の数値解法を使用して上記連立方程式を解くように構
成してもよい。
In place of the above Newton-Raphson,
The above simultaneous equations may be solved by using a numerical solution method of a non-linear equation including a bisection method, a scissors method and a secant method.

【0071】また、上記実施例では、本発明に係る物体
計測装置及び物体計測方法を自動車の組立ラインにおい
て搬送されるワークの位置認識手段として使用した例に
ついて説明したが、工場内等において使用される部品搬
送用の自動走行ロボットに走行位置を認識させるために
上記物体計測装置及び物体計測方法を使用することもで
きる。すなわち、工場内等において予め設定された基準
位置に三次元形状を有する標識からなる物体を設け、こ
の標識物体を物体検出手段によって検出してその位置に
認識することにより、上記自動走行ロボットの相対位置
を認識させるように構成してもよい。
In the above embodiment, the object measuring apparatus and the object measuring method according to the present invention are used as the position recognizing means of the work conveyed in the automobile assembly line. However, it is used in a factory or the like. The object measuring device and the object measuring method described above can also be used in order to make the automatic traveling robot for transporting the parts recognize the traveling position. That is, by providing an object made of a sign having a three-dimensional shape at a preset reference position in a factory or the like, and detecting the sign object by the object detection means and recognizing the position, the relative movement of the automatic traveling robot The position may be recognized.

【0072】また、上記のように第1データ抽出手段7
によって抽出された基準位置にあると仮定された物体1
のエッジライン上に位置する注目点の基準座標データを
位置変換手段9によって位置変換するようにした構成に
代え、第2データ抽出手段8によって抽出された計測位
置にある物体1´のエッジライン上に位置する注目点の
検出座標データを位置変換手段により、位置変換パラメ
ータを使用して位置変換するように構成してもよい。
Further, as described above, the first data extracting means 7
Object 1 assumed to be at the reference position extracted by
On the edge line of the object 1 ′ at the measurement position extracted by the second data extracting means 8 instead of the structure in which the position converting means 9 performs position conversion of the reference coordinate data of the point of interest located on the edge line The detected coordinate data of the point of interest located at may be converted by the position conversion means using the position conversion parameter.

【0073】[0073]

【発明の効果】以上説明したように、請求項1に係る発
明は、基準位置にあると仮定した物体のエッジラインを
媒介変数によって定義付けられた三次元曲線のデータと
して入力する入力手段と、上記エッジライン上に設定さ
れた注目点の基準座標データを上記入力データに応じて
抽出する第1データ抽出手段と、計測位置に配設された
物体のエッジラインに設けられた注目点の検出座標デー
タを抽出する第2抽出手段とを設け、上記基準座標デー
タ及び検出座標データの一方を未知数の位置変換パラメ
ータを使用して位置変換する位置変換手段とを設け、上
記未知数の位置変換パラメータを算出手段で算出するこ
とによって物体の基準位置に対する位置ずれ量及び変位
角度をするように構成したため、上記物体にコーナ部が
存在しないために特徴点を見出すことができない場合に
おいても、物体の三次元形状を正確に認識してその設置
状態を数値計算によって計測することができる。
As described above, the invention according to claim 1 has an input means for inputting an edge line of an object assumed to be at a reference position as data of a three-dimensional curve defined by a parameter. First data extracting means for extracting reference coordinate data of the point of interest set on the edge line according to the input data, and detected coordinates of the point of interest provided on the edge line of the object arranged at the measurement position. A second extracting means for extracting data is provided, and a position converting means for performing position conversion of one of the reference coordinate data and the detected coordinate data by using an unknown number of position converting parameters is provided, and the unknown position converting parameters are calculated. Since the amount of displacement and the displacement angle with respect to the reference position of the object are calculated by means of the means, there is no corner portion in the object. If it is impossible to find a feature points may also be measuring the installed state by numerical calculation to accurately recognize the object three-dimensional shape.

【0074】したがって、例えば自動車の組立ラインに
おいて加工位置に搬送される物体の形状の如何に拘ら
ず、加工位置に搬送された物体の設置状態を計算によっ
て正確に求め、この設置状態を組立用ロボットにティー
チングすることにより、上記物体に対する部品の自動組
付作業等を正確に実行することができ、また工場内等に
おいて使用される部品搬送用の自動走行ロボットに走行
位置を正確に認識させてこの自動走行ロボットを正確に
走行させることができる等の利点がある。
Therefore, for example, regardless of the shape of the object conveyed to the processing position in an automobile assembly line, the installation state of the object conveyed to the processing position is accurately obtained by calculation, and this installation state is determined by the assembling robot. It is possible to accurately perform the work of automatically assembling the parts with respect to the above objects by teaching the object, and to make the automatic traveling robot for parts transportation used in the factory etc. accurately recognize the traveling position. There is an advantage that the automatic traveling robot can accurately travel.

【0075】請求項2に係る発明は、計測位置に配設さ
れた物体のエッジラインにスリット光を照射する照射手
段と、この照射手段によって照射されたエッジライン上
の注目点の画像を撮影するカメラとからなる物体検出手
段を設け、上記照射手段によって照射されたスリット光
と、エッジラインとの交点において生じる輝度変化をカ
メラによって撮影するように構成したため、この撮影さ
れた画像に応じて上記交点の座標を容易かつ正確に抽出
することができる。
According to the second aspect of the present invention, the irradiation means for irradiating the edge line of the object arranged at the measurement position with the slit light and the image of the point of interest on the edge line irradiated by the irradiation means are photographed. Since the object detection means composed of a camera is provided and the change in luminance caused at the intersection of the slit light irradiated by the irradiation means and the edge line is photographed by the camera, the intersection is determined according to the photographed image. The coordinates of can be extracted easily and accurately.

【0076】請求項3に係る発明は、基準位置にあると
仮定した物体のエッジラインを媒介変数によって定義付
けられた三次元曲線のデータとして入力し、上記エッジ
ライン上に設定された注目点の基準座標データを上記入
力データに応じて抽出するとともに、計測位置に配設さ
れた物体のエッジラインを物体検出手段によって検出し
てこのエッジライン上に位置する注目点の検出座標デー
タを抽出した後、この注目点の検出座標データ及び上記
基準座標データの一方を未知数の位置変換パラメータを
使用して位置変換し、上記未知数の位置変換パラメータ
を非線形方程式の数値解法等により、物体の基準位置に
対する位置ずれ量及び変位角度を算出するように構成し
たため、上記物体の形状の如何に拘らず、その三次元形
状を正確に認識して物体の設置状態を正確かつ迅速に計
測できるという利点がある。
In the invention according to claim 3, the edge line of the object assumed to be at the reference position is input as the data of the three-dimensional curve defined by the parameter, and the attention point set on the edge line is After extracting the reference coordinate data according to the input data, the edge line of the object arranged at the measurement position is detected by the object detecting means, and the detected coordinate data of the point of interest located on the edge line is extracted. , One of the detected coordinate data of the point of interest and the reference coordinate data is position-converted using the position conversion parameter of the unknown number, and the position conversion parameter of the unknown number is moved to the reference position of the object by a numerical solution method of a non-linear equation. Since it is configured to calculate the amount of displacement and the displacement angle, it is possible to accurately recognize the three-dimensional shape of the object regardless of the shape of the object. There is an advantage that an installation state of an object can be accurately and quickly measured.

【0077】請求項4に係る発明は、上記非線形方程式
の数値解法において、物体検出手段によって検出された
計測位置にある物体のエッジラインの検出データと、基
準位置にあると仮定された物体のエッジラインを物体検
出手段によって検出した場合に求められる仮想データと
に基づき、上記連立方程式を解くために使用する未知数
の初期値を推定して設定するようにした構成したため、
実際の物体からかけ離れた位置に設定された初期値に基
づいて上記数値計算が行われることに起因して不要な演
算が行われるという事態の発生を防止し、計算の精度を
向上させることができるとともに、演算時間を短縮化す
ることができるという利点がある。
According to a fourth aspect of the present invention, in the numerical solution of the non-linear equation, the edge line detection data of the object at the measurement position detected by the object detecting means and the edge of the object assumed to be at the reference position are detected. Based on the virtual data obtained when the line is detected by the object detecting means, since it is configured to estimate and set the initial value of the unknown number used to solve the simultaneous equations,
It is possible to prevent the occurrence of a situation in which unnecessary calculation is performed due to the above-described numerical calculation being performed based on the initial value set at a position far from the actual object, and improve the calculation accuracy. At the same time, there is an advantage that the calculation time can be shortened.

【0078】請求項5に係る発明は、計測位置に配設さ
れた物体のエッジラインを検出する物体検出手段の検出
視点を複数個所に設定し、多方向から物体のエッジライ
ン検出するように構成したため、一台のカメラによって
物体のエッジラインを一括して撮影するように構成した
場合のように物体の画像が相対的に小さくなったり、カ
メラの軸線方向に対する物体の変位を正確に検出されな
かったりする等の問題を生じることがなく、物体の三次
元形状を正確に認識して上記未知数を解くために使用さ
れる視線方向ベクトルを適正に設定することができる。
したがって、上記物体の基準位置に対する位置ずれ量及
び変位角度を、より正確に計測することができる。
In the invention according to claim 5, the object detecting means for detecting the edge line of the object arranged at the measurement position is set to a plurality of detection viewpoints, and the edge line of the object is detected from multiple directions. Therefore, the image of the object becomes relatively small as in the case where the edge lines of the object are collectively captured by one camera, and the displacement of the object in the axial direction of the camera cannot be accurately detected. It is possible to properly recognize the three-dimensional shape of the object and appropriately set the line-of-sight direction vector used for solving the unknown number without causing a problem such as a problem.
Therefore, the amount of displacement and the displacement angle of the object with respect to the reference position can be measured more accurately.

【0079】請求項6に係る発明は、計測位置に配設さ
れた物体のエッジラインを複数の物体検出手段によって
それぞれ検出するように構成したため、この物体検出手
段の検出データにに基づき、上記エッジライン上の任意
の位置に設定された注目点の検出座標データを抽出する
ことにより、物体検出手段の軸線方向に対する物体の変
位量を正確かつ迅速に検出し、物体の三次元形状を適正
に把握できるという利点がある。
According to the sixth aspect of the invention, since the edge lines of the object arranged at the measurement position are respectively detected by the plurality of object detecting means, the above-mentioned edge is detected based on the detection data of the object detecting means. By extracting the detected coordinate data of the point of interest set at any position on the line, the amount of displacement of the object with respect to the axial direction of the object detection means can be detected accurately and quickly, and the three-dimensional shape of the object can be properly grasped. There is an advantage that you can.

【0080】請求項7に係る発明は、物体のエッジライ
ンに対応する位置に鏡板を設置し、物体検出手段によっ
て物体のエッジラインと、鏡板に写し出された鏡像とを
同時に検出してその検出データに基づき、上記エッジラ
イン上の任意の位置に設定された注目点の検出座標デー
タを抽出するように構成したため、単一の検出手段によ
ってカメラの軸線方向に対する物体の変位を正確に検出
し、物体の三次元形状を適正に把握することができる。
In the invention according to claim 7, an end plate is installed at a position corresponding to the edge line of the object, and the edge line of the object and the mirror image projected on the end plate are simultaneously detected by the object detecting means, and the detection data thereof is detected. Based on the above, since it is configured to extract the detected coordinate data of the point of interest set at any position on the edge line, the displacement of the object with respect to the axial direction of the camera is accurately detected by a single detection means, It is possible to properly grasp the three-dimensional shape of.

【0081】請求項8に係る発明は、円形のエッジライ
ンを有する物体の基準位置を構成する基準座標系のx−
y平面上に上記エッジラインを位置するように上記基準
座標系を設定するように構成したため、基準位置にある
と仮定されるエッジラインを表す三次元曲線を簡単な関
数によって定義付けることができるため、未知数の値を
容易に行なうことができる。したがって、オイル注入孔
もしくはボトル孔等の円形のエッジラインを有する物体
が基準位置からずれた状態で、組立ラインの加工位置に
搬送された場合においても、上記オイル注入孔及びボル
ト孔等の位置を正確に認識してオイルの自動注入作業及
びボルトの自動締付作業等を正確に実行できるという利
点がある。
The invention according to claim 8 is x- of a reference coordinate system which constitutes a reference position of an object having a circular edge line.
Since the reference coordinate system is set so that the edge line is located on the y plane, a three-dimensional curve representing the edge line assumed to be located at the reference position can be defined by a simple function. The unknown value can be easily done. Therefore, even when an object having a circular edge line such as an oil injection hole or a bottle hole is transferred from the reference position to the processing position of the assembly line, the positions of the oil injection hole and the bolt hole, etc. should be maintained. There is an advantage that the automatic oil injection work and the automatic bolt tightening work can be accurately performed by accurately recognizing.

【0082】請求項9に係る発明は、円形のエッジライ
ン上に設定された注目点に加えて、円の重心位置を注目
点として設定し、物体検出手段の検出視点から円の重心
に向かう視線方向ベクトルを設定するように構成したた
め、上記エッジライン上に設定された注目点と、円の重
心からなる注目点とに向けて設定される視線方向ベクト
ルの両方に基づいて物体の設置状態を、より正確に計測
することができる。
In addition to the point of interest set on the circular edge line, the position of the center of gravity of the circle is set as the point of interest, and the line of sight from the detection viewpoint of the object detecting means toward the center of gravity of the circle. Since it is configured to set the direction vector, the point of interest set on the edge line, and the installation state of the object based on both the line-of-sight direction vector set toward the point of interest consisting of the center of gravity of the circle, It is possible to measure more accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る物体計測装置の全体構成を示す説
明図である。
FIG. 1 is an explanatory diagram showing an overall configuration of an object measuring device according to the present invention.

【図2】物体計測装置に設けられた計測手段の構成を示
すブロック図である。
FIG. 2 is a block diagram showing a configuration of a measuring unit provided in the object measuring device.

【図3】本発明に係る物体計測方法の実施例を示す説明
図である。
FIG. 3 is an explanatory diagram showing an embodiment of an object measuring method according to the present invention.

【図4】本発明に係る物体計測方法の別の実施例を示す
説明図である。
FIG. 4 is an explanatory diagram showing another embodiment of the object measuring method according to the present invention.

【図5】本発明に係る物体計測方法のさらに別の実施例
を示す説明図である。
FIG. 5 is an explanatory view showing still another embodiment of the object measuring method according to the present invention.

【図6】本発明に係る物体計測方法のさらに別の実施例
を示す説明図である。
FIG. 6 is an explanatory view showing still another embodiment of the object measuring method according to the present invention.

【符号の説明】[Explanation of symbols]

1 物体 2 入力手段 3 物体検出手段 4 計測手段 5 照射手段 6 カメラ 7 第1データ抽出手段 8 第2データ抽出手段 9 位置変換手段 10 第1ベクトル設定手段 11 第2ベクトル設定手段 12 方程式設定手段 13 算出手段 14 鏡板 1 Object 2 Input Means 3 Object Detecting Means 4 Measuring Means 5 Irradiating Means 6 Cameras 7 First Data Extracting Means 8 Second Data Extracting Means 9 Position Converting Means 10 First Vector Setting Means 11 Second Vector Setting Means 12 Equation Setting Means 13 Calculation means 14 End plate

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G06T 7/00

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 予め設定された基準位置に物体があると
仮定してそのエッジラインを媒介変数によって定義付け
られた三次元曲線のデータとして入力する入力手段と、
入力されたデータに応じて上記エッジライン上に位置す
る注目点の基準座標データを抽出する第1データ抽出手
段と、計測位置に配設された物体のエッジラインを検出
する物体検出手段と、この物体検出手段の検出データに
基づいて上記エッジライン上に設定された注目点の検出
座標データを抽出する第2データ抽出手段と、この第
1,第2データ抽出手段によって抽出された両座標デー
タの一方を、位置ずれ量及び変位角度の未知数からなる
位置変換パラメータを使用して位置変換する位置変換手
段と、この位置変換手段によって変換された注目点の座
標データに基づいて物体検出手段の検出視点から位置変
換後の注目点に向かう視線方向ベクトルを設定する第1
ベクトル設定手段と、上記両座標データの他方に基づい
て物体検出手段の検出視点から上記エッジライン上の注
目点に向かう視線方向ベクトルを設定する第2ベクトル
設定手段と、この第1,第2ベクトル設定手段によって
設定された両視線方向ベクトルの方向が一致することを
拘束条件として方程式を設定する方程式設定手段と、こ
の方程式を解くことによって物体の基準位置に対する上
記位置ずれ量及び変位角度の未知数を算出する算出手段
とを設けたことを特徴とする物体計測装置。
1. Input means for inputting an edge line of the object as data of a three-dimensional curve defined by a parameter, assuming that an object is present at a preset reference position.
First data extracting means for extracting the reference coordinate data of the point of interest located on the edge line according to the input data, and object detecting means for detecting the edge line of the object arranged at the measurement position, Second data extracting means for extracting the detected coordinate data of the point of interest set on the edge line based on the detected data of the object detecting means, and both coordinate data extracted by the first and second data extracting means. Position conversion means for converting one of the positions using a position conversion parameter consisting of a positional displacement amount and an unknown number of displacement angles, and a detection viewpoint of the object detection means based on the coordinate data of the point of interest converted by this position conversion means. First to set the line-of-sight direction vector from the position to the point of interest after position conversion
Vector setting means, second vector setting means for setting the line-of-sight direction vector from the detection viewpoint of the object detection means to the point of interest on the edge line based on the other of the coordinate data, and the first and second vectors. Equation setting means for setting an equation under the constraint that the directions of both line-of-sight direction vectors set by the setting means coincide with each other, and by solving this equation, the unknown amount of the positional deviation amount and displacement angle with respect to the reference position of the object An object measuring device, comprising: a calculating means for calculating.
【請求項2】 計測位置に配設された物体のエッジライ
ンにスリット光を照射する照射手段と、この照射手段に
よって照射されたエッジライン上の注目点の画像を撮影
するカメラとからなる物体検出手段を設けたことを特徴
とする請求項1記載の物体計測装置。
2. Object detection comprising irradiation means for irradiating an edge line of an object arranged at a measurement position with slit light, and a camera for photographing an image of a point of interest on the edge line irradiated by this irradiation means. The object measuring device according to claim 1, further comprising means.
【請求項3】予め設定された基準位置に物体があると仮
定して設定されたデータに基づいてこの物体のエッジラ
インを媒介変数によって定義付けられた三次元曲線とし
て表した後、このエッジライン上に位置する注目点の基
準座標データを抽出するとともに、計測位置に配設され
た物体のエッジラインを物体検出手段によって検出し、
この検出データに基づいてエッジライン上に位置する注
目点の検出座標データを抽出した後、この注目点の検出
座標データ及び上記基準座標データの一方を、位置ずれ
量及び変位角度の未知数からなる位置変換パラメータを
使用して位置変換し、この位置変換後の座標データに基
づいて上記物体検出手段の検出視点から位置変換後の注
目点に向かう視線方向ベクトルを設定するとともに、上
記両座標データの他方に基づいて物体検出手段の検出視
点から上記エッジライン上の注目点に向かう視線方向ベ
クトルを設定した後、これらの視線方向ベクトルの方向
が一致することを拘束条件として方程式を設定し、この
方程式を解くことによって物体の基準位置に対する位置
ずれ量及び変位角度の未知数を算出するように構成した
ことを特徴とする物体計測方法。
3. An edge line of an object is represented as a three-dimensional curve defined by a parameter based on data set assuming that the object exists at a preset reference position, and the edge line is then represented. While extracting the reference coordinate data of the point of interest located above, the edge line of the object arranged at the measurement position is detected by the object detection means,
After extracting the detected coordinate data of the point of interest located on the edge line based on this detected data, one of the detected coordinate data of the point of interest and the reference coordinate data is set to a position composed of an unknown amount of displacement and displacement angle. Position conversion is performed using a conversion parameter, and a line-of-sight direction vector from the detection viewpoint of the object detecting means to the target point after position conversion is set based on the coordinate data after the position conversion, and the other of the coordinate data is the other. After setting the line-of-sight direction vector from the detection viewpoint of the object detecting means to the point of interest on the edge line based on the above, set the equation as a constraint condition that the directions of these line-of-sight direction vectors match, and set this equation It is characterized in that it is configured to calculate an unknown amount of displacement and displacement angle with respect to the reference position of the object by solving Body measurement method.
【請求項4】 物体検出手段によって検出された計測位
置にある物体のエッジラインの検出データと、基準位置
にあると仮定された物体のエッジラインを上記物体検出
手段によって検出した場合に求められる仮想データとに
基づき、非線形方程式の数値解法に使用する未知数の初
期値を設定するように構成したことを特徴とする請求項
3記載の物体計測方法。
4. The virtual data obtained when the detection data of the edge line of the object at the measurement position detected by the object detection means and the edge line of the object assumed to be at the reference position are detected by the object detection means. The object measuring method according to claim 3, wherein an initial value of an unknown number used in a numerical solution of the nonlinear equation is set based on the data.
【請求項5】 計測位置に配設された物体のエッジライ
ンを検出する物体検出手段の検出視点を複数個所に設定
し、上記物体のエッジラインを多方向から検出するよう
に構成したことを特徴とする請求項3記載の物体計測方
法。
5. An object detecting means for detecting an edge line of an object arranged at a measurement position is set at a plurality of detection viewpoints, and the edge line of the object is detected from multiple directions. The object measuring method according to claim 3.
【請求項6】 計測位置に配設された物体のエッジライ
ンを複数の物体検出手段によってそれぞれ検出し、この
検出データに基づいてエッジライン上に位置する注目点
の検出座標データを抽出するように構成したことを特徴
とする請求項3記載の物体計測方法。
6. An edge line of an object arranged at a measurement position is detected by each of a plurality of object detecting means, and detected coordinate data of a point of interest located on the edge line is extracted based on the detected data. The object measuring method according to claim 3, wherein the object measuring method is configured.
【請求項7】 計測位置に配設された物体のエッジライ
ンを映し出す鏡板を設置し、物体検出手段によって上記
物体のエッジライン及びその鏡像を検出し、この検出デ
ータに基づいてエッジライン上に位置する注目点の検出
座標データを抽出するように構成したことを特徴とする
請求項3記載の物体計測方法。
7. A mirror plate which projects an edge line of an object arranged at a measurement position is installed, the edge line of the object and its mirror image are detected by an object detecting means, and the position on the edge line is detected based on the detection data. The object measuring method according to claim 3, wherein the detected coordinate data of the target point is extracted.
【請求項8】 円形のエッジラインを有する物体の基準
位置を構成する座標系のx−y平面上に上記エッジライ
ンが位置するように物体の基準座標系を設定したことを
特徴とする請求項3記載の物体計測方法。
8. The reference coordinate system of an object is set such that the edge line is located on an xy plane of a coordinate system that constitutes a reference position of an object having a circular edge line. 3. The object measuring method described in 3.
【請求項9】 エッジライン上の注目点に加えて、エッ
ジラインを構成する円の重心を注目点として設定し、検
出手段の検出視点から上記円の重心に向かう視線方向ベ
クトルを設定するように構成したことを特徴とする請求
項8記載の物体計測方法。
9. In addition to the point of interest on the edge line, the center of gravity of the circle forming the edge line is set as the point of interest, and a line-of-sight direction vector from the detection viewpoint of the detection means to the center of gravity of the circle is set. The object measuring method according to claim 8, wherein the object measuring method is configured.
JP14793894A 1993-12-24 1994-06-29 Object measuring apparatus and method Expired - Fee Related JP3384617B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP14793894A JP3384617B2 (en) 1994-06-29 1994-06-29 Object measuring apparatus and method
US08/364,184 US5802202A (en) 1993-12-24 1994-12-27 Method of determining three dimensional position of object and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14793894A JP3384617B2 (en) 1994-06-29 1994-06-29 Object measuring apparatus and method

Publications (2)

Publication Number Publication Date
JPH0814829A true JPH0814829A (en) 1996-01-19
JP3384617B2 JP3384617B2 (en) 2003-03-10

Family

ID=15441460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14793894A Expired - Fee Related JP3384617B2 (en) 1993-12-24 1994-06-29 Object measuring apparatus and method

Country Status (1)

Country Link
JP (1) JP3384617B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003504217A (en) * 1999-07-13 2003-02-04 ヘンツェ,ヨアヒム Generation of Rays for Robot Positioning Aid
JP2007333679A (en) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp Three-dimensional position correcting apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003504217A (en) * 1999-07-13 2003-02-04 ヘンツェ,ヨアヒム Generation of Rays for Robot Positioning Aid
JP2007333679A (en) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp Three-dimensional position correcting apparatus

Also Published As

Publication number Publication date
JP3384617B2 (en) 2003-03-10

Similar Documents

Publication Publication Date Title
US9529945B2 (en) Robot simulation system which simulates takeout process of workpieces
JP3242108B2 (en) Target mark recognition and tracking system and method
CN108965690B (en) Image processing system, image processing apparatus, and computer-readable storage medium
US8098928B2 (en) Apparatus for picking up objects
US20050273199A1 (en) Robot system
US10598481B2 (en) Crankshaft shape inspection apparatus, system and method
WO2005088250A1 (en) Method and system of measuring an object in a digital image
JP2000241120A (en) Measuring apparatus
CN110260818B (en) Electronic connector robust detection method based on binocular vision
Wu et al. Monocular-vision-based method for online measurement of pose parameters of weld stud
JP2000304509A (en) Method and device for specifying object
US10607337B2 (en) Object inspection system and object inspection method
JP2009216503A (en) Three-dimensional position and attitude measuring method and system
JPH1163952A (en) Three-dimensional shape measuring target and method for measuring inclination of collimation face
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JP2786070B2 (en) Inspection method and apparatus for transparent plate
Wang et al. A binocular vision method for precise hole recognition in satellite assembly systems
JP3384617B2 (en) Object measuring apparatus and method
US11826919B2 (en) Work coordinate generation device
CN108564626B (en) Method and apparatus for determining relative pose angle between cameras mounted to an acquisition entity
JPH09329440A (en) Coordinating method for measuring points on plural images
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
JP2017181228A (en) Measurement device, measurement method and manufacturing method of article
JPH06214622A (en) Work position sensor
JPH1073419A (en) Device for inspecting erroneous and missing parts mounted externally on engine

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071227

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091227

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091227

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101227

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111227

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees