JPH11142117A - Object measuring method and its equipment and storage medium of control program for object measurement - Google Patents
Object measuring method and its equipment and storage medium of control program for object measurementInfo
- Publication number
- JPH11142117A JPH11142117A JP9322098A JP32209897A JPH11142117A JP H11142117 A JPH11142117 A JP H11142117A JP 9322098 A JP9322098 A JP 9322098A JP 32209897 A JP32209897 A JP 32209897A JP H11142117 A JPH11142117 A JP H11142117A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- contour
- image
- measuring
- edges
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、対象物を撮像して得
られた画像を用いて、その対象物の位置およびその向き
を計測するための方法および装置に関連し、さらにこの
発明は、この計測処理を、コンピュータにより実施させ
るための制御プログラムを記録した記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for measuring the position and orientation of an object by using an image obtained by imaging the object. The present invention relates to a recording medium on which a control program for causing a computer to execute the measurement processing is recorded.
【0002】[0002]
【従来の技術】上記の計測処理は、例えば基板上のチッ
プ部品の実装位置や実装方向の適否を検査する際に行わ
れる。この検査を実施するための画像処理装置は、計測
対象となるチップ部品の画像からエッジ成分を抽出した
後、各エッジの抽出位置を用いて部品の輪郭線を表す複
数の直線を特定し、さらに各直線の交点の位置や直線の
傾きなどにより、部品の実装位置を示す座標や実装方向
を示す角度を算出するように設定されている。2. Description of the Related Art The above measurement processing is performed, for example, when inspecting the mounting position and mounting direction of a chip component on a substrate. The image processing apparatus for performing this inspection extracts an edge component from the image of the chip component to be measured, specifies a plurality of straight lines representing the contour of the component using the extracted positions of the edges, The coordinates indicating the mounting position of the component and the angle indicating the mounting direction are set to be calculated based on the position of the intersection of each straight line, the inclination of the straight line, and the like.
【0003】[0003]
【発明が解決しようとする課題】しかしながらこの計測
処理の過程において画像データにノイズが混入したり、
計測対象の基板上に傷や汚れなどがある場合、本来の計
測対象物の輪郭以外のエッジが抽出され、その結果、対
象物の位置や向きが誤計測される虞がある。However, in the course of this measurement processing, noise is mixed in the image data,
If there is a flaw or dirt on the substrate to be measured, an edge other than the contour of the original measurement object is extracted, and as a result, the position or orientation of the object may be erroneously measured.
【0004】この発明は上記の問題点に着目してなされ
たもので、画像上で抽出されたエッジが計測対象物の輪
郭を表すか否かを判別し、対象物の輪郭を表すと判別さ
れたエッジのみを用いて計測処理を行うことにより、ノ
イズの影響をうけずに高精度の計測処理を実施すること
を技術課題とする。The present invention has been made in view of the above problem, and it is determined whether or not an edge extracted on an image represents the contour of a measurement object, and is determined to represent the contour of the object. It is a technical object to perform high-precision measurement processing without being affected by noise by performing measurement processing using only edges that have been set.
【0005】[0005]
【課題を解決するための手段】請求項1の発明にかかる
物体計測方法は、対象物を撮像して得られた画像上の各
エッジの位置関係により、各エッジが対象物の輪郭を表
すものか否かを判別し、各エッジがいずれも対象物の輪
郭を表していると判別したとき、各エッジの位置を用い
て前記計測処理を実施することを特徴とする。According to a first aspect of the present invention, there is provided an object measuring method, wherein each edge represents a contour of the object based on a positional relationship between the edges on an image obtained by imaging the object. Is determined, and when it is determined that each edge represents the contour of the object, the measurement process is performed using the position of each edge.
【0006】請求項2の発明にかかる物体計測方法は、
対象物を撮像して得られた画像上の各エッジの位置関係
により対象物の輪郭を表すエッジを選択し、選択された
エッジ位置のみを用いて前記計測処理を実施することを
特徴とする。According to a second aspect of the present invention, there is provided an object measuring method comprising:
An edge representing the outline of the object is selected based on the positional relationship between the edges on the image obtained by imaging the object, and the measurement process is performed using only the selected edge position.
【0007】請求項3の発明にかかる物体計測装置は、
請求項1の方法を実施するための手段として、対象物を
撮像して得られた画像を入力する画像入力手段と、前記
入力画像上のエッジを抽出するエッジ抽出手段、前記エ
ッジ抽出手段により抽出された各エッジの位置関係によ
り、各エッジが対象物の輪郭を表すものか否かを判別す
る判別手段、前記判別手段により各エッジがいずれも対
象物の輪郭を表していると判別されたとき、各エッジの
抽出位置を用いて対象物の位置および向きを計測する計
測手段、の各手段を具備している。According to a third aspect of the present invention, there is provided an object measuring apparatus comprising:
2. An image input unit for inputting an image obtained by imaging an object, an edge extracting unit for extracting edges on the input image, and an edge extracting unit for performing the method of claim 1. Determination means for determining whether or not each edge represents the contour of the object, based on the positional relationship between the edges thus determined, and when the determination means determines that each edge represents the contour of the object. And measurement means for measuring the position and orientation of the object using the extracted position of each edge.
【0008】前記判別手段は、請求項4の発明では、各
エッジの抽出位置より各エッジにより表される物体の大
きさを認識し、この認識された物体の大きさが対象物の
大きさに相当するとき、各エッジがいずれも対象物の輪
郭を表していると判別する。また請求項5の発明にかか
る判別手段は、各エッジの抽出位置より各エッジにより
表される物体の輪郭線を仮設定し、この仮設定された輪
郭線が対象物の輪郭形状にかかる所定の条件を満たすと
き、各エッジがいずれも対象物の輪郭を表していると判
別する。In the invention according to claim 4, the discriminating means recognizes the size of the object represented by each edge from the extraction position of each edge, and determines the size of the recognized object as the size of the object. If it corresponds, it is determined that each edge represents the contour of the object. According to a fifth aspect of the present invention, the discriminating means provisionally sets a contour of an object represented by each edge from an extraction position of each edge, and the provisionally set contour is a predetermined contour related to the contour shape of the object. When the condition is satisfied, it is determined that each edge represents the contour of the object.
【0009】請求項6の発明にかかる物体計測装置は、
対象物を計測するための所定の計測条件を設定する計測
条件設定手段と、前記設定された計測条件下で対象物を
撮像して得られた画像を入力する画像入力手段と、前記
入力画像上のエッジを抽出するエッジ抽出手段と、前記
エッジ抽出手段により抽出された各エッジの位置関係に
より、各エッジが対象物の輪郭を表すものか否かを判別
する判別手段と、前記判別手段により各エッジがいずれ
も対象物の輪郭を表していると判別されたとき、各エッ
ジの抽出位置を用いて対象物の位置および向きを計測す
る計測手段と、前記判別手段により前記エッジ抽出結果
に対象物の輪郭以外のエッジが含まれていると判別され
たとき、前記計測条件設定手段を駆動して対象物の計測
条件を変更する計測条件変更手段とを具備している。An object measuring apparatus according to a sixth aspect of the present invention comprises:
Measurement condition setting means for setting predetermined measurement conditions for measuring the object, image input means for inputting an image obtained by imaging the object under the set measurement conditions, and Edge extracting means for extracting the edge of the edge, determining means for determining whether each edge represents the contour of the object based on the positional relationship of each edge extracted by the edge extracting means, Measuring means for measuring the position and orientation of the object by using the extracted position of each edge when it is determined that any of the edges represents the contour of the object; And measuring condition changing means for driving the measuring condition setting means to change the measuring condition of the object when it is determined that an edge other than the outline is included.
【0010】請求項7の発明にかかる物体計測装置は、
請求項2の方法を実施するためのもので、請求項3の発
明と同様の画像入力手段、エッジ抽出手段のほか、前記
エッジ抽出手段により抽出された各エッジの位置関係に
より対象物の輪郭を表すエッジを選択するエッジ選択手
段、前記エッジ選択手段により選択されたエッジの位置
を用いて対象物の位置および向きを計測する計測手段、
の各手段を具備している。The object measuring apparatus according to the invention of claim 7 is:
In order to carry out the method according to the second aspect, in addition to the image input means and the edge extracting means similar to the third aspect of the invention, the contour of the object is determined by the positional relationship between the edges extracted by the edge extracting means. Edge selecting means for selecting an edge to be represented, measuring means for measuring the position and orientation of the object using the position of the edge selected by the edge selecting means,
Means are provided.
【0011】請求項8の発明は、請求項1の方法をコン
ピュータに実施させるための制御プログラムを記録した
記録媒体にかかるもので、対象物を撮像して得られた画
像上でエッジを抽出するステップ、抽出された各エッジ
の位置関係により、各エッジが対象物の輪郭を表すもの
か否かを判別するステップ、前記判別処理のステップで
各エッジがいずれも対象物の輪郭を表していると判別さ
れたとき、各エッジの抽出位置を用いて対象物の位置お
よび向きを計測するステップ、の各ステップを実施する
ための制御プログラムが記録されている。The invention of claim 8 relates to a recording medium on which a control program for causing a computer to execute the method of claim 1 is recorded, and an edge is extracted from an image obtained by imaging an object. Step, a step of determining whether or not each edge represents the contour of the target object, based on the positional relationship of the extracted edges, and that each edge represents the contour of the target object in the step of the determination processing. When it is determined, a control program for performing each of the steps of measuring the position and orientation of the object using the extracted position of each edge is recorded.
【0012】請求項9の発明は、請求項2の方法をコン
ピュータに実施されるための制御プログラムを記録した
記録媒体にかかるもので、対象物を撮像して得られた画
像上でエッジを抽出するステップ、抽出された各エッジ
の位置関係により、対象物の輪郭を表すエッジを選択す
るステップ、選択されたエッジの位置を用いて対象物の
位置および向きを計測するステップ、の各ステップを実
施するための制御プログラムが記録されている。According to a ninth aspect of the present invention, there is provided a recording medium on which a control program for executing the method of the second aspect on a computer is recorded, and an edge is extracted from an image obtained by imaging an object. Performing the steps of: selecting an edge representing the outline of the target object based on the positional relationship between the extracted edges; and measuring the position and orientation of the target object using the position of the selected edge. A control program for performing the operation is recorded.
【0013】[0013]
【作用】請求項1,3,8の発明では、計測処理に先立
ち、画像上の各エッジの位置関係により、各エッジが対
象物の輪郭を表しているか否かを判別し、各エッジがい
ずれも対象物の輪郭を表していると判別された場合の
み、各エッジの抽出位置を用いた計測処理を実施する。
これによりエッジ抽出結果に本来の計測対象物の輪郭以
外のエッジが含まれていても、対象物の位置や向きを誤
計測する虞はなくなり、計測精度が向上する。According to the first, third and eighth aspects of the present invention, prior to the measurement processing, it is determined whether or not each edge represents the contour of the object based on the positional relationship between the edges on the image. Only when it is determined that the edge also represents the contour of the object, the measurement process using the extraction position of each edge is performed.
Thereby, even if the edge extraction result includes an edge other than the original contour of the measurement target, there is no risk of erroneous measurement of the position or orientation of the target, and the measurement accuracy is improved.
【0014】請求項4の発明では、抽出された各エッジ
により表される物体の大きさにより、また請求項5の発
明では、各エッジにより仮設定される物体の輪郭線によ
り、各エッジが対象物の輪郭を表しているか否かの判別
が可能になる。According to a fourth aspect of the present invention, each edge is targeted by the size of the object represented by each extracted edge, and in the fifth aspect of the present invention, each edge is determined by a contour of the object provisionally set by each edge. It is possible to determine whether or not it represents the outline of an object.
【0015】請求項6の発明では、抽出されたエッジの
中に対象物の輪郭以外のエッジが含まれていると判別さ
れたとき、対象物の計測条件を変更するので、計測条件
によるノイズによりエッジが誤抽出されている場合に対
応できる。According to the sixth aspect of the present invention, when it is determined that an edge other than the contour of the object is included in the extracted edges, the measurement condition of the object is changed. It is possible to cope with a case where an edge is erroneously extracted.
【0016】請求項2,7,9の発明では、画像上の各
エッジの位置関係により対象物の輪郭線を表すエッジを
選択し、選択されたエッジの抽出位置を用いて計測処理
を実施するので、ノイズにあたるエッジを計測対象から
除去して、精度の良い計測処理を行うことができる。According to the second, seventh, and ninth aspects of the present invention, an edge representing the contour of the object is selected based on the positional relationship between the edges on the image, and a measurement process is performed using the selected edge extraction position. Therefore, an edge corresponding to noise can be removed from the measurement target, and highly accurate measurement processing can be performed.
【0017】[0017]
【実施例】図1は、この発明の一実施例にかかる物体計
測装置の構成を示すもので、テレビカメラ1(以下単に
「カメラ1」という),A/D変換器2,D/A変換器
3,モニタ4,画像メモリ5,キャラクタ・グラフィッ
クメモリ6,CPU7,メモリ8,入力部9,出力部1
0,照明制御部11などを構成として含んでいる。FIG. 1 shows a configuration of an object measuring apparatus according to an embodiment of the present invention, in which a television camera 1 (hereinafter simply referred to as "camera 1"), an A / D converter 2, and a D / A converter. Device 3, monitor 4, image memory 5, character / graphic memory 6, CPU 7, memory 8, input unit 9, output unit 1
0, a lighting control unit 11 and the like.
【0018】この物体計測装置は、例えばプリント基板
上の実装部品の検査に用いられるもので、カメラ1によ
り検査対象の基板を撮像して得られた画像を処理して、
部品の実装位置や実装方向を計測する。その計測結果は
モニタ4に表示するなどの方法でオペレータに報知され
る。This object measuring apparatus is used, for example, for inspecting a mounted component on a printed circuit board, and processes an image obtained by capturing an image of the board to be inspected by the camera 1.
Measure the mounting position and mounting direction of components. The measurement result is notified to the operator by a method such as displaying it on the monitor 4.
【0019】前記カメラ1は、図2に示すように、計測
対象の部品に対し、上方位置より撮像を行うように設置
される。またこのカメラ1の撮像領域には、カメラの光
路上に配備されたハーフミラー14とこの光路に直交す
る方向に配備された光源15とによる同軸照明光が照射
される。さらに撮像領域の斜め上方位置には、拡散照明
用の光源16,16が配備される。As shown in FIG. 2, the camera 1 is installed so as to image a component to be measured from an upper position. Further, the imaging area of the camera 1 is irradiated with coaxial illumination light from a half mirror 14 provided on the optical path of the camera and a light source 15 provided in a direction orthogonal to the optical path. Further, light sources 16 and 16 for diffused illumination are provided at a position obliquely above the imaging area.
【0020】図1に戻って、カメラ1により撮像された
アナログ量の画像データは、A/D変換器2に与えられ
てディジタル量の画像データに変換され、画像メモリ5
へと格納される。また前記A/D変換された画像データ
は、画像バス12を介してD/A変換器3に与えられ、
アナログ量のデータに復号された後モニタ4へと出力さ
れる。Returning to FIG. 1, analog image data taken by the camera 1 is supplied to an A / D converter 2 and converted into digital image data.
Is stored in. The A / D converted image data is supplied to the D / A converter 3 via the image bus 12.
After being decoded into analog data, it is output to the monitor 4.
【0021】キャラクタ・グラフィックメモリ6は、モ
ニタ表示用のキャラクタデータやグラフィックデータを
記憶するためのもので、ここでは図3に示す位置指定用
ウィンドウのほか、計測領域を示すウィンドウ,設定デ
ータの入力用のボックスやカーソル画像などを表示する
ためのデータが記憶される。The character / graphic memory 6 is for storing character data and graphic data for monitor display. In this case, in addition to the position designation window shown in FIG. For displaying a user box, a cursor image, and the like.
【0022】前記メモリ8には、あらかじめフロッピィ
ディスクやCD−ROMなどの記憶媒体に記録された制
御プログラムがインストールされるほか、この制御プロ
グラムの実行時に生成される各種データや、基準エッジ
間隔(詳細は後記する)を記憶するための記憶領域を具
備している。制御主体であるCPU7は、CPUバス1
3を介して画像メモリ5にアクセスし、その画像データ
に前記インストールされた制御プログラムに基づく処理
を実行することにより、前記計測処理に関する一連の制
御処理を実施する。In the memory 8, a control program recorded in advance on a storage medium such as a floppy disk or a CD-ROM is installed. In addition, various data generated when the control program is executed, a reference edge interval (details). Has a storage area for storing (described later). The CPU 7, which is the control subject, is a CPU bus 1
By accessing the image memory 5 via the control unit 3 and executing the processing based on the installed control program on the image data, a series of control processing relating to the measurement processing is performed.
【0023】なお入力部9は、処理に先立ち計測領域の
設定データを入力したり、計測結果の確認処理を行う際
などに用いられる。出力部10は、CPU7の指令に応
じて計測結果やエラーメッセージなどを、モニタ4また
は図示しない外部装置などに出力する際に用いられる。
照明制御部11は、CPU7からの指令を受けて、前記
同軸照明用、拡散照明用の各光源15,16の照度を調
整するためのものである。The input unit 9 is used for inputting setting data of a measurement area prior to the processing, performing a process of confirming a measurement result, and the like. The output unit 10 is used when outputting a measurement result, an error message, or the like to the monitor 4 or an external device (not shown) according to a command from the CPU 7.
The illumination control unit 11 is for adjusting the illuminance of each of the light sources 15 and 16 for coaxial illumination and diffuse illumination in response to a command from the CPU 7.
【0024】上記構成の物体計測装置は、カメラ1によ
り取り込んだ対象物の画像上のエッジを抽出した後、抽
出された各エッジが対象物の輪郭を表すものであるか否
かを判定するようにしており、対象物の輪郭を表すエッ
ジのみが抽出されていると判定すると、各エッジの抽出
位置を用いて対象物の位置や向きを計測する。一方、抽
出されたエッジの中に対象物の輪郭以外の成分が含まれ
ると判定したときは、計測処理を中止するとともに、画
像に不備があることを示すエラーメッセージなどを、出
力部10より出力する。The object measuring apparatus having the above configuration extracts edges on the image of the object captured by the camera 1 and then determines whether or not each of the extracted edges represents the contour of the object. When it is determined that only the edge representing the outline of the object is extracted, the position and orientation of the object are measured using the extracted position of each edge. On the other hand, when it is determined that components other than the outline of the object are included in the extracted edges, the measurement process is stopped, and an error message indicating that the image is defective is output from the output unit 10. I do.
【0025】以下、説明を簡単にするために、長方形状
の輪郭を有する対象物を計測する場合を例にとって、エ
ッジ抽出結果の適否を判定するための詳細な手順につい
て説明する。For the sake of simplicity, a detailed procedure for judging the suitability of the edge extraction result will be described below, taking as an example the case of measuring an object having a rectangular contour.
【0026】図3は、エッジ抽出結果の適否を判定する
ための第1の方法を示す。この実施例は、抽出された各
エッジにより表される物体の大きさが対象物の大きさに
合致するか否かにより、エッジ抽出結果の適否を判定す
るようにしたもので、図3(1)は、エッジの抽出結果
を示す2値画像(エッジ画像)を示している。FIG. 3 shows a first method for determining whether or not the result of edge extraction is appropriate. In this embodiment, the suitability of the edge extraction result is determined based on whether or not the size of the object represented by each extracted edge matches the size of the target object. ) Shows a binary image (edge image) showing the result of edge extraction.
【0027】このエッジ画像はモニタ4上に表示される
もので、オペレータにより、各輪郭線毎に、複数のエッ
ジ構成点(図示例では2点)の位置が指定される。This edge image is displayed on the monitor 4, and the operator specifies the positions of a plurality of edge constituent points (two points in the illustrated example) for each contour line.
【0028】このエッジ構成点の指定処理は、前記した
位置指定用のウィンドウ17a,17bを用いて行われ
る。このウィンドウ17a,17bは、図3(2)
(3)に示すように、中心位置に位置合わせ用の+マー
クを有する構成のもので、横方向の輪郭線に対しては図
3(2)に示す縦長形状のウィンドウ17aが、縦方向
の輪郭線に対しては図3(3)に示す横長方向のウィン
ドウ17bが、それぞれ用いられる。The process of designating the edge composing points is performed using the above-described position designation windows 17a and 17b. These windows 17a and 17b are shown in FIG.
As shown in FIG. 3 (3), a vertically long window 17a shown in FIG. 3 (2) is provided for a horizontal contour line in a configuration having a + mark for alignment at the center position. For the contour, a horizontally long window 17b shown in FIG. 3 (3) is used.
【0029】すなわちオペレータが指定すべき点の位置
に前記+マークが重なるようにウィンドウ17a,17
bを位置合わせして確定操作を行うと、CPU7は、前
記+マークが重ねられた座標位置を取り込んで、指定さ
れた点の位置として認識する。なおこの実施例では、図
3(1)に示すように、縦、横各方向とも、ほぼ対向す
る位置にあるエッジ構成点を指定するように、あらかじ
め取り決めてある。That is, the windows 17a, 17a are arranged so that the + mark overlaps the position of the point to be designated by the operator.
When the determination operation is performed by aligning b, the CPU 7 takes in the coordinate position where the + mark is superimposed and recognizes it as the position of the designated point. In this embodiment, as shown in FIG. 3A, it is previously determined that an edge composing point at a position substantially opposite to each other in the vertical and horizontal directions is designated.
【0030】CPU7は、対向する各指定点を組にして
認識した後、y軸方向に対向する各組(E0 ,E2 ),
(E1 ,E3 )については、それぞれy座標値の差分に
よりエッジ間隔D1,D2を算出する。同様にx軸方向
に対応する各組(E4 ,E6),(E5 ,E7 )につい
ては、x座標値の差分によりエッジ間隔D3,D4を算
出する。After recognizing each of the opposing designated points as a set, the CPU 7 recognizes each of the opposing sets (E 0 , E 2 ),
For (E 1 , E 3 ), the edge intervals D1 and D2 are calculated based on the difference between the y coordinate values. Similarly, for each pair (E 4 , E 6 ) and (E 5 , E 7 ) corresponding to the x-axis direction, the edge intervals D 3 and D 4 are calculated from the difference between the x coordinate values.
【0031】前記エッジ間隔D1,D2,D3,D4
は、対象物の縦,横各方向毎の幅長さのサンプリング値
に相当する。前記メモリ8には、前記各サンプリング値
に対応する基準のエッジ間隔MD1,MD2,MD3,
MD4が記憶されており、各エッジ間隔のサンプリング
値Dn(n=1〜4)と対応する基準エッジ間隔MDn
との差が、いずれも所定のしきい値th以内にあれば、
CPU7は、前記輪郭線により表される物体の大きさは
対象物の大きさと等しいと判断して、前記エッジ抽出結
果が適正であるものと認識する。なおこのしきい値th
は、計測対象物の画像が基準とする方向に対し所定角度
傾いている場合を考慮して、所定の許容値をもたせてお
くのが望ましい。The edge intervals D1, D2, D3, D4
Corresponds to the sampling value of the width and length in each of the vertical and horizontal directions of the object. In the memory 8, reference edge intervals MD1, MD2, MD3 corresponding to the respective sampling values are stored.
MD4 is stored, and the sampling value Dn (n = 1 to 4) of each edge interval and the corresponding reference edge interval MDn
Are within a predetermined threshold th,
The CPU 7 determines that the size of the object represented by the outline is equal to the size of the target object, and recognizes that the edge extraction result is appropriate. Note that this threshold th
It is desirable that a predetermined allowable value be given in consideration of a case where the image of the measurement target is inclined at a predetermined angle with respect to the reference direction.
【0032】なお前記基準エッジ間隔MD1〜MD4
は、計測処理に先立ち、対象物を良好な状態でとらえた
モデル画像を装置内に取り込んで、そのエッジを抽出
し、前記図3(1)と同様、所定のエッジ構成点を指定
することにより算出されるが、このほかオペレータによ
り具体的な数値を入力することも可能である。The reference edge intervals MD1 to MD4
Prior to the measurement processing, a model image obtained by capturing a target object in a good state is taken into the apparatus, its edge is extracted, and a predetermined edge composing point is designated in the same manner as in FIG. It is calculated, but it is also possible for the operator to input a specific numerical value.
【0033】また上記実施例では、各エッジ間隔D1〜
D4を求めるためのエッジ構成点をオペレータの手作業
により指定しているが、これに代えてCPU7によりあ
らかじめ定められた位置の近傍にあるエッジ構成点の座
標を自動抽出するようにしてもよい。In the above embodiment, each of the edge intervals D1 to D1
Although the edge composing points for obtaining D4 are manually specified by the operator, the coordinates of the edge composing points near the predetermined position may be automatically extracted by the CPU 7 instead.
【0034】図4は、上記の判定処理を含む計測処理の
一連の手順を示す。まず撮像領域に対象物を位置させた
状態で、前記した同軸照明光や拡散照明光を照射し、カ
メラ1による撮像を実施すると、その画像データは、A
/D変換器2によりディジタル量の画像データに変換さ
れた後、画像メモリ5に格納される(ステップ1)。C
PU7は、このディジタル量の画像を2値化処理した
り、画像上にエッジ抽出用フィルタを走査するなどした
結果を用いて、画像上のエッジを抽出する(ステップ
2)。FIG. 4 shows a series of procedures of the measurement process including the above-described determination process. First, in a state where the object is positioned in the imaging area, the above-described coaxial illumination light or diffuse illumination light is applied to perform imaging by the camera 1, and the image data becomes A
After being converted into digital quantity image data by the / D converter 2, it is stored in the image memory 5 (step 1). C
The PU 7 extracts an edge on the image by using a result of binarizing the image of the digital amount or scanning an edge extraction filter on the image (step 2).
【0035】つぎにこのエッジ抽出結果が前記モニタ4
に表示され、オペレータによる指定操作により各輪郭線
毎のエッジ構成点が指定されると、CPU7は、各指定
位置を用いて、x,y各軸方向毎のエッジ間隔を算出す
る(ステップ3,4)。Next, the result of this edge extraction is
Are displayed, and the edge configuration point for each contour line is designated by the designation operation by the operator, and the CPU 7 calculates the edge interval for each of the x and y axis directions using each designated position (step 3, 4).
【0036】ついでCPU7は、算出された各エッジ間
隔Dnについて、それぞれ対応する基準エッジ間隔MD
nとの差分の絶対値を算出する。この結果、すべての差
分絶対値|Dn−MDn|がしきい値th以下であれ
ば、ステップ5が「YES」となり、CPU7は、前記
ステップ2で抽出された各エッジはいずれも対象物の輪
郭を表すものであると判断してステップ6へと移行す
る。Next, the CPU 7 calculates a reference edge interval MD corresponding to each of the calculated edge intervals Dn.
The absolute value of the difference from n is calculated. As a result, if all the difference absolute values | Dn−MDn | are equal to or smaller than the threshold th, step 5 becomes “YES”, and the CPU 7 determines that each edge extracted in step 2 is the contour of the object. And the process proceeds to step S6.
【0037】ステップ6では、CPU7は、ステップ2
で抽出された各エッジ構成点の座標を最小二乗法にあて
はめるなどして各輪郭線を表す直線の方程式を特定した
後、各直線の交点や傾きなどを算出して対象物の位置や
向きを認識する。この認識結果は、出力部10を介して
モニタ4や外部装置に出力された後、一連の処理が終了
する。In step 6, the CPU 7 executes step 2
After applying the least squares method to the coordinates of each edge component point extracted in step 3, specify the equation of the straight line representing each contour line, calculate the intersection and slope of each straight line, and determine the position and orientation of the object. recognize. After this recognition result is output to the monitor 4 or an external device via the output unit 10, a series of processing ends.
【0038】一方、いずれかのエッジ間隔についての差
分絶対値がしきい値thを上回った場合、CPU7は、
このエッジ間隔のサンプリング位置において、対象物の
輪郭以外のエッジが抽出されているものと判断する。こ
の場合は、ステップ5が「NO」となり、上記の計測処
理は行われずに、エラーメッセージなどの出力処理が行
われる(ステップ7)。On the other hand, when the difference absolute value for any of the edge intervals exceeds the threshold th, the CPU 7
It is determined that an edge other than the contour of the object has been extracted at the sampling position of the edge interval. In this case, step 5 becomes “NO”, and the output processing such as an error message is performed without performing the above-described measurement processing (step 7).
【0039】なお上記実施例では、対象物が長方形状の
輪郭を有する場合を想定しているが、対象物の形状はこ
れに限られるものではない。また実際のIC部品のリー
ドの部分を計測対象とする場合には、エッジ抽出結果か
ら各リードの幅や長さ、もしくはリード間の間隔に該当
するエッジ間隔を算出してその適否を判定することにな
る。In the above embodiment, it is assumed that the object has a rectangular outline, but the shape of the object is not limited to this. When the lead portion of an actual IC component is to be measured, the width and length of each lead or the edge interval corresponding to the interval between leads is calculated from the edge extraction result to determine whether or not it is appropriate. become.
【0040】図5は、エッジ抽出結果の適否を判定する
ための第2の方法を示す。この方法は、上記第1の実施
例と同様、抽出されたエッジの中から各輪郭線毎に2点
以上のエッジ構成点を指定した後、これら指定点の座標
点を用いて、各輪郭線を表す直線L1〜L4を仮設定す
る。FIG. 5 shows a second method for judging whether the result of edge extraction is appropriate. In this method, as in the first embodiment, after specifying two or more edge constituent points for each contour line from the extracted edges, each contour line is designated using the coordinate points of these designated points. Are temporarily set.
【0041】抽出された各エッジが対象物を表すもので
あれば、直線L1とL3,L2とL4は互いに平行にな
り、かつ直線L1とL2とが垂直に交わるはずである。
よって、直線Lm(m=1〜4)を示す方程式をAmx
+Bmy+cm=0とおくと、各直線L1〜L4がつぎ
の(1)〜(3)式の条件を満たす関係にあるとき、抽
出された各エッジは対象物の輪郭を表すものと判定され
る(ただしthp ,thv は、0に近似するしきい値で
ある)。If each extracted edge represents an object, the straight lines L1 and L3, L2 and L4 should be parallel to each other, and the straight lines L1 and L2 should intersect perpendicularly.
Therefore, the equation showing the straight line Lm (m = 1 to 4) is expressed as Amx
When + Bmy + cm = 0 is set, when each of the straight lines L1 to L4 satisfies the conditions of the following equations (1) to (3), it is determined that each extracted edge represents the contour of the target object ( However, th p and th v are threshold values approaching 0).
【0042】[0042]
【数1】 (Equation 1)
【0043】[0043]
【数2】 (Equation 2)
【0044】[0044]
【数3】 (Equation 3)
【0045】図6は、上記の判定処理を含む計測処理の
一連の手順を示す。まず前記第1の実施例と同様、対象
物の画像が取り込まれてエッジ抽出処理がなされた後、
各輪郭線毎に2点以上のエッジ構成点が指定される(ス
テップ1〜3)。つぎにCPU7は、各指定点の座標を
用いて、各輪郭線を表す直線L1〜L4の方程式を仮設
定する(ステップ4)。FIG. 6 shows a series of procedures of the measurement processing including the above-described determination processing. First, similarly to the first embodiment, after the image of the object is captured and edge extraction processing is performed,
Two or more edge constituent points are designated for each contour line (steps 1 to 3). Next, the CPU 7 temporarily sets the equations of the straight lines L1 to L4 representing each contour line using the coordinates of each designated point (step 4).
【0046】つぎにCPU7は、設定された各直線L1
〜L4が前記した(1)〜(3)の条件を満たすか否か
をチェックする。この結果、各条件が成立するとステッ
プ5が「YES」となり、ステップ6で、抽出された各
エッジの位置を用いた計測処理が実施される。Next, the CPU 7 sets each straight line L1
It is checked whether or not L4 satisfies the above conditions (1) to (3). As a result, when each condition is satisfied, step 5 becomes “YES”, and in step 6, measurement processing using the positions of the extracted edges is performed.
【0047】一方、(1)〜(3)式のうち、いずれか
1つでも成立しない条件がある場合には、対象物の輪郭
以外のエッジが抽出されていると判断され、ステップ5
が「NO」となる。この場合は、計測処理は行われずに
ステップ7へと移行し、エラー処理が実施される。On the other hand, if there is a condition in which any one of the expressions (1) to (3) does not hold, it is determined that an edge other than the contour of the object has been extracted, and step 5
Becomes “NO”. In this case, the process proceeds to step 7 without performing the measurement process, and the error process is performed.
【0048】なお画像上のノイズの中には、照明などの
計測条件により発生するものもあるので、抽出されたエ
ッジの中に対象物の輪郭以外の成分が含まれていると判
断された場合には、計測条件を変更して、再度、処理を
やり直すようにしてもよい。Since some of the noises on the image are caused by measurement conditions such as illumination, it is determined that components other than the contour of the object are included in the extracted edges. In such a case, the measurement conditions may be changed, and the processing may be performed again.
【0049】図7は、対象物の輪郭以外のエッジが抽出
されていると判別されたとき、照明条件を変更するよう
にした場合の処理手順を示す。なおここでは、前記第1
の実施例と同様の方法でエッジ抽出結果の判定処理を行
うようにしているが、これに限らず、第2の実施例の同
様の方法を用いるようにしてもよい。FIG. 7 shows a processing procedure when the illumination condition is changed when it is determined that an edge other than the contour of the object has been extracted. In addition, here, the first
Although the judgment processing of the edge extraction result is performed by the same method as that of the second embodiment, the present invention is not limited to this, and a similar method of the second embodiment may be used.
【0050】ステップ1で所定の照明条件下で対象物を
撮像して得られた画像が取り込まれると、以下、前記図
4に示した手順と同様、入力画像に対するエッジ抽出処
理がなされた後、各輪郭線毎のエッジ構成点の指定に応
じてx,y各軸方向毎のエッジ間隔が算出される(ステ
ップ1〜4)。つぎのステップ5で、各エッジ間隔Dn
と基準エッジ間隔MDnとの差分絶対値が順次チェック
され、各差分絶対値がいずれもしきい値th以下であれ
ば、エッジ抽出結果は適正であると判断されて、対象物
の位置および向きの計測処理が実施される(ステップ
6)。When an image obtained by capturing an image of an object under predetermined illumination conditions is captured in step 1, after the edge extraction processing is performed on the input image in the same manner as the procedure shown in FIG. An edge interval for each of the x and y axis directions is calculated according to the designation of an edge constituent point for each contour line (steps 1 to 4). In the next step 5, each edge interval Dn
And the reference edge interval MDn are sequentially checked. If each difference absolute value is equal to or smaller than the threshold th, the edge extraction result is determined to be appropriate, and the position and orientation of the object are measured. Processing is performed (step 6).
【0051】一方、いずれかのエッジ間隔についての差
分絶対値がしきい値thを上回る場合には、CPU7
は、このエッジ間隔のサンプリング位置において対象物
の輪郭以外のエッジが抽出されているものと判断してス
テップ7へと移行し、前記照明制御部を介して照明条件
の変更処理を実施する。なおここで実施する照明条件の
変更は、例えば、同軸照明,拡散照明のいずれか一方の
照明光の照度を固定して他方の照度を所定量だけ変更す
る方法により実施される。On the other hand, when the absolute value of the difference for any edge interval exceeds the threshold value th, the CPU 7
Determines that an edge other than the contour of the object has been extracted at the sampling position of the edge interval, shifts to step 7, and performs a lighting condition changing process via the lighting control unit. The change of the illumination condition performed here is performed by, for example, a method of fixing the illuminance of one of the coaxial illumination and the diffuse illumination and changing the other illuminance by a predetermined amount.
【0052】このようにして照明条件の変更が行われる
と、再びステップ1へと戻り、変更された条件による照
明下での画像が取り込まれて、順次前記と同様の処理が
実施される。この結果、ステップ5の判定が「YES」
となると、ステップ6の計測処理が実施され、処理を終
了する。When the illumination conditions are changed in this way, the process returns to step 1 again, an image under illumination under the changed conditions is captured, and the same processing as described above is sequentially performed. As a result, the determination in step 5 is “YES”
Then, the measurement processing in step 6 is performed, and the processing ends.
【0053】ところで、ここまでの実施例は、抽出され
たエッジが対象物の輪郭を表すものであるか否かを判定
し、各エッジがいずれも対象物の輪郭を表す場合にのみ
計測処理を実施するようにしているが、これに限らず、
抽出されたエッジ構成点の中から対象物の輪郭を表すも
のを選択し、これら選択された点の座標を用いて計測処
理を実施するようにしてもよい。In the embodiments described above, it is determined whether or not the extracted edge represents the outline of the object, and the measurement process is performed only when each edge represents the outline of the object. I am trying to implement, but not limited to this,
The extracted edge constituent points may be selected to represent the outline of the target object, and the measurement processing may be performed using the coordinates of the selected points.
【0054】図8(1)(2)は、上記エッジを選択す
る原理を示すもので、この場合、対象物の各輪郭線毎
に、それぞれ複数個のエッジが指定される。FIGS. 8A and 8B show the principle of selecting the edge. In this case, a plurality of edges are specified for each contour line of the object.
【0055】図8(1)は、前記第1の実施例と同様、
モニタ4上に表示されたエッジ画像上で位置指定用ウィ
ンドウ17a,17bを確定することにより、各輪郭線
毎にそれぞれ5個のエッジ構成点E11〜E15,E21〜E
25,E31〜E35,E41〜E45を指定した例を示す。なお
この実施例では、指定点の数が増えることから、位置指
定用ウィンドウ17a,17bの幅は、前記図3の実施
例よりも小さく設定されている。FIG. 8A shows the same as in the first embodiment.
Monitor 4 position designation window 17a on the displayed edge image on, by determining the 17b, 5 pieces of edge control points E 11 to E 15, respectively for each contour, E 21 to E
Shows an example of specifying a 25, E 31 ~E 35, E 41 ~E 45. In this embodiment, since the number of designated points increases, the width of the position designation windows 17a and 17b is set smaller than that of the embodiment of FIG.
【0056】またここでは説明を簡単にするために、各
輪郭線毎に5個ずつエッジを指定しているが、実際の処
理では、より多数のエッジを指定するのが望ましい。ま
たこの場合も、前述したように、各エッジの位置をCP
U7により自動抽出するように構成してもよい。Here, for simplicity of description, five edges are specified for each contour line, but in actual processing, it is desirable to specify a larger number of edges. Also in this case, as described above, the position of each edge is
The automatic extraction may be performed by U7.
【0057】CPU7は、各輪郭線毎の指定点の座標を
認識した後、これら指定点の座標を最小二乗法にあては
めて、各輪郭線を表す直線L1〜L4の方程式を仮設定
する。さらにCPU7は、この直線L1〜L4を基準と
する各指定点の位置関係により、計測処理に採用するエ
ッジ構成点を選択する。After recognizing the coordinates of the designated points for each contour line, the CPU 7 applies the coordinates of these designated points to the least squares method, and temporarily sets the equations of the straight lines L1 to L4 representing each contour line. Further, the CPU 7 selects an edge composing point to be used in the measurement processing based on the positional relationship between the designated points with reference to the straight lines L1 to L4.
【0058】図8(2)は、前記図8(1)の直線L1
および指定点E11〜E15の部分を拡大して示す。各指定
点E11〜E15は、この直線L1に対する距離が短いもの
から順に選択される。たとえば指定された5点の中から
3点を選択するものとすると、E13,E12,E14の3点
が順に選択され、他の2点E11とE15とはノイズとして
除去される。FIG. 8B shows a straight line L1 in FIG. 8A.
And an enlarged view of a portion of the designated point E 11 to E 15. Each designated point E 11 to E 15, the distance to this straight line L1 is selected from short order. For example, if three points are selected from the designated five points, three points E 13 , E 12 , and E 14 are sequentially selected, and the other two points E 11 and E 15 are removed as noise. .
【0059】図9は、上記の選択処理を組み込んだ場合
の計測処理の手順を示す。なおこの手順を実行するため
には、図1に示した装置構成が必要である。FIG. 9 shows the procedure of the measurement process when the above-described selection process is incorporated. In order to execute this procedure, the device configuration shown in FIG. 1 is required.
【0060】ステップ1で対象物の画像が装置内に取り
込まれ、つぎのステップ2でエッジ抽出処理が行われる
と、続くステップ3でオペレータは、モニタ画面上の指
定すべきエッジ構成点の位置に、順次、位置指定用ウィ
ンドウ17a,17bを確定し、各輪郭線毎に複数個の
エッジ構成点を指定する。CPU7は、指定された各点
の座標を認識した後、輪郭線毎に、各指定点の座標を最
小二乗法にあてはめて輪郭線L1〜L4を表す直線の方
程式を仮設定する(ステップ4)。In step 1, the image of the object is fetched into the apparatus, and in step 2, edge extraction processing is performed. In step 3, the operator moves to the position of the edge composing point to be designated on the monitor screen. Then, the position specifying windows 17a and 17b are sequentially determined, and a plurality of edge constituent points are specified for each contour line. After recognizing the coordinates of each of the designated points, the CPU 7 applies the coordinates of each of the designated points to each contour by the least squares method, and temporarily sets equations of straight lines representing the contours L1 to L4 (step 4). .
【0061】つぎにCPU7は、設定された各直線L1
〜L4毎に、前記図8(2)に示した原理に基づき、各
指定点の直線に対する距離を算出し、距離の短いものか
ら順に、所定数(例えば指定点の数の半数)のエッジ構
成点を選択する(ステップ5)。ついでCPU7は、選
択されたエッジ構成点を用いて各輪郭線を表す直線の方
程式を再設定した後、これら方程式により、各直線の交
点位置や傾きなどを計測して、対象物の位置および向き
を認識する(ステップ6,7)。Next, the CPU 7 sets each straight line L1
Based on the principle shown in FIG. 8 (2), a distance from each specified point to a straight line is calculated for each of L4 to L4. A point is selected (step 5). Next, the CPU 7 resets the equations of the straight lines representing the respective contour lines using the selected edge composing points, and then measures the position of intersection, the inclination, etc. of each straight line with these equations, and calculates the position and orientation of the object. Is recognized (steps 6 and 7).
【0062】なお上記の手順では、エッジ構成点の選択
処理を1度だけ行っているが、多数の点を指定して、複
数回の選択処理を実施するようにすれば、より精度の高
い計測処理を実施することができる。In the above procedure, the selection processing of the edge constituent points is performed only once. However, if a large number of points are specified and the selection processing is performed a plurality of times, more accurate measurement can be performed. Processing can be performed.
【0063】[0063]
【発明の効果】請求項1,3,8の発明では、画像上の
エッジを用いて対象物の位置および向きを計測する場合
に、計測処理に先立ち、各エッジの位置関係によりこれ
らエッジが対象物の輪郭を表しているか否かを判別し、
いずれのエッジも対象物の輪郭を表していると判別され
た場合にのみ、計測処理を実施するようにしたから、本
来の計測対象物の輪郭以外のエッジにより対象物の位置
や向きを誤計測する虞がなくなり、高精度の計測処理を
行うことができる。According to the first, third, and eighth aspects of the present invention, when measuring the position and orientation of an object using edges on an image, these edges are determined by the positional relationship between the edges prior to the measurement processing. Determine whether or not it represents the outline of the object,
The measurement process is performed only when it is determined that both edges represent the outline of the target object.Therefore, the position and orientation of the target object are erroneously measured using edges other than the original outline of the target measurement object. There is no danger of performing the measurement, and highly accurate measurement processing can be performed.
【0064】請求項6の発明では、計測対象物の輪郭以
外のエッジが抽出されていると判別されたとき、対象物
の計測条件を変更するようにしたので、計測条件に起因
するノイズによる誤計測がなくなり、対象物に応じた適
正な画像データを用いて精度の良い計測処理を実施する
ことができる。According to the sixth aspect of the present invention, when it is determined that an edge other than the contour of the measurement target is extracted, the measurement condition of the target is changed. Measurement is eliminated, and accurate measurement processing can be performed using appropriate image data according to the object.
【0065】請求項2,7,9の発明では、画像上の各
エッジの位置関係により対象物の輪郭線を表すエッジを
選択し、これら選択されたエッジを用いて計測処理を実
施するので、ノイズに相当するエッジを計測対象から除
去して、高精度の計測処理を行うことが可能である。According to the second, seventh, and ninth aspects of the present invention, the edge representing the contour of the object is selected based on the positional relationship between the edges on the image, and the measurement process is performed using the selected edge. Edges corresponding to noise can be removed from the measurement target, and highly accurate measurement processing can be performed.
【図1】この発明にかかる物体計測装置の構成を示すブ
ロック図である。FIG. 1 is a block diagram showing a configuration of an object measuring device according to the present invention.
【図2】カメラおよび光源の設置例を示す正面図であ
る。FIG. 2 is a front view showing an example of installation of a camera and a light source.
【図3】エッジ抽出結果の適否の判定方法を示す説明図
である。FIG. 3 is an explanatory diagram showing a method of determining whether or not an edge extraction result is appropriate.
【図4】図3の判定方法を用いた計測処理手順を示すフ
ローチャートである。FIG. 4 is a flowchart illustrating a measurement processing procedure using the determination method of FIG. 3;
【図5】エッジ抽出結果の適否の判定方法を示す説明図
である。FIG. 5 is an explanatory diagram showing a method for determining whether or not an edge extraction result is appropriate.
【図6】図5の判定方法を用いた計測処理手順を示すフ
ローチャートである。FIG. 6 is a flowchart illustrating a measurement processing procedure using the determination method of FIG. 5;
【図7】対象物の輪郭線以外のエッジが抽出されている
と判別された場合に、照明条件を変更するようにした計
測手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a measurement procedure for changing an illumination condition when it is determined that an edge other than a contour of an object is extracted.
【図8】指定されたエッジ構成点を選択する方法を示す
説明図である。FIG. 8 is an explanatory diagram showing a method of selecting a designated edge composing point.
【図9】図8のエッジ選択方法を用いた計測処理手順を
示すフローチャートである。FIG. 9 is a flowchart illustrating a measurement processing procedure using the edge selection method of FIG. 8;
1 カメラ 7 CPU 11 照明制御部 1 camera 7 CPU 11 lighting control unit
Claims (9)
ジの位置を用いて前記対象物の位置および向きを計測す
る方法において、 前記画像上の各エッジの位置関係により、各エッジが対
象物の輪郭を表すものか否かを判別し、各エッジがいず
れも対象物の輪郭を表していると判別したとき、各エッ
ジの位置を用いて前記計測処理を実施することを特徴と
する物体計測方法。1. A method for measuring a position and an orientation of an object using an edge position on an image obtained by imaging the object, wherein each edge is determined by a positional relationship between the edges on the image. It is characterized in that it is determined whether or not each edge represents the outline of the object, and when it is determined that each edge represents the outline of the object, the measurement process is performed using the position of each edge. Object measurement method.
ジの位置を用いて前記対象物の位置および向きを計測す
る方法において、 前記画像上の各エッジの位置関係により対象物の輪郭を
表すエッジを選択し、選択されたエッジ位置のみを用い
て前記計測処理を実施することを特徴とする物体計測方
法。2. A method of measuring a position and an orientation of an object using an edge position on an image obtained by imaging the object, wherein the contour of the object is determined based on a positional relationship of each edge on the image. An object measurement method comprising: selecting an edge representing an image; and performing the measurement process using only the selected edge position.
る画像入力手段と、 前記入力画像上のエッジを抽出するエッジ抽出手段と、 前記エッジ抽出手段により抽出された各エッジの位置関
係により、各エッジが対象物の輪郭を表すものか否かを
判別する判別手段と、 前記判別手段により各エッジがいずれも対象物の輪郭を
表していると判別されたとき、各エッジの抽出位置を用
いて対象物の位置および向きを計測する計測手段とを具
備して成る物体計測装置。3. An image input unit for inputting an image obtained by imaging an object, an edge extracting unit for extracting an edge on the input image, and a positional relationship between the edges extracted by the edge extracting unit. A determining means for determining whether each edge represents the contour of the object, and extracting positions of the edges when the determining means determines that each edge represents the contour of the object. An object measuring device comprising: a measuring unit that measures a position and an orientation of an object by using the object.
り各エッジにより表される物体の大きさを認識し、この
認識された物体の大きさが対象物の大きさに相当すると
き、各エッジがいずれも対象物の輪郭を表していると判
別する請求項3に記載された物体計測装置。4. The discriminating means recognizes a size of an object represented by each edge from an extraction position of each edge, and when the size of the recognized object corresponds to the size of a target object, 4. The object measuring apparatus according to claim 3, wherein each of the edges is determined to represent a contour of the object.
り各エッジにより表される物体の輪郭線を仮設定し、こ
の仮設定された輪郭線が対象物の輪郭形状にかかる所定
の条件を満たすとき、各エッジがいずれも対象物の輪郭
を表していると判別する請求項3に記載された物体計測
装置。5. The discriminating means provisionally sets a contour of an object represented by each edge from an extraction position of each edge, and determines a predetermined condition according to which the provisionally set contour is related to a contour shape of an object. 4. The object measuring device according to claim 3, wherein when the condition is satisfied, each edge is determined to represent the contour of the object.
を設定する計測条件設定手段と、 前記設定された計測条件下で対象物を撮像して得られた
画像を入力する画像入力手段と、 前記入力画像上のエッジを抽出するエッジ抽出手段と、 前記エッジ抽出手段により抽出された各エッジの位置関
係により、各エッジが対象物の輪郭を表すものか否かを
判別する判別手段と、 前記判別手段により各エッジがいずれも対象物の輪郭を
表していると判別されたとき、各エッジの抽出位置を用
いて対象物の位置および向きを計測する計測手段と、 前記判別手段により前記エッジ抽出結果に対象物の輪郭
以外のエッジが含まれていると判別されたとき、前記計
測条件設定手段を駆動して対象物の計測条件を変更する
計測条件変更手段とを具備して成る物体計測装置。6. Measurement condition setting means for setting predetermined measurement conditions for measuring an object, and image input means for inputting an image obtained by imaging the object under the set measurement conditions. An edge extraction unit that extracts an edge on the input image, and a determination unit that determines whether each edge represents an outline of a target object based on a positional relationship between the edges extracted by the edge extraction unit, Measuring means for measuring the position and orientation of the object by using the extracted position of each edge when each of the edges indicates that the contour of the object is determined by the determining means; and An object comprising: a measurement condition changing unit that drives the measurement condition setting unit to change the measurement condition of the object when it is determined that the extraction result includes an edge other than the contour of the object. Measuring apparatus.
る画像入力手段と、 前記入力画像上のエッジを抽出するエッジ抽出手段と、 前記エッジ抽出手段により抽出された各エッジの位置関
係により対象物の輪郭を表すエッジを選択するエッジ選
択手段と、 前記エッジ選択手段により選択されたエッジの位置を用
いて対象物の位置および向きを計測する計測手段とを具
備して成る物体計測装置。7. An image input unit for inputting an image obtained by capturing an image of an object, an edge extracting unit for extracting edges on the input image, and a positional relationship between the edges extracted by the edge extracting unit. Object measuring apparatus comprising: an edge selecting unit that selects an edge representing an outline of an object by using the method; and a measuring unit that measures the position and orientation of the object using the position of the edge selected by the edge selecting unit. .
ジを抽出するステップ、 抽出された各エッジの位置関係により、各エッジが対象
物の輪郭を表すものか否かを判別するステップ、 前記判別処理のステップで各エッジがいずれも対象物の
輪郭を表していると判別されたとき、各エッジの抽出位
置を用いて対象物の位置および向きを計測するステッ
プ、の各ステップを実施するための制御プログラムを記
録した物体計測用の制御プログラムの記録媒体。8. A step of extracting edges on an image obtained by imaging the object, and a step of judging whether each edge represents the outline of the object based on the positional relationship between the extracted edges. Performing each step of measuring the position and orientation of the object using the extracted position of each edge when it is determined in the step of the determination process that each edge represents the contour of the object. Recording medium for a control program for measuring an object, in which a control program for recording is recorded.
ジを抽出するステップ、 抽出された各エッジの位置関係により、対象物の輪郭を
表すエッジを選択するステップ、 選択されたエッジの位置を用いて対象物の位置および向
きを計測するステップ、の各ステップを実施するための
制御プログラムを記録した物体計測用の制御プログラム
の記録媒体。9. A step of extracting an edge on an image obtained by imaging the object, a step of selecting an edge representing an outline of the object based on a positional relationship between the extracted edges, A step of measuring the position and orientation of the target object using the position; a recording medium of a control program for object measurement, which records a control program for performing each step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9322098A JPH11142117A (en) | 1997-11-06 | 1997-11-06 | Object measuring method and its equipment and storage medium of control program for object measurement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9322098A JPH11142117A (en) | 1997-11-06 | 1997-11-06 | Object measuring method and its equipment and storage medium of control program for object measurement |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11142117A true JPH11142117A (en) | 1999-05-28 |
Family
ID=18139903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9322098A Pending JPH11142117A (en) | 1997-11-06 | 1997-11-06 | Object measuring method and its equipment and storage medium of control program for object measurement |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11142117A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006258796A (en) * | 2005-02-21 | 2006-09-28 | Omron Corp | Substrate inspection method and device, inspection logic setting method and device therefor |
US7362900B2 (en) * | 2003-03-18 | 2008-04-22 | Sony Corporation | Apparatus and method for processing images, recording medium, and program |
JP2011095253A (en) * | 2009-09-30 | 2011-05-12 | Fujitsu Ltd | Method, program and apparatus for inspecting consecutive parts |
-
1997
- 1997-11-06 JP JP9322098A patent/JPH11142117A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7362900B2 (en) * | 2003-03-18 | 2008-04-22 | Sony Corporation | Apparatus and method for processing images, recording medium, and program |
JP2006258796A (en) * | 2005-02-21 | 2006-09-28 | Omron Corp | Substrate inspection method and device, inspection logic setting method and device therefor |
JP2011095253A (en) * | 2009-09-30 | 2011-05-12 | Fujitsu Ltd | Method, program and apparatus for inspecting consecutive parts |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100785594B1 (en) | Image process apparatus | |
US6954550B2 (en) | Image processing method and apparatus | |
JP3508369B2 (en) | Image measuring machine | |
KR100821038B1 (en) | Differential comparison inspection method and apparatus thereof | |
US6807288B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
JP2011222636A (en) | Inspection apparatus, inspection method, and defect coordinate correction method | |
JP3472443B2 (en) | Mounted parts inspection equipment | |
JP2004536300A5 (en) | ||
JP2019003575A (en) | Image analysis device and maintenance management method of railroad facility component | |
JPH11142117A (en) | Object measuring method and its equipment and storage medium of control program for object measurement | |
JP2008192741A (en) | Detecting method of electrode pad position and electrode pad position detecting device | |
JP3123275B2 (en) | Inspection data creation method for electronic parts shortage inspection | |
JP2910706B2 (en) | LSI image alignment method | |
JP2961140B2 (en) | Image processing method | |
JP2007104296A (en) | Method, apparatus, and program for measuring resolution | |
JPH0313945A (en) | Mask for manufacturing semiconductor device, its manufacture, its inspection device and its inspection method | |
JP2001258054A (en) | Image quality inspection device and detector for center of gravity of luminance used therefor | |
JP3487963B2 (en) | Inspection method for transparent objects | |
JPS5857780A (en) | Method and device for inspecting printed board | |
JPH0372203A (en) | Checking method of outer appearance of soldering part | |
US6173071B1 (en) | Apparatus and method for processing video data in automatic optical inspection | |
JP4419778B2 (en) | Substrate inspection device, parameter setting method and parameter setting device | |
JPH1183435A (en) | Image processing device and its measurement item inspection method | |
CN117782982A (en) | Control method of panel detection device, panel detection device and electronic equipment | |
US20070031027A1 (en) | Method and system for vertically aligning tile images of an area of interest of an integrated circuit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Effective date: 20060627 Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Effective date: 20060713 Free format text: JAPANESE INTERMEDIATE CODE: A61 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |