JPH11132740A - Image measuring device - Google Patents

Image measuring device

Info

Publication number
JPH11132740A
JPH11132740A JP9310058A JP31005897A JPH11132740A JP H11132740 A JPH11132740 A JP H11132740A JP 9310058 A JP9310058 A JP 9310058A JP 31005897 A JP31005897 A JP 31005897A JP H11132740 A JPH11132740 A JP H11132740A
Authority
JP
Japan
Prior art keywords
edge
point
image
coordinates
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9310058A
Other languages
Japanese (ja)
Other versions
JP3887807B2 (en
Inventor
Osamu Arai
治 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP31005897A priority Critical patent/JP3887807B2/en
Publication of JPH11132740A publication Critical patent/JPH11132740A/en
Application granted granted Critical
Publication of JP3887807B2 publication Critical patent/JP3887807B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect edge of an object to be measured by a simple operation. SOLUTION: When an instruction for a section to be measured with respect to an image is given by a mouse 42b in a state where the image by picture image data 51B stored in a memory 41D is displayed on a display screen of a display 43, the contents of the instruction are input in a program 53B for inputting measuring conditions, and coordinates of an edge point closest to the point given by the instruction by a program 53D for detecting edge and coordinates of edge points of at least two points close to the edge point are detected. Edge elements are recognized based on the coordinates of the edge points of at least three points by a program 53F for recognizing shape to recognize the shape of an object to be measured. In this way, the shape recognition including edge detection of the object to be measured can be done by such a simple operation that sections to be measured are instructed using the mouse 42b.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像計測装置に係
り、更に詳しくは対象物の画像情報から対象物の輪郭上
の複数点を検出し、これに基づいて形状認識やその他の
計測処理を行う画像計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image measuring apparatus, and more particularly, to detecting a plurality of points on an outline of an object from image information of the object, and performing shape recognition and other measurement processing based on the detected points. The present invention relates to an image measurement device for performing.

【0002】[0002]

【従来の技術】工業や医療の分野で用いられる画像計測
装置では、撮像して得た対象物の画像をディスプレイの
表示画面に表示するだけでなく、対象物の画像情報から
対象物の輪郭上の複数点を抽出し、それに基づいて計測
処理を行うようになっている。特に、画像情報から対象
物の輪郭即ちエッジを検出するエッジ検出処理は、画像
から長さ、面積測定等の様々な計測処理を行う前提とな
るので、これらの処理に先立って行う必要がある。
2. Description of the Related Art An image measuring apparatus used in the industrial and medical fields not only displays an image of an object obtained by imaging on a display screen of a display, but also displays an image of the object on the contour of the object based on image information of the object. Are extracted, and measurement processing is performed based on the extracted points. In particular, since the edge detection processing for detecting the contour, ie, the edge, of the target object from the image information is premised on performing various measurement processing such as length and area measurement from the image, it is necessary to perform the processing prior to these processings.

【0003】エッジ検出用の計測処理プログラムの一つ
に、キャリパーツールと呼ばれる計測処理プログラムが
ある。このキャリパーツールでは、対象物の画像のエッ
ジ(輪郭)の一部の上にエッジ検出の対象となる所定の
小さな範囲を設定すると共に、その範囲にあるエッジ上
の点の座標を自動的に検出するようになっている。
[0003] One of the measurement processing programs for edge detection is a measurement processing program called a caliper tool. With this caliper tool, a predetermined small range for edge detection is set on a part of the edge (contour) of the image of the object, and the coordinates of points on the edge in that range are automatically detected. It is supposed to.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
たキャリパーツールによる測定では、オペレータが画面
上に表示されるエッジ検出の対象範囲、位置及び方向を
示すエッジ位置検出領域のマーク(目印)であるキャリ
パを、マウスでつかみ対象物の画像のうち測定したい箇
所に移動し、エッジの方向に応じてキャリパの傾き(方
向)をその都度マウスで指示することにより、エッジ検
出の対象となる上記所定の範囲を画像のエッジ上に設定
する必要があった。このため、キャリパをマウスでつか
む動作や測定箇所への移動、エッジの方向に応じてキャ
リパの方向を変える操作が必要不可欠となり、操作が煩
わしくなる原因となっていた。
However, in the measurement using the above-mentioned caliper tool, the operator uses the caliper which is a mark (mark) of the edge position detection area displayed on the screen and indicating the target range, position and direction of edge detection. Is moved to a position to be measured in the image of the target object with the mouse, and the tilt (direction) of the caliper is designated each time with the mouse in accordance with the direction of the edge, so that the predetermined range to be subjected to edge detection is determined. Must be set on the edge of the image. For this reason, the operation of grabbing the caliper with a mouse, moving to a measurement location, and changing the direction of the caliper in accordance with the direction of the edge become indispensable, which has caused the operation to be cumbersome.

【0005】本発明は、かかる事情の下になされたもの
で、その目的はより簡単な操作でエッジ検出を行うこと
ができる画像計測装置を提供することにある。
The present invention has been made under such circumstances, and an object of the present invention is to provide an image measuring apparatus capable of performing edge detection with a simpler operation.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の発明
は、計測対象物(10)の像を撮像して得られた画像情
報(51B)を用いて前記計測対象物(10)の形状を
計測する画像計測装置であって、前記画像情報を記憶す
るメモリ(41D)と;前記画像情報に対応する画像を
表示画面上に表示する画像表示装置(43)と;前記表
示画面上に表示された画像に対して計測箇所の近傍の点
の指示を入力するための点入力手段(42b、53B)
と;前記メモリ(41D)内の画像情報(51B)に含
まれる各画素の位置情報と階調情報とに基づいて、前記
点入力手段(42b、53B)により指示された点の近
傍に存在する前記対象物(10)の像(10’)のエッ
ジ上の複数点の内所定の条件を満たすエッジ上の点の座
標であるエッジ座標を検出する第1のエッジ検出手段
(53D1 )と;前記エッジ座標が検出された前記エッ
ジ上の点を基準点として含む所定範囲内に前記指示され
た点と前記基準点とを結ぶ方向の複数ラインを設定し、
該複数ラインの前記基準点を含むライン以外の少なくと
も2ラインについて、各ライン毎に前記メモリ内の画像
情報に含まれる各画素の位置情報と階調情報とに基づい
てエッジ上の点の座標を検出する第2のエッジ検出手段
(53D2 )と;前記第1、第2のエッジ検出手段によ
り検出された相互に近接する少なくとも3点のエッジ上
の点の座標に基づき前記3点が属するエッジ要素の種類
を認識することにより、前記計測対象物の少なくとも一
部の形状を認識する形状認識手段(53F)とを有す
る。
According to the first aspect of the present invention, the shape of the measurement object (10) is obtained by using image information (51B) obtained by capturing an image of the measurement object (10). A memory (41D) for storing the image information; an image display device (43) for displaying an image corresponding to the image information on a display screen; and displaying on the display screen Point input means (42b, 53B) for inputting an instruction of a point in the vicinity of the measurement point with respect to the obtained image
Based on the position information and gradation information of each pixel included in the image information (51B) in the memory (41D), and exists near the point designated by the point input means (42b, 53B). First edge detecting means (53D1) for detecting an edge coordinate which is a coordinate of a point on an edge satisfying a predetermined condition among a plurality of points on the edge of the image (10 ') of the object (10); Setting a plurality of lines in a direction connecting the designated point and the reference point within a predetermined range including a point on the edge where the edge coordinates are detected as a reference point,
For at least two lines other than the line including the reference point of the plurality of lines, coordinates of points on an edge are determined for each line based on position information and gradation information of each pixel included in image information in the memory. A second edge detecting means for detecting (53D2); an edge element to which the three points belong based on the coordinates of at least three points on the edges adjacent to each other detected by the first and second edge detecting means; And a shape recognizing means (53F) for recognizing at least a part of the shape of the measurement object by recognizing the type of the object.

【0007】これによれば、メモリに記憶された画像情
報に対応する画像が画像表示装置の表示画面上に表示さ
れた状態で、その画像に対して点入力手段により計測箇
所の近傍の点の指示が入力されると、第1のエッジ検出
手段によりメモリ内の画像情報に含まれる各画素の位置
情報と階調情報とに基づいて、点入力手段により指示さ
れた点の近傍に存在する対象物の像のエッジ上の複数点
の内最近傍に存在するエッジ上の点の座標であるエッジ
座標が検出される。次いで、第2のエッジ検出手段によ
り、エッジ座標が検出されたエッジ上の点を基準点とし
て含む所定範囲内に指示された点と基準点とを結ぶ方向
の複数ラインが設定され、該複数ラインの前記基準点を
含むライン以外の少なくとも2ラインについて、各ライ
ン毎にメモリ内の画像情報に含まれる各画素の位置情報
と階調情報とに基づいてエッジ上の点の座標が検出され
る。そして、形状認識手段により、第1、第2のエッジ
検出手段により検出された相互に近接する少なくとも3
点のエッジ上の点の座標に基づき前記3点が属するエッ
ジ要素の種類を認識することにより、計測対象物の少な
くとも一部の形状が認識される。従って、計測箇所を指
示する点の入力という簡単な操作のみで、計測対象物の
エッジ検出及び形状認識を行うことができる。
According to this, in a state where an image corresponding to the image information stored in the memory is displayed on the display screen of the image display device, the image of the point in the vicinity of the measurement point is input to the image by the point input means. When an instruction is input, an object existing near the point designated by the point input means based on the position information and the gradation information of each pixel included in the image information in the memory by the first edge detection means. Edge coordinates are detected, which are coordinates of points on the edge that is closest to the plurality of points on the edge of the object image. Next, a plurality of lines are set by the second edge detecting means in a direction connecting the designated point and the reference point within a predetermined range including the point on the edge at which the edge coordinates are detected as the reference point, and the plurality of lines are set. For at least two lines other than the line including the reference point, the coordinates of the point on the edge are detected for each line based on the position information and the gradation information of each pixel included in the image information in the memory. Then, by the shape recognizing means, at least three points which are close to each other and detected by the first and second edge detecting means.
By recognizing the type of the edge element to which the three points belong based on the coordinates of the point on the edge of the point, at least a part of the shape of the measurement target is recognized. Therefore, the edge detection and the shape recognition of the measurement target can be performed only by a simple operation of inputting a point indicating a measurement location.

【0008】請求項2に記載の発明は、請求項1に記載
の画像計測装置において、任意の幾何形状の指示を入力
するための計測条件入力手段(42b、42a、53
B)と、前記計測条件入力手段により指示された幾何形
状を求める計測処理をする計測手段(53H)とを更に
有し、該計測手段(53H)は、前記形状認識手段(5
3F)により認識された形状の中から前記指示に対応す
る幾何形状のパラメータを求めることを特徴とする。
According to a second aspect of the present invention, in the image measuring device of the first aspect, measurement condition input means (42b, 42a, 53) for inputting an instruction of an arbitrary geometric shape.
B), and a measuring means (53H) for performing a measuring process for obtaining a geometric shape specified by the measuring condition input means, wherein the measuring means (53H) is provided with the shape recognizing means (5).
The method is characterized in that parameters of a geometric shape corresponding to the instruction are obtained from the shapes recognized by 3F).

【0009】これによれば、計測条件入力手段により任
意の幾何形状の指示を入力すると、計測手段により、形
状認識手段により認識された形状の中から指示に対応す
る幾何形状のパラメータが求められる。従って、任意の
幾何形状の指示を入力するという簡単な操作で、その幾
何形状の計測の結果を得ることができる。
According to this, when an instruction of an arbitrary geometric shape is inputted by the measurement condition input means, the measuring means obtains a parameter of the geometric shape corresponding to the instruction from the shapes recognized by the shape recognizing means. Therefore, a measurement result of the geometric shape can be obtained by a simple operation of inputting an instruction of an arbitrary geometric shape.

【0010】請求項3に記載の発明は、計測対象物(1
0)の像を撮像して得られた画像情報(51B)を用い
て前記計測対象物(10)の形状を計測する画像計測装
置であって、前記画像情報を記憶するメモリ(41D)
と;前記画像情報に対応する画像を表示画面上に表示す
る画像表示装置(43)と;前記表示画面上に表示され
た画像に対して計測箇所の近傍の点の指示を入力するた
めの点入力手段(42b、53B)と;前記メモリ(4
1D)内の画像情報(51B)に含まれる各画素の位置
情報と階調情報とに基づいて、前記点入力手段(42
b、53B)により指示された点の近傍に存在する前記
対象物(10)の像(10’)のエッジ上の複数点の内
所定の条件を満たすエッジ上の点の座標であるエッジ座
標を検出する第1のエッジ検出手段(53D1 )と;前
記エッジ座標が検出された前記エッジ上の点を基準点と
して含む所定範囲内に前記指示された点と前記基準点と
を結ぶ方向の複数ラインを設定し、該複数ラインの前記
基準点を含むライン以外の少なくとも2ラインについ
て、各ライン毎に前記メモリ内の画像情報に含まれる各
画素の位置情報と階調情報とに基づいてエッジ上の点の
座標を検出する第2のエッジ検出手段(53D2 )とを
備え、前記第2のエッジ検出手段(53D2 )は、前記
基準点のエッジ座標及びこれに近接する少なくとも2点
のエッジ上の座標に基づき直線要素を認識し、該直線要
素と、基準点を含む前記指示された点と前記基準点とを
結ぶ方向のライン上に存在する画素の階調変化とに基づ
いて前記直線要素の法線ベクトルを求める機能をも更に
有することを特徴とする。
According to a third aspect of the present invention, the measurement object (1
An image measurement device for measuring the shape of the measurement object (10) using image information (51B) obtained by imaging the image of (0), and a memory (41D) for storing the image information
An image display device (43) for displaying an image corresponding to the image information on a display screen; and a point for inputting an instruction of a point near a measurement point with respect to the image displayed on the display screen. Input means (42b, 53B); and the memory (4
1D) based on the position information and the gradation information of each pixel included in the image information (51B) within the point input means (42).
b, 53B) is an edge coordinate which is a coordinate of a point on an edge which satisfies a predetermined condition among a plurality of points on an edge of the image (10 ′) of the object (10) existing near the point designated by (b). First edge detecting means (53D1) for detecting; a plurality of lines in a direction connecting the designated point and the reference point within a predetermined range including a point on the edge at which the edge coordinates are detected as a reference point; For at least two lines other than the line including the reference point of the plurality of lines, on the edge based on the position information and the gradation information of each pixel included in the image information in the memory for each line. A second edge detecting means (53D2) for detecting the coordinates of the point, wherein the second edge detecting means (53D2) comprises an edge coordinate of the reference point and coordinates on at least two edges near the reference point. Based on A straight line element and a normal line of the straight line element based on the straight line element and a gradation change of a pixel existing on a line in a direction connecting the designated point including the reference point and the reference point. It is characterized by further having a function of obtaining a vector.

【0011】これによれば、メモリに記憶された画像情
報に対応する画像が画像表示装置の表示画面上に表示さ
れた状態で、その画像に対して点入力手段により計測箇
所の近傍の点の指示が入力されると、第1のエッジ検出
手段によりメモリ内の画像情報に含まれる各画素の位置
情報と階調情報とに基づいて、点入力手段により指示さ
れた点の近傍に存在する対象物の像のエッジ上の複数点
の内最近傍に存在するエッジ上の点の座標であるエッジ
座標が検出される。次いで、第2のエッジ検出手段によ
り、エッジ座標が検出されたエッジ上の点を基準点とし
て含む所定範囲内に指示された点と基準点とを結ぶ方向
の複数ラインが設定され、該複数ラインの前記基準点を
含むライン以外の少なくとも2ラインについて、各ライ
ン毎にメモリ内の画像情報に含まれる各画素の位置情報
と階調情報とに基づいてエッジ上の点の座標が検出され
る。また、この場合、基準点を含むエッジが直線、曲線
のいずれであっても、第2のエッジ検出手段(53D2
)により、基準点のエッジ座標及びこれに近接する少
なくとも2点のエッジ上の座標に基づき直線要素(最小
2乗近似による要素)を認識し、かつ該直線要素と基準
点を含む前記指示された点と前記基準点とを結ぶ方向の
ライン上に存在する画素の階調変化(これにより直線要
素の法線ベクトルの概略方向がわかる)とに基づいて前
記直線要素の法線ベクトルを確実に求めることができ
る。
According to this, while an image corresponding to the image information stored in the memory is displayed on the display screen of the image display device, the image of the point in the vicinity of the measurement point is input to the image by the point input means. When an instruction is input, an object existing near the point designated by the point input means based on the position information and the gradation information of each pixel included in the image information in the memory by the first edge detection means. Edge coordinates are detected, which are coordinates of points on the edge that is closest to the plurality of points on the edge of the object image. Next, a plurality of lines are set by the second edge detecting means in a direction connecting the designated point and the reference point within a predetermined range including the point on the edge at which the edge coordinates are detected as the reference point, and the plurality of lines are set. For at least two lines other than the line including the reference point, the coordinates of the point on the edge are detected for each line based on the position information and the gradation information of each pixel included in the image information in the memory. In this case, regardless of whether the edge including the reference point is a straight line or a curve, the second edge detecting means (53D2
) Recognizes a linear element (element by least squares approximation) based on the edge coordinates of the reference point and the coordinates on at least two edges near the reference point, and specifies the specified element including the linear element and the reference point. The normal vector of the linear element is reliably obtained based on the gradation change of the pixel existing on the line in the direction connecting the point and the reference point (the general direction of the normal vector of the linear element can be determined). be able to.

【0012】上記請求項1〜3に記載の各発明におい
て、第1のエッジ検出手段は、メモリ内の画像情報に含
まれる各画素の位置情報と階調情報とに基づいて、指示
された点の最近傍に存在するエッジ上の点の座標である
エッジ座標を検出するものであれば、その検出方法は如
何なる方法であっても良く、例えば、請求項4に記載の
発明の如く、前記第1のエッジ検出手段(53D1 )
は、前記点入力手段により指示された指示点を中心とす
る放射状の複数のサーチ方向のライン上に存在する画素
の位置情報と階調情報とに基づいて複数のエッジ上の点
を検出し、これらの点の内の前記指示点との距離が最短
の点の座標をエッジ座標として検出しても良い。かかる
場合には、指示点を中心とする放射状の複数のサーチ方
向のライン上に存在する画素の位置情報と階調情報とに
基づいて複数のエッジ上の点を検出し、これらの点の内
の前記指示点との距離が最短の点の座標をエッジ座標と
して検出するので、例えば、指示点を中心とする同心円
の半径を徐々に大きくしてエッジ座標を計測する場合等
に比べ、エッジ検出に用いられる画素の数が少なくな
り、迅速なエッジ検出が可能になる。この場合、サーチ
方向を増やすことにより、より精度良く指示点の最近傍
に存在するエッジ上の点の座標を検出できるようにな
る。
In each of the first to third aspects of the present invention, the first edge detecting means designates a designated point based on position information and gradation information of each pixel contained in the image information in the memory. Any method may be used as long as it detects edge coordinates that are coordinates of a point on an edge existing in the vicinity of the edge. For example, as in the invention according to claim 4, 1 edge detecting means (53D1)
Detecting points on a plurality of edges based on position information and gradation information of pixels existing on a plurality of radial lines in the search direction centered on the point indicated by the point input means, The coordinates of the point having the shortest distance from the designated point among these points may be detected as the edge coordinates. In such a case, points on a plurality of edges are detected based on position information and gradation information of pixels present on a plurality of radial lines in the search direction centered on the designated point, and among these points, Since the coordinates of the point having the shortest distance from the designated point are detected as edge coordinates, for example, the edge detection is performed in comparison with the case where the radius of a concentric circle centered on the designated point is gradually increased to measure the edge coordinates. , The number of pixels used is reduced, and rapid edge detection becomes possible. In this case, by increasing the search direction, it becomes possible to more accurately detect the coordinates of a point on the edge that is closest to the designated point.

【0013】あるいは、請求項5に記載の発明の如く、
前記第1のエッジ検出手段(53D1 )は、点入力手段
により指示された点を中心とする所定の矩形範囲(R)
内に行方向及び列方向の複数ラインを設定し、前記行方
向及び列方向のそれぞれについて、前記指示された点を
含むラインと、該ライン以外の少なくとも2ラインにつ
いて、各ライン毎に前記メモリ内の画像情報に含まれる
各画素の位置情報と階調情報とに基づいてエッジ上の点
の座標を検出し、これらの点の内の前記指示された点と
の距離が最短の点の座標をエッジ座標とするようにして
も良い。
Alternatively, as in the invention described in claim 5,
The first edge detecting means (53D1) has a predetermined rectangular area (R) centered on the point designated by the point input means.
A plurality of lines in the row direction and the column direction are set in the memory, and in each of the row direction and the column direction, a line including the designated point, and at least two lines other than the line, are stored in the memory for each line. The coordinates of the point on the edge are detected based on the position information and the gradation information of each pixel included in the image information, and the coordinates of the point having the shortest distance from the designated point among these points are determined. Edge coordinates may be used.

【0014】請求項6に記載の発明は、計測対象物(1
0)の像を撮像して得られた画像情報(51B)を用い
て前記計測対象物の形状を計測する画像計測装置であっ
て、前記画像情報(51B)を記憶するメモリ(41
D)と;前記画像情報に対応する画像を表示画面上に表
示する画像表示装置(43)と;前記画面上に表示され
るエッジ検出の対象範囲、位置及び方向を示すマーク
(S)を所望の位置に移動させるためのマーク位置移動
手段(53J,42b)と;前記マーク(S)の移動に
伴い、前記マークによるエッジ検出の対象範囲内に含ま
れるエッジ上の点の座標をリアルタイムで求めるリアル
タイム検出手段(53H)とを有する。
According to a sixth aspect of the present invention, the measuring object (1
An image measurement device for measuring the shape of the measurement object using image information (51B) obtained by imaging the image of (0), wherein the memory (41) stores the image information (51B).
D); an image display device (43) for displaying an image corresponding to the image information on a display screen; and a mark (S) indicating the target range, position and direction of edge detection displayed on the screen. Mark position moving means (53J, 42b) for moving the mark (S) to the position of the mark (S); with the movement of the mark (S), the coordinates of a point on an edge included in the target range of edge detection by the mark are obtained in real time. Real-time detection means (53H).

【0015】これによれば、マークの移動に伴って、リ
アルタイム検出手段により、マークによるエッジ検出の
対象範囲内に含まれるエッジ上の点の座標がリアルタイ
ムで求められる。このため、このリアルタイムに求めら
れたエッジ上の点の座標を画面上に表示せることによ
り、マーク内にあるエッジ座標の位置を直ちに認識でき
るようになる。ここで、エッジ座標は、任意の点を原点
とする直交座標(X,Y)、極座標(r,θ)の何れで
あっても良い。
According to this, as the mark moves, the coordinates of a point on the edge included in the target range of the edge detection by the mark are obtained in real time by the real-time detecting means. Therefore, by displaying the coordinates of the point on the edge obtained in real time on the screen, the position of the edge coordinate in the mark can be immediately recognized. Here, the edge coordinates may be any of orthogonal coordinates (X, Y) and polar coordinates (r, θ) with an arbitrary point as the origin.

【0016】この場合において、請求項7に記載の発明
の如く、前記リアルタイム検出手段(53H)は、前記
マークの移動中に、前記エッジ検出の対象領域の範囲内
に含まれるエッジ上の点の座標に基づいて、前記計測対
象物の輪郭上の複数点間の距離、任意に選んだ直線への
垂線の長さあるいは任意に選んだ点との距離、若しくは
該任意に選んだ点を端点としてそれぞれ含む任意に選ん
だ直線と前記エッジ上の点を通る直線とが成す角度をリ
アルタイムで求める機能を更に有していることが望まし
い。この場合、エッジ検出の対象範囲内にある対象物の
輪郭上の点であるエッジ点相互間の距離や、任意に選ん
だ直線への垂線の長さあるいは任意に選んだ点との距
離、若しくは該任意に選んだ点を端点としてそれぞれ含
む任意に選んだ直線と前記エッジ上の点を通る直線とが
成す角度がリアルタイムで算出される。このため、マー
クを移動させるだけで、対象物の画像に基づく種々の計
測を自動的に行なうことができる。特に、任意に選んだ
点との距離、若しくは該任意に選んだ点を端点としてそ
れぞれ含む任意に選んだ直線と前記エッジ上の点を通る
直線とが成す角度の測定は、例えば前記の任意に選んだ
点を原点とする極座標を用いて行うようにしても良い。
In this case, as in the invention according to claim 7, the real-time detection means (53H) detects a point on an edge included in a range of the edge detection target area during the movement of the mark. Based on the coordinates, the distance between a plurality of points on the contour of the measurement object, the length of a perpendicular to an arbitrarily selected straight line or the distance to an arbitrarily selected point, or the arbitrarily selected point as an end point It is desirable to further have a function of obtaining an angle formed by an arbitrarily selected straight line including each of the straight lines and a straight line passing through the point on the edge in real time. In this case, the distance between edge points that are points on the outline of the object within the target range of edge detection, the length of a perpendicular to an arbitrarily selected straight line, or the distance to an arbitrarily selected point, or An angle formed by an arbitrarily selected straight line including the arbitrarily selected point as an end point and a straight line passing through a point on the edge is calculated in real time. Therefore, various measurements based on the image of the target object can be automatically performed only by moving the mark. In particular, the measurement of the distance between the arbitrarily selected point or the angle formed by the arbitrarily selected straight line including the arbitrarily selected point as an end point and the straight line passing through the point on the edge, for example, the arbitrary It is also possible to use polar coordinates with the selected point as the origin.

【0017】あるいは、請求項8に記載の発明の如く、
前記リアルタイム検出手段(53H)は、前記座標を求
めたエッジ上の点の法線ベクトルをリアルタイムで求
め、前記移動中の前記マークの角度を前記法線ベクトル
と同方向にして前記画面上にリアルタイムに表示する機
能を更に有していても良い。
Alternatively, as in the invention described in claim 8,
The real-time detecting means (53H) obtains, in real time, a normal vector of a point on the edge for which the coordinates have been obtained, sets the angle of the moving mark in the same direction as the normal vector, and displays the mark on the screen in real time. May be further provided.

【0018】この場合、マークを法線ベクトルと同方向
にして画面上にリアルタイムに表示するので、どの方向
で計測を行っているかを容易に把握できる。さらに、エ
ッジ上の点を高精度に検出することができる。
In this case, the mark is displayed in real time on the screen in the same direction as the normal vector, so that it is easy to know in which direction the measurement is being performed. Further, points on the edge can be detected with high accuracy.

【0019】[0019]

【発明の実施の形態】以下、本発明の一実施形態を図1
ないし図12に基づいて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIG.
This will be described with reference to FIG.

【0020】図1には、一実施形態に係る画像計測装置
の全体構成が概略的に示されている。この図1の画像計
測装置は、計測対象物(以下、「対象物」という)10
の像を撮像して得られた画像情報である画像データを用
いて対象物10の形状等を計測する装置であり、撮像ユ
ニット20と、光源ユニット60と、インターフェイス
ユニット30と、ホストコンピュータ40とを備えてい
る。
FIG. 1 schematically shows the entire configuration of an image measuring apparatus according to one embodiment. The image measuring apparatus shown in FIG. 1 includes a measuring object (hereinafter, referred to as an “object”) 10
Is a device that measures the shape and the like of the target object 10 using image data that is image information obtained by capturing an image of the imaging device 20, the imaging unit 20, the light source unit 60, the interface unit 30, the host computer 40, and the like. It has.

【0021】前記撮像ユニット20は、対象物10(例
えば、機械部品や半導体チップや液晶ディスプレイパネ
ル、生物・生体試料など)を撮像するための構成部分で
ある。この撮像ユニット20は、対象物10を載置して
ベース21上を2次元移動可能なXYステージ22と、
XYステージ22の上方に配置され、ベース21上に植
設された支柱23に固定された光学系ユニット24とを
備えている。
The image pickup unit 20 is a component for picking up an image of an object 10 (for example, a mechanical component, a semiconductor chip, a liquid crystal display panel, or a biological or biological sample). The imaging unit 20 includes an XY stage 22 on which the object 10 is placed and which can move two-dimensionally on a base 21;
An optical system unit 24 is disposed above the XY stage 22 and is fixed to a support 23 implanted on the base 21.

【0022】これをさらに詳述すると、XYステージ2
2は、ベース21上をY方向(図1における紙面直交方
向)に移動するYステージ22Yと、このYステージ2
2Y上をY方向に直交するX方向(図1における紙面内
左右方向)に移動可能なXステージ22Xとを備えてい
る。この内、Xステージ22X上に対象物10が載置さ
れている。Yステージ22Y、Xステージ22Xは、後
述するインターフェイスユニット30内の制御部31に
よって制御される不図示のリニアアクチュエータを含む
駆動系により駆動されるようになっている。また、Yス
テージ22Y、Xステージ22Xの位置は、不図示のレ
ーザ干渉計あるいはエンコーダ等の位置検出装置によっ
て計測されるようになっており、この位置検出装置の出
力信号が制御部31及びこれを介してホストコンピュー
タ40に送出されるようになっている。
This will be described in more detail.
Reference numeral 2 denotes a Y stage 22Y that moves on the base 21 in the Y direction (a direction perpendicular to the plane of FIG. 1),
And an X stage 22X that is movable in the X direction orthogonal to the Y direction on the 2Y (in the horizontal direction in FIG. 1). The object 10 is placed on the X stage 22X. The Y stage 22Y and the X stage 22X are driven by a drive system including a linear actuator (not shown) controlled by a control unit 31 in the interface unit 30 described later. Further, the positions of the Y stage 22Y and the X stage 22X are measured by a position detecting device such as a laser interferometer or an encoder (not shown). The data is transmitted to the host computer 40 via the host computer 40.

【0023】光学系ユニット24内には、対象物10の
像を結像面に結像させる対物レンズ等の光学系25、光
学系25の結像面に配置されたCCDカメラ26、落射
照明用光学系27等が収容されている。CCDカメラ2
6は、光学系25によって結像面に結像された対象物1
0の像を撮像して撮像信号(電気信号)を後述するイン
ターフェイスユニット30内の撮像制御部32に出力す
る。このCCDカメラ26は、ホストコンピュータ40
からの制御信号(コマンド)に基づき後述するインター
フェイスユニット30内の撮像制御部32によって撮像
可能状態、撮像停止状態などが制御される。なお、対象
物10の撮像装置としては、CCDカメラの他、撮像管
を用いても良く、あるいは非常に大きな画素数の撮像を
する場合は1次元撮像素子(いわゆるラインセンサ)を
用いることも可能である。後者のラインセンサを用いる
場合には、XYステージ22を移動させ、対象物10と
ラインセンサとを相対移動させながら順次対象物の画像
を1ラインづつ読み取るようにして撮像を行う必要があ
る。
An optical system unit 24 includes an optical system 25 such as an objective lens for forming an image of the object 10 on an image forming surface, a CCD camera 26 disposed on the image forming surface of the optical system 25, and an epi-illumination device. The optical system 27 and the like are housed. CCD camera 2
6 is an object 1 imaged on an image plane by the optical system 25
It captures an image of 0 and outputs an imaging signal (electric signal) to an imaging control unit 32 in the interface unit 30 described later. The CCD camera 26 includes a host computer 40
The imaging control unit 32 in the interface unit 30 described later controls an imaging enabled state, an imaging stop state, and the like based on a control signal (command) from the CPU. As an image pickup device for the object 10, an image pickup tube other than a CCD camera may be used, or a one-dimensional image pickup device (a so-called line sensor) may be used when picking up an image with a very large number of pixels. It is. In the case of using the latter line sensor, it is necessary to move the XY stage 22 so as to sequentially read the image of the object one line at a time while relatively moving the object 10 and the line sensor.

【0024】また、撮像ユニット20では、ベース21
の内部に透過照明用光学系28が設けられている。そし
て、後述する光源ユニット60内の不図示の光源からの
光によって対象物10が前記落射照明用光学系27を介
して図1の上方から落射照明、又は透過照明用光学系2
8を介して下方からの透過照明で照明され、光学系ユニ
ット24内の光学系25によって結像面に対象物10の
像が結像されるようになっている。
In the imaging unit 20, the base 21
Is provided with a transmission illumination optical system 28. Then, the target object 10 is irradiated with light from a light source (not shown) in the light source unit 60, which will be described later, from above in FIG.
The light is illuminated by transmitted light from below through the optical system 8, and an image of the object 10 is formed on an image forming plane by the optical system 25 in the optical system unit 24.

【0025】前記光源ユニット60は、光ファイバなど
を介して撮像ユニット20に落射又は透過の照明光を出
力するものであり、光源を含み光量が調節可能な調光装
置とこの調光装置からの光を前記光ファイバに導くため
の光学系とを有する。また、落射照明、透過照明の選択
及びこれらの光の光量の調整は後述するインターフェイ
スユニット30内部の制御部31によって制御されるよ
うになっている。
The light source unit 60 outputs incident or transmitted illumination light to the image pickup unit 20 via an optical fiber or the like. The light source unit 60 includes a light source and is capable of adjusting the amount of light. An optical system for guiding light to the optical fiber. The selection of the epi-illumination and the transmitted illumination and the adjustment of the light amounts of these lights are controlled by a control unit 31 inside the interface unit 30 described later.

【0026】インターフェイスユニット30は、制御部
31、撮像制御部32を含んで構成されている。制御部
31は、ホストコンピュータ40からの制御信号を受け
てXYステージ22のリニアアクチュエータを制御して
XYステージ22を移動させたり、落射照明、透過照明
を選択したり、光源ユニット60から出力される光の光
量を制御するための構成部分であり、マイクロプロセッ
サとそのファームウェアで構成される。
The interface unit 30 includes a control unit 31 and an imaging control unit 32. The control unit 31 receives a control signal from the host computer 40, controls the linear actuator of the XY stage 22 to move the XY stage 22, selects epi-illumination, transmission illumination, and outputs from the light source unit 60. This is a component for controlling the amount of light, and is composed of a microprocessor and its firmware.

【0027】撮像制御部32は、前述の如く、ホストコ
ンピュータ40からの制御信号(コマンド)に基づきC
CDカメラ26の撮像可能状態、撮像停止状態を制御し
たり、CCDカメラ26からの撮像信号を、白黒256
階調でA/D変換して画像データ(1画素について1バ
イト)としてホストコンピュータ40に出力する。
As described above, the imaging control unit 32 controls the C based on the control signal (command) from the host computer 40.
It controls the image capturing enabled state and the image capturing stopped state of the CD camera 26, and converts the image capturing signal from the CCD camera 26 into a monochrome 256
A / D conversion is performed with the gradation, and the image data is output to the host computer 40 as image data (one byte per pixel).

【0028】前記ホストコンピュータ(以下、適宜「コ
ンピュータ」という)40は、本実施形態ではマウスな
どのポインティングデバイスによる操作が可能な所定の
オペレーティングシステムで動作するパーソナルコンピ
ュータを用いて構成され、コンピュータ本体41に入力
デバイスであるキーボード42a,マウス42bと画像
表示装置としてのディスプレイ43とを接続した構成に
なっている。
In the present embodiment, the host computer (hereinafter, referred to as a “computer”) 40 is configured using a personal computer that operates on a predetermined operating system that can be operated by a pointing device such as a mouse. And a keyboard 42a and a mouse 42b as input devices and a display 43 as an image display device.

【0029】コンピュータ本体41は、マイクロプロセ
ッサ41B、メモリ41D、キーボード42a,マウス
42bを接続するためのキーボードインターフェイス
(キーボードコントローラ)41H、ディスプレイ43
を接続するためのビデオインターフェイス41J、シリ
アルインターフェイス41L、ハードディスク41P及
び画像入力ボード41Rを有している。
The computer main body 41 includes a microprocessor 41B, a memory 41D, a keyboard interface (keyboard controller) 41H for connecting a keyboard 42a and a mouse 42b, and a display 43.
, A video interface 41J, a serial interface 41L, a hard disk 41P, and an image input board 41R.

【0030】マイクロプロセッサ41Bはハードディス
ク41Pに格納された制御プログラムをメモリ41Dに
ロードしてプログラムを起動させることによって、シリ
アルインターフェイス(RS232C)41Lを介して
インターフェイスユニット30の制御部31に制御信号
を送ってXYステージ22のリニアアクチュエータの制
御、光学系25の倍率制御、光量制御等を行うようにな
っており、これらの設定はハードディスク41Pに記憶
できるようになっている。また、マイクロプロセッサ4
1Bは、画像入力ボード41R及び撮像制御部32を介
してCCDカメラ26の撮像の制御を行うとともに、C
CDカメラ26からの撮像信号が撮像制御部32でA/
D変換されて得られる画像データ51Bをメモリ41D
に転送し予め用意している配列を用いて各画素の画像デ
ータを配列要素として記憶するようになっている。従っ
て、メモリ41D内には、各画素の256階調の階調情
報と位置情報(配列の情報)とを含む画像情報としての
画像データが記憶されることになる。
The microprocessor 41B loads a control program stored in the hard disk 41P into the memory 41D and starts the program, thereby transmitting a control signal to the control unit 31 of the interface unit 30 via the serial interface (RS232C) 41L. Controls the linear actuator of the XY stage 22, the magnification control of the optical system 25, the light amount control, and the like. These settings can be stored in the hard disk 41P. The microprocessor 4
1B controls imaging by the CCD camera 26 via the image input board 41R and the imaging control unit 32, and
The imaging signal from the CD camera 26 is A / A
The image data 51B obtained by the D conversion is stored in a memory 41D.
The image data of each pixel is stored as an array element using an array prepared in advance. Therefore, in the memory 41D, image data as image information including 256-level gradation information of each pixel and position information (array information) is stored.

【0031】前記ハードディスク41Pには、エッジ
(輪郭)検出、ピッチ測定など測定対象物10の画像デ
ータに対して様々な画像処理・計測処理を行う様々なプ
ログラムが格納されており、マイクロプロセッサ41B
ではこれらのプログラムをメモリ41Dにロードしてプ
ログラムを起動させることによって画像処理・計測処理
を行うようになっている。
The hard disk 41P stores various programs for performing various image processing / measurement processing on image data of the measuring object 10, such as edge (contour) detection and pitch measurement, and includes a microprocessor 41B.
In this example, the image processing / measurement processing is performed by loading these programs into the memory 41D and starting the programs.

【0032】また、マイクロプロセッサ41Bは、ビデ
オインターフェイス41Hに制御コマンドを送るととも
に、メモリ41D内の画像データ51Bや画像処理・計
測処理の結果の情報をビデオインターフェイス41Jを
介してディスプレイ43に転送して対象物10の画像や
画像処理・計測処理の結果をディスプレイ43の表示画
面の所定の領域(ウィンドウ)に表示する。
The microprocessor 41B sends a control command to the video interface 41H and transfers image data 51B in the memory 41D and information on the result of image processing / measurement processing to the display 43 via the video interface 41J. The image of the object 10 and the result of the image processing / measurement processing are displayed in a predetermined area (window) on the display screen of the display 43.

【0033】図1には、メモリ41Dに、画像データ5
1Bが記憶されるとともに、計測条件入力のためのプロ
グラム53B、エッジ検出のためのプログラム53D、
形状認識のためのプログラム53F、計測のためのプロ
グラム53H、マーク位置移動のためのプログラム53
J及びオペレーティングシステム53Lがロードされた
状態が示されている。エッジ検出のためのプログラム5
3Dは、詳細を後述する第1のエッジ検出プログラム5
3D1 と第2のエッジ検出プログラム53D2と第3の
エッジ検出プログラム53D3 とを含んでいる。上記各
プログラムは、それぞれを一つの実行モジュール(ある
いは実行ファイル)で構成することが勿論できるが、任
意の複数を一つの実行モジュールで構成したり、全てを
単一の実行モジュールで構成することも可能である。ど
のような構成にするかは、オペレーティングシステム、
開発言語等に基づいて決定すれば良い。なお、オペレー
ティングシステム53Lに表示管理機能、入出力管理機
能等の管理機能がある場合、各プログラムはこの機能を
呼び出して表示、入出力等を行う。
In FIG. 1, the image data 5 is stored in the memory 41D.
1B is stored, a program 53B for inputting measurement conditions, a program 53D for edge detection,
Program 53F for shape recognition, program 53H for measurement, program 53 for mark position movement
The state where J and the operating system 53L are loaded is shown. Program 5 for edge detection
3D is a first edge detection program 5 which will be described in detail later.
3D1, a second edge detection program 53D2, and a third edge detection program 53D3. Of course, each of the above programs can be constituted by one execution module (or execution file). However, any of a plurality of programs can be constituted by one execution module or all can be constituted by a single execution module. It is possible. The configuration depends on the operating system,
What is necessary is just to determine based on a development language etc. When the operating system 53L has management functions such as a display management function and an input / output management function, each program calls this function to perform display, input / output, and the like.

【0034】上記各プログラムを用いて様々な処理を行
う点が本実施形態の特徴であるので、以下、これらのプ
ログラムについて簡単に説明する。
The feature of the present embodiment is that various processes are performed using the above-described programs, and therefore, these programs will be briefly described below.

【0035】計測条件入力のためのプログラム53B
は、ディスプレイ43の表示画面上に計測条件のメニュ
ー(タスクバーやツールバー、ツールボックスなどで表
示される)及びメモリ41D内の画像データ51Bの画
像が表示された状態において、マウス42b(又はキー
ボード42a)の操作によりマウスカーソル(又はグラ
フィックカーソル、カーソル)の位置を検出することに
よって、光学系25の倍率、透過照明/落射照明の選
択、照明光量の調整等の計測条件やディスプレイ43の
表示画面に表示された画像上に対して計測箇所の指示や
エッジ検出処理、幾何形状の計測処理の指示その他の計
測条件を入力するためのプログラムである。本実施形態
では、上記のマウス42b(及びキーボード42a)及
び計測条件入力のためのプログラム53Bによって、点
入力手段及び計測条件入力手段が実現されている。
Program 53B for inputting measurement conditions
The mouse 42b (or the keyboard 42a) is displayed when a menu of measurement conditions (displayed by a task bar, a toolbar, a tool box, or the like) on the display screen of the display 43 and an image of the image data 51B in the memory 41D are displayed. By detecting the position of the mouse cursor (or graphic cursor, cursor) by the operation of, the measurement conditions such as the magnification of the optical system 25, selection of transmitted illumination / epi-illumination, adjustment of the illumination light amount, and the display on the display screen of the display 43 This is a program for inputting an instruction of a measurement place, an instruction of an edge detection process, an instruction of a measurement process of a geometric shape, and other measurement conditions on the obtained image. In the present embodiment, a point input unit and a measurement condition input unit are realized by the mouse 42b (and the keyboard 42a) and the program 53B for inputting measurement conditions.

【0036】第1のエッジ検出プログラム53D1 は、
ディスプレイ43の表示画面上に表示された計測条件の
メニューの内のエッジ検出処理を指示することにより起
動し、キーボード42a、マウス42b等の入力デバイ
スにより点(測定開始点)の指示とともに第1の検出モ
ード又は第2の検出モードの選択がなされ、それらの指
示、選択内容が計測条件入力のためのプログラム53B
で入力された場合に、前記モードの選択に応じてそれぞ
れ次のような処理を実行するプログラムである。すなわ
ち、このプログラム53D1 は、第1の検出モード、す
なわちベクトルサーチのモードが選択された場合に、そ
の指示された点の近傍に存在するエッジ上の点の内、所
定の条件を満たす点、例えば最近傍に存在するエッジ上
の点(対象物10の画像の輪郭上の1点:以下、適宜
「エッジ点」、「エッジ位置」あるいは「エッジの位
置」という)の座標を後述するベクトルサーチによりメ
モリ41D内の対象物10の画像データ51B(この画
像データには、各画素についての256階調の階調情報
と位置情報とが含まれる)に基づいて検出し、また、第
2の検出モード、すなわちエリアサーチのモードが選択
された場合に、その指示された点を中心とする所定の範
囲内について後述するエリアサーチを行い、その所定の
範囲内の対象物10の画像データに基づいて前記指示さ
れた点の最近傍に存在するエッジ点の座標を検出するプ
ログラムである。前記所定の条件は、最近傍の他、最も
シャープなエッジ上、明から暗に変化するエッジ上、暗
から明に変化するエッジ上、マニュアル指定されたエッ
ジ上等の条件とすることができる。
The first edge detection program 53D1 is
It is activated by instructing an edge detection process in a menu of measurement conditions displayed on the display screen of the display 43, and is input with a point (measurement start point) by an input device such as a keyboard 42a and a mouse 42b. The detection mode or the second detection mode is selected, and the instructions and the selected contents are stored in a program 53B for inputting measurement conditions.
The following programs are respectively executed in accordance with the selection of the mode when the input is made by the user. That is, when the first detection mode, that is, the vector search mode is selected, the program 53D1 is a point that satisfies a predetermined condition among the points on the edge existing near the designated point, for example, The coordinates of the nearest point on the edge (one point on the contour of the image of the object 10; hereinafter, appropriately referred to as an “edge point”, an “edge position”, or an “edge position”) are obtained by a vector search described later. Detection is performed based on image data 51B of the object 10 in the memory 41D (this image data includes 256-level gradation information and position information for each pixel), and a second detection mode. That is, when the area search mode is selected, an area search described later is performed for a predetermined range centered on the designated point, and an object within the predetermined range is searched. Based on 0 image data is a program that detects the coordinates of the edge points existing closest to a point that is the instruction. The predetermined condition may be, for example, on the sharpest edge, on the edge changing from light to dark, on the edge changing from dark to light, or on the manually designated edge, in addition to the nearest neighbor.

【0037】このプログラム53D1 では第1の検出モ
ードの場合、指示された指示点を中心とする複数の検出
方向の直線を用いてエッジを検出し、指示点の最近傍の
エッジ点の座標をエッジ座標として検出する(ベクトル
サーチを行う)。また、第2の検出モードの場合、前記
指示された点を中心とする所定範囲内で検出して見つか
ったエッジ点の内、その範囲内の指示された点の最近傍
のエッジ点の座標をエッジ座標とするようにしてエッジ
の検出を行う。また、本実施形態の場合、このエッジの
検出の際に、画像データ51Bの各画素の階調情報を微
分することにより、エッジ点を検出するか、画像データ
51Bの各画素を白黒2値化してエッジ点を検出するか
の設定が可能になっている。
In the first detection mode, the program 53D1 detects edges using a plurality of straight lines in a plurality of detection directions centered on the designated designated point, and determines the coordinates of the nearest edge point to the designated point. Detect as coordinates (perform vector search). In the case of the second detection mode, among the edge points detected and detected within a predetermined range centered on the specified point, the coordinates of the edge point closest to the specified point within the range are determined. Edge detection is performed by using the edge coordinates. Further, in the case of the present embodiment, at the time of detecting the edge, the edge point is detected by differentiating the gradation information of each pixel of the image data 51B, or each pixel of the image data 51B is binarized into black and white. It is possible to set whether edge points are detected.

【0038】第2のエッジ検出プログラム53D2 は、
第1のエッジ検出プログラム53D1 の終了によって起
動する。このプログラム53D2 では前記検出モード及
び設定がいずれの場合でも、メモリ41D内の画像デー
タが示す各画素の位置情報と階調情報とに基づいてエッ
ジ座標が検出されたエッジ点を基準点とし、この基準点
を含む所定範囲内に指示された点と基準点とを結ぶ方向
の複数ラインを設定し、各ライン毎にエッジ上の点を求
め、求めた点の中から各ライン毎に基準点に最短な点の
座標を求めることにより近接する複数のエッジ点の座標
を検出するようになっている。また、このプログラム5
3D2 は、前記検出した複数のエッジ点の座標に基づき
直線要素を認識し、該直線要素と基準点を含む方向のラ
イン上に存在する画素の階調変化とに基づいて前記直線
要素の法線ベクトルを求め、前記法線ベクトルと同一の
方向を向いたキャリパ(エッジ検出の対象範囲、位置、
方向を示すマーク)を前記基準点の位置に設定するよう
になっている。第3のエッジ検出プログラム53D3
は、第2のエッジ検出プログラム53D2 の終了によっ
て起動する。このプログラム53D3 は、前記設定され
たキャリパの範囲内に含まれる画素の階調変化に基づい
てエッジ点を検出しその点の座標を求める。
The second edge detection program 53D2 is
It starts when the first edge detection program 53D1 ends. In this program 53D2, in any case of the detection mode and the setting, the edge point at which the edge coordinates are detected based on the position information and the gradation information of each pixel indicated by the image data in the memory 41D is used as a reference point. Set a plurality of lines in the direction connecting the designated point and the reference point within a predetermined range including the reference point, obtain a point on the edge for each line, and set a reference point for each line from the obtained points. By obtaining the coordinates of the shortest point, the coordinates of a plurality of adjacent edge points are detected. In addition, this program 5
3D2 recognizes a straight line element based on the coordinates of the plurality of detected edge points, and normalizes the straight line element based on the linear element and a gradation change of a pixel existing on a line in a direction including the reference point. A vector is obtained, and the caliper (the range, position,
Mark indicating the direction) is set at the position of the reference point. Third edge detection program 53D3
Is started when the second edge detection program 53D2 ends. The program 53D3 detects an edge point based on a gradation change of a pixel included in the range of the set caliper, and obtains the coordinates of the point.

【0039】なお、前記プログラム53D1 、53D2
、53D3 が検出するエッジ点は、計測条件入力のた
めのプログラム53Bによって設定されるエッジ検出処
理条件によって、計測目的に最適のエッジ上から検出す
ることができるようになっている。これについての詳細
は後述する。
The programs 53D1, 53D2
, 53D3 can be detected from the optimum edge for the measurement purpose by the edge detection processing condition set by the program 53B for inputting the measurement condition. Details of this will be described later.

【0040】本実施形態ではこのエッジ検出のためのプ
ログラム53Dに含まれる第1のエッジ検出プログラム
53D1 によって第1のエッジ検出手段が実現され、第
2のエッジ検出プログラム53D2 によって第2のエッ
ジ検出手段が実現されている。
In the present embodiment, the first edge detecting means is realized by the first edge detecting program 53D1 included in the edge detecting program 53D, and the second edge detecting means is realized by the second edge detecting program 53D2. Has been realized.

【0041】前記形状認識のためのプログラム53F
は、エッジ検出のためのプログラム53Dで検出された
近接する少なくとも3点のエッジ点の座標に基づいて前
記3点が属するエッジ要素の種類を認識することによ
り、計測対象物10の少なくとも一部の形状を認識する
プログラムであり、これによって形状認識手段が実現さ
れる。本実施形態では、このプログラム53Fは、認識
した対象物10の形状を直線、円又は円弧といった幾何
学的に表現できる図形(以下、これを「幾何形状」とい
う)に要素分割し、この要素分割した形状の情報を各図
形のコードや位置情報などを含むファイルにしてメモリ
41D及びハードディスク41Pに記憶する機能をも有
している。かかる機能の設定は、ディスプレイ43の表
示画面上に表示された計測条件のメニュー(タスクバー
やツールバー、ツールボックスなどで表示される)をマ
ウス42bにより選択することにより計測条件入力のた
めのプログラム53Bによって行われる。上記のよう
に、認識した対象物10の形状を要素分割し、その要素
分割した形状の情報にしておくことで、データ量が減少
するだけでなく、対象物10がCAD又はCAMなどに
より設計・製作されている場合、計算機上で設計値と比
較し誤差を算出するのが容易且つ迅速になる。
Program 53F for shape recognition
Recognizes the type of the edge element to which the three points belong based on the coordinates of at least three adjacent edge points detected by the program 53D for edge detection, so that at least a part of the measurement object 10 is recognized. This is a program for recognizing a shape, which implements a shape recognizing unit. In the present embodiment, the program 53F divides the recognized shape of the target object 10 into a figure (hereinafter, referred to as a “geometric shape”) that can be geometrically represented as a straight line, a circle, or an arc. It also has a function of converting the information of the shape into a file containing the code and position information of each figure and storing the file in the memory 41D and the hard disk 41P. The setting of such a function is performed by selecting a measurement condition menu (displayed by a task bar, a toolbar, a tool box, or the like) displayed on the display screen of the display 43 with the mouse 42b, and by using the program 53B for inputting measurement conditions. Done. As described above, by dividing the shape of the recognized object 10 into elements and storing information on the element-divided shape, not only the data amount is reduced, but also the object 10 is designed and designed by CAD or CAM. If it is manufactured, it is easy and quick to calculate an error by comparing it with a design value on a computer.

【0042】計測のためのプログラム53Hは、マウス
42bで表示画面上のメニューからある幾何形状が選択
され、その幾何形状の指示が計測条件入力のためのプロ
グラム53Bによって入力された際に、形状認識のため
のプログラム53Fによって認識された対象物10の形
状の中からその指示に対応する幾何形状のパラメータの
計測を実行するプログラムである。幾何形状として、例
えば、直線、線分、円、多角形等があり、計測内容とし
ては長さ、距離、角度、面積等がある。計測結果は、デ
ィスプレイ43の表示画面の所定の領域(ウィンドウ内
のボックス)に表示されるようになっている。
The program for measurement 53H is a program for recognizing a shape when a certain geometric shape is selected from a menu on the display screen with the mouse 42b and an instruction of the geometric shape is inputted by the program 53B for inputting measurement conditions. Is a program for executing measurement of a parameter of a geometric shape corresponding to the instruction from the shape of the target object 10 recognized by the program 53F. The geometric shape includes, for example, a straight line, a line segment, a circle, a polygon, and the like, and the measurement contents include a length, a distance, an angle, an area, and the like. The measurement result is displayed in a predetermined area (box in the window) of the display screen of the display 43.

【0043】また、このプログラム53Hは、後述する
ように、マーク位置移動のためのプログラム53Jでマ
ウス42b等によりキャリパを移動させるのに伴って、
第2のエッジ検出プログラム53D2 及び、第3のエッ
ジ検出プログラム53D3 を子プロセスとしてプログラ
ム53D2 でキャリパを設定すると共に、プログラム5
3D3 によってそのキャリパで示されたエッジ検出の対
象範囲内のエッジ点の座標をリアルタイムで検出し、そ
のエッジ座標をディスプレイ43の表示画面の所定の領
域(ウィンドウ内のボックス)に表示する機能をも有す
る。さらに、このプログラム53Hは、マーク位置移動
のためのプログラム53Jと並行して動作し、キャリパ
で示されたエッジ検出の対象範囲内で検出された複数の
エッジ点相互間の距離をリアルタイムで算出してディス
プレイ43の表示画面の所定の領域(ウィンドウ内のボ
ックス)に表示する。本実施形態では、このプログラム
53Hによって任意の幾何形状の計測を実行する計測手
段及びリアルタイム検出手段が実現されている。
As will be described later, the program 53H is used to move the caliper with the mouse 42b or the like in the program 53J for moving the mark position.
Using the second edge detection program 53D2 and the third edge detection program 53D3 as child processes, the calipers are set by the program 53D2.
The function of detecting in real time the coordinates of an edge point within the range of edge detection indicated by the caliper by 3D3 and displaying the edge coordinates in a predetermined area (box in a window) of the display screen of the display 43 is also provided. Have. Further, this program 53H operates in parallel with the program 53J for moving the mark position, and calculates in real time the distance between a plurality of edge points detected within the range of edge detection indicated by the caliper. To display in a predetermined area (box in the window) of the display screen of the display 43. In this embodiment, the program 53H implements a measuring unit and a real-time detecting unit that execute measurement of an arbitrary geometric shape.

【0044】マーク位置移動のためのプログラム53J
は、画面上に表示されるエッジ検出の対象範囲、位置及
び方向を示すマークであるキャリパを、マウス42b等
で指示された所望の位置に移動させるためのプログラム
であり、本実施形態ではマウス42bとプログラム53
Jとによってマーク位置移動手段が実現されている。
Program 53J for moving mark position
Is a program for moving the caliper, which is a mark indicating the target range, position and direction of edge detection displayed on the screen, to a desired position designated by the mouse 42b or the like. And program 53
A mark position moving means is realized by J.

【0045】上記の各プログラム53D、53F、53
H、53Jによってそれぞれ実行されるエッジ検出及び
法線ベクトル検出、形状認識、幾何形状の計測、キャリ
パの移動、リアルタイム検出・表示等の各処理の内容に
ついては、後に更に詳述する。
Each of the above programs 53D, 53F, 53
H, 53J, the processing of edge detection and normal vector detection, shape recognition, geometric shape measurement, caliper movement, real-time detection and display, and the like, will be described in further detail later.

【0046】次に、上記のようにして構成された本実施
形態に係る画像計測装置の動作について説明する。
Next, the operation of the image measuring apparatus according to this embodiment configured as described above will be described.

【0047】まず、対象物10をXYステージ22上に
置いて、コンピュータ40の入力デバイスを操作し、対
象物10の撮像のため照明条件等の設定後、撮像開始の
設定をする。この撮像開始の設定により、コンピュータ
40からの制御信号に基づき撮像制御部32によりCC
Dカメラ26は撮像可能状態に設定される。CCDカメ
ラ26によりその撮像範囲内にある対象物10の像が撮
像され、その画像信号が撮像制御部32によりA/D変
換され画像データとしてホストコンピュータ40に出力
され、コンピュータ本体41のマイクロプロセッサ41
Bにより前述の如くしてメモリ41Dに記憶される。そ
して、マイクロプロセッサ41Bによりビデオインター
フェイス41Jを介してメモリ41D内の画像データ5
1Bによる対象物10の画像がディスプレイ43の表示
画面の所定の領域(ウインドウ)に表示される。
First, the object 10 is placed on the XY stage 22, and the input device of the computer 40 is operated to set lighting conditions and the like for imaging the object 10 and then to set the start of imaging. By setting the start of the imaging, the imaging control unit 32 controls the CC based on the control signal from the computer 40.
The D camera 26 is set to a state in which imaging is possible. An image of the object 10 within the imaging range is captured by the CCD camera 26, and the image signal is A / D converted by the imaging control unit 32 and output to the host computer 40 as image data.
B is stored in the memory 41D as described above. Then, the image data 5 in the memory 41D is transferred from the microprocessor 41B via the video interface 41J.
An image of the target object 1B is displayed in a predetermined area (window) of the display screen of the display 43.

【0048】オペレータは、ディスプレイ43に表示さ
れた画像データ51Bによる対象物10の像を見なが
ら、マウス42b等によりディスプレイ43に表示され
た計測条件のメニューのうちのエッジ検出処理及びその
検出モード(第1の検出モード又は第2の検出モード)
の選択、並びに点(表示画面上に表示された対象物10
の画像の輪郭近傍の点(計測開始点))の指示等の計測
条件の入力操作を行う。これにより、計測条件入力のた
めのプログラム53Bによって上記の計測条件が入力さ
れる。この計測条件の入力により、エッジ検出のための
プログラム53D、計測のためのプログラム53H及び
マーク位置移動のためのプログラム53Jが起動する。
そして、エッジ検出のためのプログラム53Dによって
エッジ検出が開始される。
While looking at the image of the object 10 based on the image data 51B displayed on the display 43, the operator detects the edge detection processing and its detection mode of the measurement condition menu displayed on the display 43 by the mouse 42b or the like. (First detection mode or second detection mode)
Selection and points (the object 10 displayed on the display screen)
An operation of inputting measurement conditions such as an instruction of a point (measurement start point) near the contour of the image is performed. Thus, the above measurement conditions are input by the program 53B for inputting measurement conditions. By inputting the measurement conditions, a program 53D for edge detection, a program 53H for measurement, and a program 53J for moving the mark position are activated.
Then, edge detection is started by the program 53D for edge detection.

【0049】(ベクトルサーチの設定の場合)前記エッ
ジ検出は、まず第1のエッジ検出プログラム53D1 に
よるエッジ検出が行われる。図2は、第1の検出モー
ド、すなわちべクトルサーチのサーチ方向のラインを例
示した図である。この図2において、中心の点Pがマウ
ス42bによって指示された点である。
(In the case of setting the vector search) In the edge detection, the edge is first detected by the first edge detection program 53D1. FIG. 2 is a diagram illustrating a line in a first detection mode, that is, a search direction of a vector search. In FIG. 2, the center point P is the point designated by the mouse 42b.

【0050】サーチ方向は方向1から12までの12方
向あり、直線1−7,2−8,3−9,4−10,5−
11,6−12の6つの直線の方向を順次正方向負方向
の順でエッジ検出を行う。例えば、直線1−7の検出を
する場合、第1のエッジ検出プログラム53D1 ではマ
ウス42b等により指示した点Pを基準として方向1の
ライン上に位置する点(画素)の画像データを順次メモ
リ41Dから読み出し、その画像データが示す輝度(階
調)とその微分値(輝度(階調)の変化率)を計算す
る。この場合、輝度の微分値に極大点又は極小点があれ
ばその点の位置をエッジ点とする。次いで、方向7につ
いてもその方向のライン上に位置する点(画素)の画像
データが示す輝度(階調)とその微分値(輝度(階調)
の変化率)を計算し、エッジ点をサーチする。そして、
直線2−8、……、6−12についても上記と同様にし
て順次エッジ検出を行う。
There are 12 search directions from directions 1 to 12, and straight lines 1-7, 2-8, 3-9, 4-10, 5-
Edge detection is performed sequentially in the order of six straight lines 11, 6-12 in the positive and negative directions. For example, when detecting the straight line 1-7, the first edge detection program 53D1 sequentially stores the image data of the points (pixels) located on the line in the direction 1 with respect to the point P specified by the mouse 42b or the like. And calculates the luminance (gradation) indicated by the image data and its differential value (change rate of luminance (gradation)). In this case, if there is a maximum point or a minimum point in the luminance differential value, the position of that point is set as an edge point. Next, also in the direction 7, the luminance (gradation) indicated by the image data of the point (pixel) located on the line in that direction and its differential value (luminance (gradation))
Is calculated, and an edge point is searched. And
Edge detection is sequentially performed on the straight lines 2-8,..., 6-12 in the same manner as described above.

【0051】今、図2の方向4の方向にエッジがあるも
のとして説明を進める。図3(a)は後述するようにキ
ャリパSが設定された状態を示す図であるが、以下、便
宜上この図及び同図(b)、(c)に基づいて、上記の
エッジ位置の検出の原理について更に詳述する。図2の
方向4の直線が、図3(a)の3ラインに相当する。
Now, description will be made assuming that there is an edge in the direction 4 in FIG. FIG. 3A is a diagram showing a state in which the caliper S is set as described later. Hereinafter, for the sake of convenience, the above-described detection of the edge position will be described with reference to FIGS. 3B and 3C. The principle will be described in more detail. The straight line in the direction 4 in FIG. 2 corresponds to the three lines in FIG.

【0052】図2の方向4のサーチ即ち、図3(a)の
3ラインに沿ってサーチが行われると、同図(b)のよ
うな画像データの示す輝度の変化、(c)のような輝度
の微分値の変化が検出される。この場合、図3(b)か
ら明らかなように、対象物10(その像10’)がある
と輝度が大きくなるという変化を示し、その輝度の微分
値は、輝度が暗から明に変化するとき極大点Mを示し、
その逆の明から暗に変化するときは極小点M’を示して
いる。この場合、マウス42b等により指示した点P
(図3(a)の左側にある)には極大点Mが近くにあり
このMの座標をエッジ座標として検出する。
When the search in the direction 4 in FIG. 2 is performed, that is, when the search is performed along the three lines in FIG. 3A, the change in luminance indicated by the image data as shown in FIG. A change in the differential value of the luminance is detected. In this case, as is clear from FIG. 3B, a change is shown in which the luminance increases when the object 10 (the image 10 ′) is present, and the differential value of the luminance changes from dark to bright. When the maximum point M is shown,
On the contrary, when it changes from light to dark, it indicates the minimum point M '. In this case, the point P indicated by the mouse 42b or the like
A local maximum point M is nearby (on the left side of FIG. 3A), and the coordinates of this maximum point M are detected as edge coordinates.

【0053】このようにして、各サーチ方向について求
めたエッジ位置の座標について、マウス42b等により
指示した点の座標までの距離をそれぞれ計算する。そし
て、この距離が最も短い点、すなわちマウス42b等に
より指示した点の最近傍に存在するエッジ点の座標をエ
ッジ座標として検出する。これにより、グレイスケール
で高精度にエッジの位置が求められる。
As described above, for the coordinates of the edge position obtained for each search direction, the distance to the coordinates of the point designated by the mouse 42b or the like is calculated. Then, the coordinates of the point having the shortest distance, that is, the coordinates of the edge point existing closest to the point designated by the mouse 42b or the like are detected as edge coordinates. As a result, the position of the edge is obtained with high accuracy on a gray scale.

【0054】上述のようにして、マウス等で指示された
点の最近傍に存在するエッジ点の座標であるエッジ座標
が求まると、第2のエッジ検出プログラム53D2 が起
動する。プログラム53D2 は前記エッジ点を中心とす
るエッジ検出の対象となる所定の小さな長方形状の範囲
(エッジ位置検出領域)を設定する。上記の「エッジ位
置検出領域」が画像上のどの範囲、どの位置及び方向に
あるかを示すマーク(目印)が、キャリパであり、その
一方の辺の長さであるサーチ長と他方の辺の長さである
プロジェクション長は、計測条件入力のためのプログラ
ム53Bにおいて設定可能であり、予め設定された値が
用いられる。また、上記の「エッジ位置検出領域」の設
定と同時に、計測のためのプログラム53Hによりそれ
に対応するキャリパSがディスプレイ43の表示画面上
に表示される。キャリパとエッジ位置検出領域とは1対
1に対応しているので、以下適宜エッジ位置検出領域を
もキャリパという。このときのキャリパSの角度は、上
記の検出されたエッジ座標に対応する点が求められたサ
ーチ方向に一致している。
As described above, when the edge coordinates which are the coordinates of the edge point which is present closest to the point designated by the mouse or the like are obtained, the second edge detection program 53D2 is started. The program 53D2 sets a predetermined small rectangular area (edge position detection area) to be subjected to edge detection centered on the edge point. The mark (mark) indicating the range, position, and direction of the “edge position detection area” on the image is a caliper, and the search length, which is the length of one side, and the length of the other side are The projection length, which is the length, can be set in the program 53B for inputting measurement conditions, and a preset value is used. At the same time as the setting of the “edge position detection area”, the corresponding caliper S is displayed on the display screen of the display 43 by the program for measurement 53H. Since the calipers correspond to the edge position detection areas on a one-to-one basis, the edge position detection areas are also referred to as calipers as appropriate. The angle of the caliper S at this time coincides with the search direction in which a point corresponding to the detected edge coordinates is obtained.

【0055】上記のようにして、キャリパS及びそのキ
ャリパSで表示されるエッジ位置検出領域の設定が終了
すると、第2のエッジ検出プログラム53D2 は、次の
ようにして法線ベクトルの算出処理を行う。
When the setting of the caliper S and the edge position detection area displayed by the caliper S is completed as described above, the second edge detection program 53D2 executes the normal vector calculation process as follows. Do.

【0056】ここでは、図3(a)に示されるように、
図2の4の方向にエッジ点Mが検出され、該エッジ点M
を中心としてキャリパSが設定された場合を採り上げて
説明する。なお、図3(a)に示したキャリパSの場
合、左右方向の長さがサーチ長であり、上下方向がプロ
ジェクション長である。第2のエッジ検出プログラム5
3D2 は、サーチ長の方向に設定したライン上にある画
素の輝度の微分値に基づいてエッジ点を検出する。前記
サーチ長の方向に設定するラインは複数とすることがで
き、プロジェクション長が、ラインの数に対応してい
る。
Here, as shown in FIG.
An edge point M is detected in the direction of 4 in FIG.
The following describes a case where the caliper S is set centering on. In the case of the caliper S shown in FIG. 3A, the length in the left-right direction is the search length, and the up-down direction is the projection length. Second edge detection program 5
3D2 detects an edge point on the basis of a differential value of luminance of a pixel on a line set in the search length direction. A plurality of lines can be set in the direction of the search length, and the projection length corresponds to the number of lines.

【0057】この場合、図3(a)の3ライン目のサー
チ結果である図3(b)、(c)の輝度の変化、輝度の
微分値の変化から明らかなように、エッジ点Mにおける
エッジの法線ベクトルの概略的な方向は方向4になる。
ここで、エッジの法線ベクトルの方向は、エッジの明方
向に向かうものと定義している。
In this case, as is apparent from the change in the luminance and the change in the differential value of the luminance in FIGS. 3B and 3C which are the search results of the third line in FIG. The general direction of the edge normal vector is direction 4.
Here, the direction of the normal vector of the edge is defined as going in the bright direction of the edge.

【0058】図3(a)中にキャリパSで示される領域
内の1、2、4、5の各ラインについて、前述したエッ
ジ座標Mの検出の際と同様の各画素の画像データの階調
(輝度)及び階調の微分値(変化率)の変化に基づくエ
ッジ位置検出を行う。これにより、図3(b)、(c)
の3ラインの場合と同様の1、2、4、5の各ラインに
ついての輝度の変化と輝度の微分値の変化を示すデータ
が得られ、エッジの位置m1,m2,m4,m5、m
1’、m2’、m4’、m5’の座標が求められる。そ
して、各ラインについて、原点(基準点)Mに最短なエ
ッジ点の座標を検出することにより、エッジ点m1,m
2,m4,m5の座標が求められる。これらのエッジ点
は、マウス42b等により指示した点P近傍における対
象物10の画像10’の輪郭の微小部分であり、求めた
エッジ点m1,m2,m4,m5及びMの座標から最小
2乗直線などを計算し、この最小2乗直線の傾きを求め
ることによりエッジ点Mにおける正しい法線ベクトルV
の方向が求められる。法線ベクトルを求める際に隣接す
る(又は連続する)エッジ位置の座標を用いているの
で、その処理は速くなる。上記のようにして、エッジ点
Mにおける法線ベクトルが求まると、その向きに合わせ
てキャリパSが点Mを中心に表示画面上で回転移動さ
れ、正しい法線ベクトルと同一方向に設定され、ディス
プレイ43の表示画面上に表示される。
For each of the lines 1, 2, 4, and 5 in the area indicated by the caliper S in FIG. 3A, the gradation of the image data of each pixel is the same as in the detection of the edge coordinates M described above. (Brightness) and edge position detection based on changes in the gradation differential value (change rate). Thereby, FIGS. 3 (b) and 3 (c)
The data indicating the change in the luminance and the change in the differential value of the luminance for each of the lines 1, 2, 4, and 5 as in the case of the three lines are obtained, and the edge positions m1, m2, m4, m5, and m
The coordinates of 1 ', m2', m4 ', and m5' are obtained. Then, by detecting the coordinates of the shortest edge point at the origin (reference point) M for each line, the edge points m1, m
The coordinates of 2, m4, and m5 are obtained. These edge points are minute portions of the outline of the image 10 ′ of the object 10 near the point P specified by the mouse 42b or the like, and are least squared from the coordinates of the obtained edge points m1, m2, m4, m5, and M. A straight line or the like is calculated, and the slope of the least-squares straight line is calculated to obtain a correct normal vector V at the edge point M.
Direction is required. Since the coordinates of the adjacent (or continuous) edge positions are used in obtaining the normal vector, the processing speed is increased. When the normal vector at the edge point M is obtained as described above, the caliper S is rotated on the display screen around the point M in accordance with the direction, and set in the same direction as the correct normal vector. 43 is displayed on the display screen.

【0059】以上の処理が終了すると、第3のエッジ検
出プログラム53D3 が起動する。プログラム53D3
は、前記設定されたキャリパSの範囲内に相当する画像
データをメモリ41Dから読み出し、その画像データが
示す輝度(階調)とその微分値を計算し、微分値の極大
点又は極小点をエッジ点として検出し、その点の座標値
を求め、エッジ座標データ51Dとしてメモリ41Dに
記憶する(図1参照)。エッジの法線方向に設定された
キャリパSによってエッジ点が検出されるので、高精度
にエッジ点の座標を求めることができる。この場合、計
測対象物の形状、表面状態によっては、複数の極大点、
極小点が検出されるので、プログラム53D3 は、計測
目的に最適のエッジ上の点を選択する機能も備えてい
る。
When the above processing is completed, the third edge detection program 53D3 is started. Program 53D3
Reads out image data corresponding to the range of the set caliper S from the memory 41D, calculates the luminance (gradation) indicated by the image data and its differential value, and sets the maximum point or the minimum point of the differential value to an edge. It is detected as a point, the coordinate value of the point is obtained, and stored in the memory 41D as edge coordinate data 51D (see FIG. 1). Since the edge point is detected by the caliper S set in the normal direction of the edge, the coordinates of the edge point can be obtained with high accuracy. In this case, depending on the shape and surface condition of the measurement object, a plurality of local maximum points,
Since the minimum point is detected, the program 53D3 also has a function of selecting a point on the edge that is optimal for the measurement purpose.

【0060】図12(a)にそのような計測対象物60
の平面図を、図12(b)に前記計測対象物の画像デー
タが示す輝度(階調)の微分値を示す。計測対象物60
は、その左右の端部の斜面部61、61’と、長孔62
とを有する。図12(a)において、符号61a、61
b、61a’、61b’は夫々前記斜面の端部である。
符号62a、62bは、夫々長孔62の側面である。符
号63は表面の傷(溝)である。点Mは第1のエッジ検
出プログラム53D1 が検出した基準点、ベクトルVは
第2のエッジ検出プログラム53D2 が検出したベクト
ル、破線で示したSは第2のエッジ検出プログラム53
D2 が設定したキャリパである。図12(b)に示す微
分値は、前記斜面61、61’の端部、長孔62の側
面、傷63の位置で極大値、又は極小値を示している。
図12(b)の各極大値、極小値には夫々図12(a)
の対応する位置の符号を付してある。これらの位置は、
いずれもエッジである。
FIG. 12A shows such a measurement target 60.
FIG. 12B shows a differential value of luminance (gradation) indicated by the image data of the measurement object. Measurement object 60
Are slopes 61, 61 'at the left and right ends thereof and a slot 62
And In FIG. 12A, reference numerals 61a and 61
b, 61a 'and 61b' are ends of the slope, respectively.
Reference numerals 62a and 62b denote side surfaces of the long hole 62, respectively. Reference numeral 63 denotes a scratch (groove) on the surface. A point M is a reference point detected by the first edge detection program 53D1, a vector V is a vector detected by the second edge detection program 53D2, and S shown by a broken line is a second edge detection program 53D.
D2 is the caliper set. The differential value shown in FIG. 12B indicates the maximum value or the minimum value at the ends of the slopes 61, 61 ', the side surface of the long hole 62, and the position of the flaw 63.
FIG. 12A shows the local maximum value and the local minimum value in FIG.
Are assigned to the corresponding positions. These positions are
Both are edges.

【0061】計測条件入力のためのプログラム53Bで
は、第3のエッジ検出プログラム53D3 が検出するエ
ッジ点を計測目的に応じて、これらの極大値、極小値の
位置から選択する条件を設定することができるようにな
っている。
In the program 53B for inputting measurement conditions, a condition for selecting an edge point detected by the third edge detection program 53D3 from the positions of these maximum values and minimum values according to the purpose of measurement can be set. I can do it.

【0062】例えば、キャリパSの最も点M側端部
(又はその反対側端部側)にあるエッジ点、即ち61a
(61a’)を検出する。キャリパSの点M側端部
(又はその反対側端部)からN番目にあるエッジ点、即
ち、N=2であれば61b(61b’)を検出する。
微分値が正(又は負)であるエッジ点、即ち61b、6
3、62a、61a’(61a、63、62b、61
b’)を検出する。これは、像が明から暗(暗から明)
に変化するエッジ点である。微分値が所定の値以上の
エッジ点のみ検出する。これによって、コントラストが
小さい、微少な傷のエッジ点、例えば63を検出しない
ようにすることができる。微分値が最大(又は最小)
(即ちコントラスト最大)であるエッジ点を検出する。
前記〜の組み合わせを設定することができる。
For example, the edge point at the end of the caliper S closest to the point M (or the end opposite to the point M), ie, 61a
(61a ') is detected. The Nth edge point from the end of the caliper S on the side of the point M (or the opposite end), that is, 61b (61b ') if N = 2 is detected.
Edge points whose differential values are positive (or negative), that is, 61b, 6
3, 62a, 61a '(61a, 63, 62b, 61
b ′) is detected. This means that the image is light to dark (dark to light)
The edge point changes to Only the edge points whose differential values are equal to or greater than a predetermined value are detected. As a result, it is possible to prevent detection of an edge point of a small scratch having a small contrast, for example, 63. Differential value is maximum (or minimum)
An edge point that is (that is, the contrast is maximum) is detected.
It is possible to set a combination of the above.

【0063】なお、このような検出するエッジ点の選択
は、第1のエッジ検出プログラム53D1 、第2のエッ
ジ検出プログラム53D2 におけるエッジ点の検出につ
いても適用することができるようになっている。
The selection of the edge point to be detected can be applied to the detection of the edge point in the first edge detection program 53D1 and the second edge detection program 53D2.

【0064】次に、エッジ検出モードとして第2の検出
モード(以下「エリアサーチ」という)が選択された場
合を説明する。
Next, the case where the second detection mode (hereinafter referred to as "area search") is selected as the edge detection mode will be described.

【0065】(エリアサーチの設定の場合)この場合
も、まず、第1のエッジ検出プログラム53D1 による
エッジ検出が行われる。
(In the case of setting the area search) In this case as well, first, edge detection is performed by the first edge detection program 53D1.

【0066】エリアサーチの場合、第1のエッジ検出プ
ログラム53D1 は、まず、計測条件入力のためのプロ
グラム53Bでマウス42b等により指示した点を中心
として、所定面積のサーチエリアを設定する。このサー
チエリアがディスプレイ43の画面上に表示される。
In the case of an area search, the first edge detection program 53D1 first sets a search area of a predetermined area around a point designated by the mouse 42b or the like in the program 53B for inputting measurement conditions. This search area is displayed on the screen of the display 43.

【0067】図4は、このサーチエリアRの一例を示し
たものであり、マウス42b等により指示した点はこの
サーチエリアRの中心点Pになっている。
FIG. 4 shows an example of the search area R. The point designated by the mouse 42b or the like is the center point P of the search area R.

【0068】第1のエッジ検出プログラム53D1 はサ
ーチエリアR内に行方向と列方向の細かなエリア(表示
画面上のピクセルの幅の1ラインのエリアに相当)を設
定し、それぞれの細分化された細長いエリア(以下、適
宜「細分化エリア」という)について、対象物10の画
像10’のエッジ点を検出する。
The first edge detection program 53D1 sets a fine area (corresponding to one line width of the pixel width on the display screen) in the search area R in the row direction and the column direction. The edge point of the image 10 ′ of the target object 10 is detected for the elongated area (hereinafter, appropriately referred to as “segmented area”).

【0069】この場合、最初に点Pを含む行方向の直線
(基準線)Lの細分化エリアについて上記のエッジ点の
検出が行われる。ここで、このエッジ点の検出は、行方
向及び列方向の何れの方向の場合も必ずしも全てのライ
ンの細分化エリアについて行う必要はなく、予め設定さ
れた数のピクセルおきに行うようにしても良い。行方向
について、2ピクセルおきに検出対象細分化エリアを設
定した場合、エッジ検出を行う行方向の細分化エリア
は、図4の斜線部のように示される。
In this case, the above-described edge point detection is first performed for the subdivision area of the straight line (reference line) L in the row direction including the point P. Here, it is not always necessary to detect the edge points in the subdivision areas of all the lines in any of the row direction and the column direction, and the edge points may be detected at every predetermined number of pixels. good. When the detection target subdivision area is set every two pixels in the row direction, the subdivision area in the row direction for performing edge detection is indicated by a hatched portion in FIG.

【0070】図5は、このエリアサーチによるエッジ検
出の様子を概念的に示した図であり、図5(a)のよう
に、まずサーチエリアRの基準線L上のエッジ検出が行
われる。このときの処理は、ベクトルサーチの場合の検
出と同様であり、対象物の画像10’に対して点Pから
基準線L上に位置する点(画素)の画像データを順次メ
モリ41Dから読み出し、その画像データで示される輝
度とその微分値を計算し、輝度の微分値の極大点又は極
小点からエッジの位置(エッジ点)m10を検出する。
同様にして、他の行方向の細分化エリアについてもエッ
ジ点m11、m12、m14、m15の検出が行われ
る。次いで、図5(b)のように、サーチエリアRの列
方向にエッジ検出を行いエッジ点m20、m21を検出
する。
FIG. 5 is a diagram conceptually showing a state of edge detection by this area search. First, as shown in FIG. 5A, an edge on the reference line L of the search area R is detected. The processing at this time is the same as the detection in the case of the vector search, and the image data of points (pixels) located on the reference line L from the point P with respect to the image 10 ′ of the object is sequentially read from the memory 41 D, The luminance indicated by the image data and its differential value are calculated, and an edge position (edge point) m10 is detected from the maximum point or the minimum point of the luminance differential value.
Similarly, detection of edge points m11, m12, m14, and m15 is performed for other subdivision areas in the row direction. Next, as shown in FIG. 5B, edge detection is performed in the column direction of the search area R to detect edge points m20 and m21.

【0071】こうして得られた各エッジ点と点Pとの距
離をそれぞれ計算し、最も小さな値になる(即ち点Pに
対して最短距離にある)エッジ点を見つけ、その点の座
標をエッジ座標として検出する。
The distance between each of the obtained edge points and the point P is calculated, the edge point having the smallest value (ie, the shortest distance from the point P) is found, and the coordinates of the point are determined by the edge coordinates. Detected as

【0072】上述のようにして、マウス42bで指示さ
れた点Pの最近傍に存在するエッジ点の座標であるエッ
ジ座標が求まると、第2のエッジ検出プログラム53D
2 が起動する。プログラム53D2 は、前記エッジ点を
中心としてエッジ位置検出領域を設定するとともに、計
測のためのプログラム53Hによりそれに対応する前記
領域の範囲、位置及び方向を示すマークであるキャリパ
Sをディスプレイ43の表示画面上に表示する。この時
のキャリパSの角度は、次のようにして求める。
As described above, when the edge coordinates, which are the coordinates of the edge point existing closest to the point P designated by the mouse 42b, are obtained, the second edge detection program 53D
2 starts. The program 53D2 sets an edge position detection area centered on the edge point, and the caliper S, which is a mark indicating the range, position and direction of the area, is displayed on the display screen of the display 43 by the measurement program 53H. Display above. The angle of the caliper S at this time is obtained as follows.

【0073】点Pに対して最短距離にある、上で求めた
エッジ点の座標(エッジ座標)M(x,y)と点Pの座
標P(x,y)から ベクトルV(x,y)=M(x,y)−P(x,y) ………(1) となるベクトルVを求め、このベクトルVの傾きを求
め、それをキャリパの角度とする。すなわち、キャリパ
の角度Uは、 角度U=ARCTAN(Vx/Vy) (Vy≠0)………(2) エッジ検出のためのプログラム53Dにより、上記のよ
うにしてベクトルVの角度が算出されると、エッジ座標
MをキャリパSの中心位置、ベクトルVの角度をその傾
きとしてキャリパSがディスプレイ43の表示画面上に
表示される。図6は、その表示例を示したものである。
A vector V (x, y) is obtained from the coordinates (edge coordinates) M (x, y) of the edge point and the coordinates P (x, y) of the point P, which are the shortest distance from the point P. = M (x, y) -P (x, y) (1) A vector V is obtained, the inclination of the vector V is obtained, and the obtained inclination is defined as the caliper angle. That is, the angle U of the caliper is as follows: Angle U = ARCTAN (Vx / Vy) (Vy ≠ 0) (2) The angle of the vector V is calculated as described above by the program 53D for edge detection. The caliper S is displayed on the display screen of the display 43 with the edge coordinates M as the center position of the caliper S and the angle of the vector V as its inclination. FIG. 6 shows an example of the display.

【0074】この場合、上記のエリアサーチは必ずしも
サーチエリアR内の行方向、列方向の全てのラインの細
分化エリアについて行われているとは限らない(図6の
場合、行方向について2ピクセルおきに行われている)
ので、上記のベクトルVの方向がエッジ点Mにおけるエ
ッジの法線方向に一致しているとは限らない。
In this case, the above area search is not always performed on the subdivision areas of all the lines in the row direction and the column direction in the search area R (in FIG. 6, two pixels in the row direction). Every other day)
Therefore, the direction of the vector V does not always match the normal direction of the edge at the edge point M.

【0075】上記のようにしてキャリパSが表示される
と、前述したベクトルサーチの場合と同様にして、キャ
リパSで示されるエッジ位置検出領域内のキャリパSの
向きと同方向の各ラインについて、各画素の画像データ
の階調(輝度)及び階調の微分値(変化率)の変化に基
づくエッジ位置検出が行われ、各ラインについて点Mに
最短なエッジ点の座標が求められ、求めたエッジ点の座
標及び点Mの座標から最小2乗直線に基づいてエッジ点
Mにおける正しい法線ベクトルの方向が求められる。そ
して、その法線ベクトルの向きに合わせてキャリパSが
点Mを中心に表示画面上で回転移動され、正しい法線ベ
クトルと同一方向で表示される。
When the caliper S is displayed as described above, the lines in the same direction as the direction of the caliper S in the edge position detection area indicated by the caliper S are obtained in the same manner as in the above-described vector search. Edge position detection is performed based on the change in the gradation (luminance) and the gradation differential value (change rate) of the image data of each pixel, and the coordinates of the shortest edge point at the point M for each line are obtained. From the coordinates of the edge point and the coordinates of the point M, the direction of the correct normal vector at the edge point M is obtained based on the least square line. Then, the caliper S is rotated around the point M on the display screen in accordance with the direction of the normal vector, and is displayed in the same direction as the correct normal vector.

【0076】以上の処理が終了すると、第3のエッジ検
出プログラム53D3 が起動し、ベクトルサーチの場合
と同様にしてエッジ点が検出され、その座標が高精度に
求められる。
When the above processing is completed, the third edge detection program 53D3 is started, and an edge point is detected in the same manner as in the case of the vector search, and its coordinates are obtained with high accuracy.

【0077】ところで、エッジの検出の際に、画像デー
タ51Bの各画素の階調情報を微分することによりエッ
ジ点を検出する設定でなく、画像データ51Bの各画素
を白黒2値化してエッジ点を検出する設定がなされてい
る場合には、第1のエッジ検出プログラム53D1 で
は、まず、サーチエリアR内の画素の画像データを2値
化する。図7は、その2値化を例示したものであり、サ
ーチエリアRのうち対象物の画像10’があるところは
「1」、ないところは「0」になる。そして、「1」に
なっている点(画素)のそれぞれとマウス42bで指示
された点Pとの距離を計算し、その距離が最短となる点
の座標をエッジ座標として検出する。そして、第2のエ
ッジ検出プログラム53D2 では、各ラインの「1」の
画素の内、点Pとの距離が最短な画素の座標に基づいて
最小2乗直線を求め、エッジ座標に対応する点の概略的
な法線ベクトルを求めるようにしても良い。このように
すれば、前述した各画素の階調情報を微分(変化率)す
るエリアサーチの場合に比べ、より高速に演算しエッジ
を検出することができる。
When detecting an edge, instead of setting the edge point to be detected by differentiating the gradation information of each pixel of the image data 51B, each pixel of the image data 51B is converted to a black and white binary image to detect the edge point. In the first edge detection program 53D1, first, the image data of the pixels in the search area R is binarized. FIG. 7 shows an example of the binarization. In the search area R, the location of the target image 10 ′ is “1”, and the location of the target image 10 ′ is “0”. Then, the distance between each of the points (pixels) of "1" and the point P designated by the mouse 42b is calculated, and the coordinates of the point having the shortest distance are detected as edge coordinates. Then, in the second edge detection program 53D2, a least-squares straight line is obtained based on the coordinates of the pixel having the shortest distance from the point P among the “1” pixels in each line, and the point corresponding to the edge coordinates is obtained. A rough normal vector may be obtained. By doing so, it is possible to detect the edge by calculating at a higher speed than in the case of the area search in which the gradation information of each pixel is differentiated (change rate) as described above.

【0078】いずれにしても、これまでに説明したエッ
ジサーチ(ベクトルサーチ、エリアサーチ)により、マ
ウス42bにより指示した点最近傍のエッジ座標と、そ
のエッジ座標に対応する点におけるエッジの法線ベクト
ルが求められ、その法線ベクトルの向きに合わせて、上
記エッジ座標の点を中心としてキャリパが設定され画面
上に表示され、そのキャリパに基づいて再度エッジ点の
座標が求められる。このようにすることによってどのよ
うな形状のエッジであっても、必ずエッジの法線方向に
キャリパを設定することが可能となり、測定の再現性が
向上する。
In any case, by the edge search (vector search, area search) described above, the edge coordinates of the point closest to the point designated by the mouse 42b and the normal vector of the edge at the point corresponding to the edge coordinates Is calculated based on the direction of the normal vector, a caliper is set around the point of the edge coordinate, and displayed on the screen, and the coordinates of the edge point are calculated again based on the caliper. By doing so, it is possible to set the caliper in the normal direction of the edge regardless of the shape of the edge, and the reproducibility of measurement is improved.

【0079】なお、エッジサーチの範囲は大きくないの
で、サーチされる部分が直線以外の例えば円弧であって
も、前述した直線近似に基づいて求めた法線ベクトル
は、エッジ点Mの正しい法線ベクトルとほぼ一致するも
のである。サーチされる部分の形状についての情報を与
え、その形状に対応する最小2乗曲線を求め、該曲線上
の検出点Mにおける法線ベクトルを求めるようにしても
良い。
Since the range of the edge search is not large, even if the searched portion is a circular arc other than a straight line, the normal vector obtained based on the above-described straight line approximation is not the correct normal line of the edge point M. It almost matches the vector. Information about the shape of the portion to be searched may be given, a least-square curve corresponding to the shape may be obtained, and a normal vector at the detection point M on the curve may be obtained.

【0080】次に、形状認識のためのプログラム53F
の詳細を説明する。前記第3のエッジ検出プログラム5
3D3 と同時に、又はこれに代えて形状認識のためのプ
ログラム53Fが起動し、対象物10の少なくとも一部
の形状の形状認識が行えるようになっている。ここで形
状認識された結果は、計測のためのプログラム53Hで
用いられる。
Next, a program 53F for shape recognition
Will be described in detail. The third edge detection program 5
Simultaneously with or in place of 3D3, a program 53F for shape recognition is activated, and the shape of at least a part of the shape of the object 10 can be recognized. The shape recognition result is used in the measurement program 53H.

【0081】まず、プログラム53D1 によって検出さ
れた基準点とプログラム53D2 によって検出されたこ
れに近接する少なくとも2点の合計3点以上のエッジ点
の座標に基づき最小2乗法、又はhough 変換法によりエ
ッジ要素の形状の種類を認識する。形状の種類の認識方
法は、最小2乗形状からの誤差の大きさ検出による方法
や、hough 変換による方法が選択できるようになってい
る。即ち、最小2乗法による認識方法の場合、前記3点
以上のエッジ点の座標に基づいて、最小2乗直線、最小
2乗円を求め、夫々に対する残差の少ない方の形状であ
ると認識する。
First, based on the coordinates of three or more edge points, that is, a reference point detected by the program 53D1 and at least two points adjacent to the reference point detected by the program 53D2, the edge element is calculated by the least square method or the hough transform method. Recognize the type of shape. As a method of recognizing the type of shape, a method based on the detection of the magnitude of an error from the least square shape or a method based on the hough transform can be selected. That is, in the case of the recognition method by the least square method, a least square straight line and a least square circle are obtained based on the coordinates of the three or more edge points, and the shape having the smaller residual is recognized for each. .

【0082】hough 変換による方法の場合は、多数の点
から任意に選んだ2点によって構成される直線の法線ベ
クトルの方向の分布の状態を監視し、分布が特定の方向
に集約するならば直線であると認識し、多数の点から任
意に選んだ3点によって構成される円の中心座標の分布
の状態を監視し、分布が特定の位置に集約するならば円
であると認識する。このときの処理に用いられるエッジ
点の個数が多い程、正確に形状認識されるので、プログ
ラム53D2 で設定するサーチラインの数は多い方が好
ましい。例えば、前記サーチラインを4本と設定した場
合は、基準点と合わせて合計5個のエッジ点の座標から
どのような幾何形状か(例えば、直線、円又は円弧)を
認識する。
In the case of the method based on the hough transform, the state of the distribution of the direction of the normal vector of a straight line formed by two points arbitrarily selected from many points is monitored, and if the distribution is concentrated in a specific direction. It recognizes that it is a straight line, monitors the state of the distribution of the center coordinates of a circle composed of three points arbitrarily selected from many points, and recognizes that the distribution is a circle if the distribution is concentrated at a specific position. At this time, the more the number of edge points used in the processing, the more accurate the shape recognition, so the larger the number of search lines set by the program 53D2, the better. For example, when the number of search lines is set to four, the geometric shape (for example, a straight line, a circle, or an arc) is recognized from the coordinates of a total of five edge points including the reference point.

【0083】形状認識のためのプログラム53Fは、更
に、上記認識した形状の詳細を正確に求める処理を行
う。前記形状の種類を認識する処理において、キャリパ
内のエッジ要素が直線の形状として認識された場合、認
識された直線のパラメータが概略求められている。そこ
で、更にその直線のパラメータを詳細に求める処理が行
われる。最小2乗法による誤差の大きさによる検出方法
が選択されていた場合、基準点から認識した直線上で一
方の側に一定間隔離れた位置にエッジ検出の対象となる
エッジ位置検出領域(キャリパ)を設定し、そのキャリ
パの範囲にあるエッジ及びその法線方向の検出が行われ
る。そして、順次一定距離ずつエッジ検出の場所を移動
させながらエッジ検出を行う。そして、エッジ検出して
得たエッジ点が前記直線上に有るか否かを検査する。直
線との誤差が所定値以下ならば直線上の点とみなし、そ
の点も含めて直線を再計算する。そして、再度誤差を計
算し、所定値以下であれば次のエッジ点について上記の
処理を繰り返す。誤差が所定値よりも大きい場合は、そ
の直前の点を直線の一端の点とする。そして、もう一方
の端について上記処理を行う。かくして、対象物の形状
の一部を構成する直線を表わす直線のパラメータが、両
端の点の位置を含めて求められる。求めた直線のパラメ
ータはメモリ41D内に幾何形状データ51C(図1参
照)として記憶される。
The program 53F for shape recognition further performs a process for accurately obtaining details of the recognized shape. In the process of recognizing the type of the shape, when an edge element in the caliper is recognized as a straight line shape, parameters of the recognized straight line are roughly obtained. Therefore, processing for further determining the parameters of the straight line is performed. If the detection method based on the magnitude of the error by the least squares method is selected, an edge position detection area (caliper) to be subjected to edge detection is located at a position on one side of the straight line recognized from the reference point and separated by a certain distance. Then, the edge in the range of the caliper and its normal direction are detected. Then, edge detection is performed while sequentially moving the edge detection location by a predetermined distance. Then, it is checked whether or not the edge point obtained by edge detection is on the straight line. If the error from the straight line is equal to or less than a predetermined value, it is regarded as a point on the straight line, and the straight line including the point is recalculated. Then, the error is calculated again. If the error is equal to or smaller than the predetermined value, the above processing is repeated for the next edge point. If the error is larger than the predetermined value, the point immediately before that is set as one end of the straight line. Then, the above processing is performed for the other end. Thus, the parameters of the straight line representing the straight line that forms a part of the shape of the object are obtained including the positions of the points at both ends. The parameters of the obtained straight line are stored in the memory 41D as geometric shape data 51C (see FIG. 1).

【0084】hough 変換法が選択された場合、次のよう
にして直線のパラメータを求めるようになっている。
When the hough transform method is selected, the parameters of the straight line are obtained as follows.

【0085】一般に、直線の方程式「y=ax+b」
は、「ρ=x・COSθ+y・SINθ ただしρは、
原点から直線に下ろした垂線の長さ、θは垂線とx軸と
のなす角度である)」の式で表され、原点を点Pにとる
と、ρ及びθはエッジの法線ベクトルの長さ及び角度が
近似的にあてはまるようになっている。ここでは、この
近似値近傍で適当な大きさのρ−θ空間を表す2次元配
列を予め用意し、検出したエッジ点(x,y)をρ,θ
をパラメータとした直線の式に代入し、得られたρ−θ
の関係を示す軌跡がρ−θ空間を通過する毎に、その2
次元配列の配列要素に1を加える、という処理が行われ
る。画像中の検出したエッジ点に対するすべての軌跡を
描いた後、最も大きな値となっている配列要素を抽出す
る。最小2乗法の場合と同様に、キャリパの位置を順次
移動させながらエッジ点を新たに検出して点数を増やし
ていき、抽出された点近傍に次の点が存在しなくなるま
で繰り返す。最も大きな値となっている配列要素がρ及
びθであり、最後に検出した点が両端の点である。
In general, a straight line equation “y = ax + b”
Is “ρ = x · COSθ + y · SINθ, where ρ is
Is the length of the perpendicular drawn from the origin to a straight line, θ is the angle between the perpendicular and the x-axis) ”, and when the origin is taken as a point P, ρ and θ are the lengths of the edge normal vector. The heights and angles are adapted approximately. Here, a two-dimensional array representing a ρ-θ space of an appropriate size near this approximate value is prepared in advance, and the detected edge points (x, y) are defined as ρ, θ
Ρ-θ
Each time the trajectory indicating the relationship passes through the ρ-θ space,
A process of adding 1 to the array element of the dimensional array is performed. After drawing all the trajectories for the detected edge points in the image, the array element having the largest value is extracted. As in the case of the least-squares method, the edge point is newly detected and the number of points is increased while sequentially moving the position of the caliper, and the process is repeated until the next point does not exist near the extracted point. The array elements having the largest values are ρ and θ, and the last detected point is a point at both ends.

【0086】いずれの設定でも、同一直線上のエッジ点
列を求めることができ、直線が検出される。
With any setting, a sequence of edge points on the same straight line can be obtained, and a straight line is detected.

【0087】図9は、第1のエッジ検出プログラム53
D1 において第1の検出モード(ベクトルサーチ)で基
準点を検出し、形状認識のためのプログラム53Fで直
線の形状要素を抽出する様子を例示したものである。
FIG. 9 shows the first edge detection program 53.
This is an example of how a reference point is detected in a first detection mode (vector search) in D1, and a linear shape element is extracted by a program 53F for shape recognition.

【0088】点P1、P2、P3で囲まれた対象物の画
像10’の輪郭を成す直線P1ーP2近傍の点Xをマウ
スで指示すると、同図(a)のように、第1のエッジ検
出プログラム53D1 によって第1の検出モードでマウ
スによる指示点Xを中心として放射状にベクトルサーチ
によるエッジ検出が行われ、第2のエッジ検出プログラ
ム53D2 によって指示点Xの最近傍のエッジ点p0の
座標及びその法線ベクトルが検出され、キャリパが設定
され、第3のエッジ検出プログラム53D3 によって、
このキャリパによるエッジ点の正確な座標が求められ
る。そして、形状認識のためのプログラム53Fによっ
てこれらのエッジ点に基づき前述の如くして直線要素が
認識される。次いで、同図(b)のように、指示点Xの
最近傍点のエッジ座標p0から順に所定の距離だけ離れ
た点p1、p2、p3、p4、p5、p6の順にエッジ
位置の検出が行われ、同様に、反対方向の点p7,p8
の順にエッジ位置の検出が行われ、上述した直線を求め
る処理と両端の点P1,P2を検出する処理とが行われ
る。このようにして、対象物の画像10’の輪郭を成す
直線(線分)P1−P2が認識され、認識した直線のパ
ラメータ(直線の方程式、両端点の位置など)が求めら
れ、メモリ41Dに記憶される。
When a point X near the straight line P1-P2 forming the contour of the image 10 'of the object surrounded by the points P1, P2 and P3 is pointed by a mouse, the first edge as shown in FIG. In the first detection mode, the detection program 53D1 performs edge detection by vector search radially around the point X by the mouse, and the second edge detection program 53D2 calculates the coordinates of the nearest edge point p0 to the point X. The normal vector is detected, the caliper is set, and the third edge detection program 53D3 calculates
Accurate coordinates of the edge point by the caliper are obtained. Then, the linear elements are recognized by the shape recognition program 53F based on these edge points as described above. Next, as shown in FIG. 3B, edge positions are detected in the order of points p1, p2, p3, p4, p5, and p6, which are separated by a predetermined distance from the edge coordinates p0 of the nearest point of the designated point X in order. , And similarly, points p7 and p8 in opposite directions.
, The edge position is detected in this order, and the processing for obtaining the straight line and the processing for detecting the points P1 and P2 at both ends are performed. In this way, the straight line (line segment) P1-P2 that forms the contour of the image 10 ′ of the target object is recognized, the parameters of the recognized straight line (linear equation, positions of both end points, etc.) are obtained, and are stored in the memory 41D. It is memorized.

【0089】こうして、対象物の画像10’の輪郭(エ
ッジ)近傍をマウスなどで指示するだけで、直線の両端
及び直線のパラメータを求めることができる。第2の検
出モードでも同様であり、対象物の画像10’の輪郭
(エッジ)近傍をマウスなどで指示するだけで、サーチ
エリアRが設定されて、エッジ座標が検出され、その直
線の両端及び直線のパラメータを求めることができる。
In this manner, both ends of the straight line and the parameters of the straight line can be obtained only by pointing the vicinity of the outline (edge) of the image 10 'of the object with the mouse or the like. The same applies to the second detection mode. Just by pointing the vicinity of the contour (edge) of the image 10 ′ of the target object with a mouse or the like, the search area R is set, the edge coordinates are detected, and both ends of the straight line and The parameters of the straight line can be determined.

【0090】形状認識のためのプログラム53Fの形状
の種類を認識する処理において、キャリパで示されるエ
ッジ位置検出領域内のエッジ要素が円又は円弧の形状と
して認識された場合、円のパラメータを求める処理が行
われる。
In the process of recognizing the type of shape of the shape recognizing program 53F, when the edge element in the edge position detecting area indicated by the caliper is recognized as a circle or an arc shape, a process of obtaining a circle parameter is performed. Is performed.

【0091】形状の種類を認識する処理によって、円の
半径と中心の位置とが概略求められている。はじめに基
準点の位置から認識した円の周上で一方方向に一定距離
離れた位置にエッジ検出の対象となるエッジ位置検出領
域(キャリパ)を設定し、そのキャリパ範囲にあるエッ
ジ及びその法線方向の検出が行われる。そして、順次一
定距離ずつエッジ検出の場所を移動させながらエッジ検
出が行われる。こうしてエッジ検出して得たエッジ点が
前記円周上に有るか否かを検査する。円要素との誤差が
所定値以下ならば同一円周上の点とみなし、その点も含
めて円を再計算する。再度誤差を計算し、所定値以下で
あれば、次のエッジ検出の場所の点について上記処理を
繰り返す。誤差が所定値よりも大きい場合は、その直前
の点を円弧の一端の点とする。そして、もう一方の端に
ついて上記処理を行う。かくして、対象物の形状の一部
を構成する円弧を表わす円弧のパラメータが、両端の点
の位置を含めて求められる。円弧が閉じた円である場合
は、一方方向への処理において、基準点に戻った時に処
理を終了する。求めた円弧のパラメータはメモリ41D
内に幾何形状データ51Cとして記憶される。
By the process of recognizing the type of shape, the radius of the circle and the position of the center are roughly obtained. First, an edge position detection area (caliper) to be subjected to edge detection is set at a certain distance in one direction on the circumference of the circle recognized from the position of the reference point, and the edge within the caliper range and its normal direction Is detected. Then, the edge detection is performed while sequentially moving the location of the edge detection by a constant distance. It is checked whether or not the edge point obtained by the edge detection is on the circumference. If the error from the circle element is less than a predetermined value, it is regarded as a point on the same circumference, and the circle is recalculated including that point. The error is calculated again. If the error is equal to or smaller than the predetermined value, the above processing is repeated for the point at the next edge detection location. If the error is larger than a predetermined value, the point immediately before that is set as a point at one end of the arc. Then, the above processing is performed for the other end. Thus, the parameters of the arc representing the arc forming a part of the shape of the object are obtained, including the positions of the points at both ends. If the arc is a closed circle, in one-way processing, the processing ends when returning to the reference point. The obtained arc parameters are stored in the memory 41D.
Is stored as geometric shape data 51C.

【0092】この場合も上述した最小2乗形状からの誤
差の大きさによる検出方法だけでなく、hough 変換法に
よる方法が選択できるようになっている。hough 変換法
の場合は、前記直線の場合の直線の式を円の式に替えて
直線の場合と同様の処理を行うことによって円パラメー
タの詳細が求められる。
Also in this case, not only the detection method based on the magnitude of the error from the least square shape described above but also a method based on the hough transform method can be selected. In the case of the hough transform method, the details of the circle parameters are obtained by performing the same processing as in the case of the straight line instead of the straight line equation in the case of the straight line.

【0093】本実施形態の画像計測装置では、以上のよ
うにして、撮像ユニット20を用いて読み取られた画像
データ51Bからディスプレイ43の表示画面に表示さ
れた画像に対して、測定したい対象物の輪郭(エッジ)
近傍をマウス42bで指定することにより、その位置か
ら最も近い位置にあるエッジの座標の検出を行い、検出
されたエッジ座標を基準にしてエッジ検出を行って対象
物10の形状を認識するようになっている。そして、対
象物10の輪郭をなす直線又は円弧の始点終点座標を自
動的に求めることができる。このように、本実施形態の
画像計測装置は、マウス42bなどにより表示画面上の
1点を指示するという簡単な操作で、対象物の形状認識
ができる。
In the image measuring apparatus of the present embodiment, as described above, the image displayed on the display screen of the display 43 from the image data 51B read using the imaging unit 20 Contour (edge)
By specifying the vicinity with the mouse 42b, the coordinates of the edge closest to the position are detected, and the edge is detected based on the detected edge coordinates to recognize the shape of the object 10. Has become. Then, the coordinates of the start point and the end point of the straight line or the arc forming the contour of the object 10 can be automatically obtained. As described above, the image measurement device of the present embodiment can recognize the shape of the target object by a simple operation of pointing one point on the display screen using the mouse 42b or the like.

【0094】計測対象物の像10’を構成する直線や
円、円弧などの各要素に対して形状認識のためのプログ
ラム53Fによる処理を行うことによって得られた様々
な情報、例えば、指示された位置最近傍のエッジ座標と
法線ベクトル及びその座標を含む形状情報(直線なら両
端点座標、円弧なら両端点座標と中心座標、といった要
素分割して得られた情報)などは、所定のフォーマット
にして登録し、メモリ41D(仮想メモリの場合も含
む)に幾何形状データ51Cとして記憶しておくととも
に、ファイルとしてハードディスク41Pに保存される
ようになっている。このファイルを読みだすことで、1
度撮像した対象物について、くり返し表示と後述するよ
うな測定とができるようになっている。
Various information obtained by performing processing by the program 53F for shape recognition on each element such as a straight line, a circle, and an arc constituting the image 10 'of the measurement target object, for example, The edge coordinates and the normal vector near the position and the shape information including the coordinates (both end point coordinates for a straight line, end point coordinates and center coordinates for a circular arc, etc.) are written in a predetermined format. And stored in the memory 41D (including a virtual memory) as the geometric shape data 51C, and is also stored as a file on the hard disk 41P. By reading this file, 1
For the imaged object, repeated display and measurement as described later can be performed.

【0095】このように、認識した形状を直線、円又は
円弧に要素分割した情報を記憶するので、測定対象物の
形状に関するデータ量が小さくなり、また、計測のため
のプログラム53Hによる幾何形状の計測を実行する処
理速度が速くなる。
As described above, since the information obtained by dividing the recognized shape into elements such as straight lines, circles, or arcs is stored, the data amount relating to the shape of the object to be measured is reduced, and the geometrical shape obtained by the measurement program 53H is used. The processing speed for executing the measurement increases.

【0096】次に、計測のためのプログラム53Hによ
る、前記メモリ41D内の幾何形状データ51Cを用い
た計測について説明する。マウス42bなどにより、計
測のためのプログラム53Hを起動すると、ディスプレ
イ43の画面上に表示された図形と所望の演算・計測内
容を指示することにより、前述した処理により認識され
た対象物10の形状及び要素分割して得られた情報を用
いて以下のような演算処理及び計測処理が行われる。
Next, measurement by the measurement program 53H using the geometric data 51C in the memory 41D will be described. When the program 53H for measurement is started by the mouse 42b or the like, the figure displayed on the screen of the display 43 and the desired calculation / measurement contents are indicated, and the shape of the object 10 recognized by the above-described processing is indicated. The following arithmetic processing and measurement processing are performed using the information obtained by element division.

【0097】一般的な幾何寸法は、「直線−直線」の計
算又は「円−直線」又は「円−円」の計算によって求め
ることができる。そこで、直線と直線が指示された場合
は、交点座標、直角度、平行度、直線と直線との距離な
どが自動的に計算される。また、円と直線が指示された
場合は、交点座標、円と直線の最短距離、中心座標と直
線との距離、中心座標から直線に下だした垂線の足の座
標等が自動的に演算される。円と円が指示された場合
は、円と円の交点座標、円中心間距離などが求まる。ま
た、指示された図形が複数の直線からなる閉形状の場
合、要素分割して得られた情報から閉図形を認識し、そ
の閉図形を構成する直線の数に応じて、3本では三角
形、4本では四角形などと認識し、これらの頂点の座標
や重心座標、中心座標が求められる。所定の数の円や直
線から成る閉図形の場合を複数選べば、予め登録してお
いた円の数、直線の数から、指定の形状が認識され、所
定の出力が計算される。
The general geometric dimensions can be obtained by calculation of “straight-line” or “circle-straight” or “circle-circle”. Therefore, when a straight line is specified, the coordinates of the intersection, the squareness, the degree of parallelism, the distance between the straight lines, and the like are automatically calculated. When a circle and a straight line are specified, the coordinates of the intersection, the shortest distance between the circle and the straight line, the distance between the center coordinate and the straight line, the coordinates of a perpendicular leg drawn from the center coordinate to the straight line, and the like are automatically calculated. You. When two circles are specified, the coordinates of the intersection of the circles and the distance between the centers of the circles are obtained. Further, when the designated graphic is a closed shape composed of a plurality of straight lines, the closed graphic is recognized from information obtained by dividing the element, and three triangles are used in accordance with the number of straight lines constituting the closed graphic. The four lines are recognized as quadrangular, and the coordinates of these vertices, the barycentric coordinates, and the center coordinates are obtained. If a plurality of closed figures composed of a predetermined number of circles and straight lines are selected, a specified shape is recognized from a previously registered number of circles and straight lines, and a predetermined output is calculated.

【0098】上記の演算・計測結果はディスプレイ43
の表示画面の所定の領域(ウィンドウ内のボックス)に
表示されるようになっている。
The above calculation and measurement results are displayed on the display 43.
Are displayed in a predetermined area (box in the window) of the display screen.

【0099】図11は、別の計測対象物に対してこのよ
うな幾何寸法を求める計測処理が行われる場合のディス
プレイ43の表示の一例である。図11に示されるよう
な対象物の画像10’がディスプレイの表示画面上のウ
ィンドウに表示されている場合において、マウス42b
により、計測のためのプログラム53Hで幾何寸法計測
処理を指定した後、2点1、2を計測箇所として指示す
れば、幾何形状データ51Cからそれらの点が属する幾
何形状、即ち夫々直線が選択され、上述した直線−直線
計算が行われ、交点Bの座標、2直線の角度θなどが求
められる。同様に、2点9、9’をマウス42bにより
計測箇所として指示すれば、2直線の角度、平行度、2
直線間の距離Lが求められる。また、4つの点3、4、
5、6を連続で選べば四角形の要素成分が求められる。
また、2点7、8を連続で選べば上述した円−円計算が
行われ、円と円の交点Aの座標が求められ、同様に2点
11、12を連続で選べば2つの円の中心間距離Dが求
められる。上記いずれの場合も、求められた計測結果
は、ディスプレイ43の表示画面上のウィンドウ44D
に表示される。
FIG. 11 shows an example of the display on the display 43 when the measurement processing for obtaining such a geometric dimension is performed on another object to be measured. When an image 10 ′ of the object as shown in FIG. 11 is displayed in a window on the display screen of the display, the mouse 42b
After specifying the geometric dimension measurement processing in the measurement program 53H, if two points 1 and 2 are designated as measurement points, the geometric shape to which those points belong, that is, each straight line, is selected from the geometric shape data 51C. The above-described straight-line calculation is performed, and the coordinates of the intersection B and the angle θ of the two straight lines are obtained. Similarly, when the two points 9, 9 ′ are indicated as measurement points by the mouse 42b, the angle of the two straight lines, the degree of parallelism,
The distance L between the straight lines is determined. Also, the four points 3, 4,
If 5 and 6 are continuously selected, a square element component is obtained.
If the two points 7 and 8 are continuously selected, the above-described circle-circle calculation is performed, and the coordinates of the intersection A of the circle and the circle are obtained. Similarly, if the two points 11 and 12 are continuously selected, the two circles are calculated. The center distance D is determined. In any of the above cases, the obtained measurement result is displayed in the window 44D on the display screen of the display 43.
Will be displayed.

【0100】なお、計測箇所として指示された点が属す
る図形要素が幾何形状データ51Cに含まれていない場
合は、その時点で前記した各処理がなされ、その点が属
する図形要素の形状の種類と詳細パラメータとが求めら
れ、前記幾何寸法を求める処理が行われる。そして、求
めた幾何形状データはメモリ41Dに記憶される。
If the graphic element to which the point designated as the measurement point belongs is not included in the geometric shape data 51C, the above-described processing is performed at that time, and the type of the shape of the graphic element to which the point belongs is determined. Detailed parameters are obtained, and processing for obtaining the geometric dimensions is performed. Then, the obtained geometric shape data is stored in the memory 41D.

【0101】本実施形態の装置は、表示画面44上に表
示された計測対象物のエッジに沿って、キャリパSを移
動させ、キャリパSの位置における計測対象物のエッジ
座標をリアルタイムに求めることもできる。以下これに
ついて説明する。即ち、計測処理のためのプログラム5
3Hによって、リアルタイムエッジ検出処理が指示され
ると、マウス42bの操作に応じてマーク位置移動のた
めのプログラム53Jによって表示画面上でキャリパS
の位置が移動される度毎に、エッジ検出、法線ベクトル
の検出、エッジ座標再検出の一連の処理が、計測のため
のプログラム53Hによりエッジ検出のためのプログラ
ム53D(プログラム53D1 、53D2 、53D3 )
を子プロセスとして行われ、キャリパSが法線方向を向
くように表示画面上に表示されると共に、移動したキャ
リパの位置、方向に基づいて検出されたエッジ点の座標
が求められる。このときキャリパSは対象物10の画像
10’の輪郭に添って移動するように表示される。
The apparatus according to the present embodiment can also move the caliper S along the edge of the measurement target displayed on the display screen 44 and obtain the edge coordinates of the measurement target at the position of the caliper S in real time. it can. This will be described below. That is, the program 5 for the measurement process
When the real-time edge detection process is instructed by 3H, the caliper S is displayed on the display screen by the program 53J for moving the mark position according to the operation of the mouse 42b.
Every time the position is moved, a series of processing of edge detection, normal vector detection, and edge coordinate re-detection is performed by a program 53H for measurement by a program 53D for edge detection (programs 53D1, 53D2, 53D3). )
Is performed as a child process, the caliper S is displayed on the display screen so as to face the normal direction, and the coordinates of the detected edge point are obtained based on the position and direction of the moved caliper. At this time, the caliper S is displayed so as to move along the contour of the image 10 'of the object 10.

【0102】図8はその表示例を示したものである。デ
ィスプレイ43の表示画面44上で対象物10の画像1
0’が表示されるウィンドウ44Aにおいて、まず始め
に、対象物10の画像10’の輪郭近傍の点Aをマウス
42b等により指示する。その後、この点Aに表示され
たキャリパSを点B,C,D,E,F,Gに移動させる
と、各点でエッジ座標及び法線方向が求められ、キャリ
パSは矢印で示した方向になるように表示され、このキ
ャリパの範囲内の画素の輝度変化に基づいてエッジ点が
検出され、その点の座標が求められる。また、計測のた
めのプログラム53Hにより、キャリパSの移動位置毎
に、キャリパSの中心を通る法線方向の輝度分布がウィ
ンドウ44Bに、また点A,B,C,D,E,F,G各
点におけるエッジの座標がウィンドウ44Cに表示され
るようになっている。ウィンドウ44Dは、計測結果を
表示する部分でありこの点については後述する。
FIG. 8 shows an example of the display. Image 1 of the object 10 on the display screen 44 of the display 43
In the window 44A in which 0 'is displayed, first, a point A near the outline of the image 10' of the object 10 is designated by the mouse 42b or the like. Thereafter, when the caliper S displayed at the point A is moved to the points B, C, D, E, F, and G, the edge coordinates and the normal direction are obtained at each point, and the caliper S is in the direction indicated by the arrow. The edge point is detected based on the luminance change of the pixel within the range of the caliper, and the coordinates of the point are obtained. In addition, the luminance distribution in the normal direction passing through the center of the caliper S is displayed in the window 44B and the points A, B, C, D, E, F, and G at each movement position of the caliper S by the measurement program 53H. The coordinates of the edge at each point are displayed in the window 44C. The window 44D is a part for displaying the measurement result, which will be described later.

【0103】このように、キャリパSを移動にさせるの
に伴って、エッジ点の座標がリアルタイムで検出されて
そのエッジ座標が画面上に表示される。その際、キャリ
パSも表示されるので、エッジ検出の対象範囲を容易に
把握することができ、使い易くなる。また、キャリパS
が法線ベクトルと同方向にして画面上にリアルタイムに
表示されるので、どの方向で計測を行っているかが確認
でき、かつ、法線方向に設定されたキャリパSに基づい
てエッジ座標を求めているので、高精度に座標を求める
ことができる。
As described above, as the caliper S is moved, the coordinates of the edge point are detected in real time, and the edge coordinates are displayed on the screen. At that time, since the caliper S is also displayed, the target range of the edge detection can be easily grasped, and the use becomes easy. Also, caliper S
Is displayed in real time on the screen in the same direction as the normal vector, so that it is possible to confirm in which direction the measurement is being performed, and to obtain the edge coordinates based on the caliper S set in the normal direction. Therefore, coordinates can be obtained with high accuracy.

【0104】更に、本実施形態の装置の計測のためのプ
ログラム53Hは、マウス42bによるキャリパの移動
に伴って、任意幾何形状の寸法をリアルタイム計測処理
する機能も備えている。
Further, the measurement program 53H of the apparatus according to the present embodiment has a function of real-time measurement processing of an arbitrary geometric shape in accordance with the movement of the caliper by the mouse 42b.

【0105】図10(a)は、この場合の計測の様子を
示したものである。ディスプレイ43の表示画面44上
で対象物の画像10’が表示されるウィンドウ44Aに
おいて、計測のためのプログラム53Hでリアルタイム
計測処理を指定した後、まず、対象物の輪郭上の点K
1,K2を通るようにマウス42b等によりキャリパS
を移動させて計測位置を指示する。この場合、キャリパ
Sのプロジェクション長を長目に設定することが好まし
い。すると、図10(a)の計測対象部分の拡大図であ
る図10(b)に示されるように、キャリパS内におい
て、点K1の近傍に複数のエッジ点k1 〜kn が検出さ
れる。同様に、キャリパS内において、点K2の近傍に
複数のエッジ点k1 ’〜kn ’が検出される。
FIG. 10A shows the state of measurement in this case. In the window 44A in which the image 10 'of the object is displayed on the display screen 44 of the display 43, after the real-time measurement processing is designated by the measurement program 53H, first, a point K on the outline of the object is designated.
1, caliper S by mouse 42b etc. to pass through K2
Is moved to indicate the measurement position. In this case, it is preferable to set the projection length of the caliper S to be longer. Then, as shown in FIG. 10B, which is an enlarged view of the portion to be measured in FIG. 10A, a plurality of edge points k1 to kn are detected near the point K1 in the caliper S. Similarly, in the caliper S, a plurality of edge points k1 'to kn' are detected near the point K2.

【0106】そして、検出したエッジ点k1 〜kn 、k
1 ’〜kn ’を用いて前述した最小2乗法又はhough 変
換法による形状認識処理を行い、点K1、K2の属する
図形要素の形状の種類(この場合は共に直線)を認識す
る。この場合、形状認識処理に用いる点は、キャリパS
内に存在する点に限られるのでデー多数が少なく、形状
認識は短時間に終了する。
Then, the detected edge points k1 to kn, k
Using 1 'to kn', shape recognition processing by the least square method or the hough transform method described above is performed to recognize the type of shape of the graphic element to which the points K1 and K2 belong (in this case, a straight line). In this case, the point used for the shape recognition process is the caliper S
, The number of data is small, and the shape recognition is completed in a short time.

【0107】そして、形状認識の処理によって得られた
直線要素に関する情報を用いて直線−直線計算が開始さ
れ、演算・計測結果が表示される。キャリパ内における
形状の代表点、例えば検出した点k1 〜kn 、k1 ’〜
kn ’それぞれの平均点(K11,K12)の座標はウ
ィンドウ44Cに、2直線(点K11を通る対象物の輪
郭,点K12を通る対象物の輪郭)の平行度、距離、角
度、直角度等はウィンドウ44Dに、直線K11−K1
2の輝度分布はウィンドウ44Bにそれぞれ表示され
る。同様に、対象物10の輪郭上の点K3,K4を通る
ようにキャリパSを移動させて計測位置を指示すると、
点K3,K4について同様に処理が行われ結果が表示さ
れる。こうしてマウスなどにより、形状を指示するとい
う簡単な操作で、その幾何形状の計測の結果を得ること
ができる。また、対象物10の輪郭上の点K1,K2,
K3,K4の相互間の距離がリアルタイムで算出され表
示されるので、対象物の画像10’からその輪郭上の2
点間の距離を容易に測定することができる。また、キャ
リパを法線ベクトルと同方向にして画面上にリアルタイ
ムに表示するので、どの方向で計測を行っているかが把
握し易くなる。なお、点k1 〜kn 、k1 ’〜kn ’を
検出した後、幾何形状データ41Cを参照して、形状を
認識するようにしても良い。
Then, the line-line calculation is started using the information on the line element obtained by the shape recognition processing, and the calculation / measurement result is displayed. Representative points of the shape in the caliper, for example, detected points k1 to kn, k1 'to
kn ′ The coordinates of each average point (K11, K12) are shown in the window 44C in the parallelism, distance, angle, squareness, etc. of two straight lines (the contour of the object passing through the point K11 and the contour of the object passing through the point K12). Represents the line K11-K1 in the window 44D.
2 are displayed in the window 44B. Similarly, when the caliper S is moved so as to pass through the points K3 and K4 on the contour of the object 10, and the measurement position is designated,
The same process is performed for points K3 and K4, and the result is displayed. Thus, the result of measurement of the geometric shape can be obtained by a simple operation of designating the shape with a mouse or the like. Also, points K1, K2, on the contour of the object 10
The distance between K3 and K4 is calculated and displayed in real time.
The distance between points can be easily measured. In addition, since the caliper is displayed in real time on the screen in the same direction as the normal vector, it is easy to grasp in which direction the measurement is being performed. After detecting the points k1 to kn and k1 'to kn', the shape may be recognized by referring to the geometric shape data 41C.

【0108】このように、計測箇所の指示をマウスによ
りキャリパを用いて行う場合には、キャリパを移動させ
るだけで、対象物の画像に基づく上記の種々の計測を自
動的に行なうことができる。この他、キャリパが輪郭上
の1点のみを通るように設定し、このキャリパによって
検出した点から任意に選んだ直線への垂線の長さあるい
は前記点と任意に選んだ点との距離、若しくは該任意点
を端点として含む任意に選んだ直線との角度をリアルタ
イムで算出し表示することも可能である。かかる計測
は、対象物上のあるエッジ点の座標(x、y)を検出し
た場合に、この座標を対象物上の任意に選んだ点を原点
とする極座標(r、θ)に変換する等によって容易に行
うことができる。
As described above, when the indication of the measurement location is performed using the caliper with the mouse, the various measurements described above based on the image of the object can be automatically performed only by moving the caliper. In addition, the caliper is set to pass only one point on the contour, the length of a perpendicular to a straight line arbitrarily selected from points detected by the caliper, or the distance between the point and the arbitrarily selected point, or It is also possible to calculate and display an angle with an arbitrarily selected straight line including the arbitrary point as an end point in real time. In such measurement, when the coordinates (x, y) of a certain edge point on the object are detected, the coordinates are converted into polar coordinates (r, θ) having an arbitrary selected point on the object as the origin. Can be easily performed.

【0109】以上説明したように、本実施形態の画像計
測装置によると、マウス42bにより測定箇所を指示す
るという簡単な操作で、対象物10の画像10’に基づ
いて様々な計測を行うことができる。
As described above, according to the image measuring apparatus of the present embodiment, various measurements can be performed based on the image 10 'of the target object 10 by a simple operation of designating a measurement location with the mouse 42b. it can.

【0110】なお、上記実施形態では、ベクトルサーチ
の際のサーチ方向を12方向とした場合について説明し
たが、これに限らず、そのサーチ方向の数は、より多く
することは可能であり、多ければ多いほど検出確度が上
がるのは言うまでもない。また、検出したエッジの法線
ベクトルはエッジの明方向に方向をとるものとしたが、
その逆方向でもよいことは勿論である。
In the above embodiment, the case where the search direction in the vector search is set to 12 directions has been described. However, the present invention is not limited to this, and the number of the search directions can be increased. Needless to say, the detection accuracy increases as the number increases. Also, the normal vector of the detected edge is assumed to take a direction in the bright direction of the edge,
It goes without saying that the direction may be reversed.

【0111】さらに、上記実施形態では、計測処理など
の演算は、プログラムを用いてマイクロプロセッサで行
われる場合について説明したが、これに限らず、デジタ
ルシグナルプロセッサ(DSP)などを用いて処理を行
うようにしても良い。
Furthermore, in the above-described embodiment, the case has been described where the arithmetic operation such as the measurement process is performed by the microprocessor using a program. However, the present invention is not limited to this, and the process is performed using a digital signal processor (DSP) or the like. You may do it.

【0112】また、上記実施形態では、CCDカメラに
より撮像して得た画像データをそのままメモリ内に記憶
し、この画像情報を用いて種々の計測処理を行う場合に
ついて説明したが、本発明がこれに限定されることはな
く、例えば予め撮像して得た対象物の画像情報をフロッ
ピーディスク、光磁気ディスク等の情報記録媒体に記録
し、この記録媒体に記録した情報をメモリ内に記録し、
この情報を用いて上述した種々の計測を行うようにして
も良い。
In the above embodiment, the case where image data obtained by imaging with a CCD camera is stored in a memory as it is and various measurement processes are performed using this image information has been described. Without being limited to, for example, image information of the object obtained by imaging in advance is recorded on an information recording medium such as a floppy disk, a magneto-optical disk, and the information recorded on this recording medium is recorded in a memory.
The various measurements described above may be performed using this information.

【0113】[0113]

【発明の効果】以上説明したように、請求項1ないし5
に記載の発明によれば、点の指示を入力するという簡単
な操作で計測対象物のエッジ検出及び形状認識をするこ
とができるという従来にない優れた効果がある。
As described above, claims 1 to 5
According to the invention described in (1), there is an unprecedented superior effect that the edge detection and the shape recognition of the measurement target can be performed by a simple operation of inputting a point instruction.

【0114】特に、請求項2に記載の発明によれば、上
記効果に加え、任意の幾何形状の指示を入力するという
簡単な操作で、その幾何形状の計測の結果を得ることが
できるという効果もある。
In particular, according to the second aspect of the present invention, in addition to the above-described effects, the result of measuring the geometric shape can be obtained by a simple operation of inputting an instruction of an arbitrary geometric shape. There is also.

【0115】また、請求項6に記載の発明によれば、マ
ークによるエッジ検出の対象範囲内に含まれるエッジ上
の点の座標がリアルタイムで求められるので、この点の
座標を画面上に表示せることにより、マーク内にあるエ
ッジ座標の位置を直ちに認識できるという効果がある。
According to the sixth aspect of the present invention, the coordinates of a point on the edge included in the target range of the edge detection by the mark are obtained in real time, and the coordinates of this point are displayed on the screen. This has the effect that the position of the edge coordinates in the mark can be immediately recognized.

【0116】また、請求項7に記載の発明によれば、マ
ークを移動させるだけで、対象物の画像に基づく種々の
計測を自動的に行なうことができるという効果がある。
Further, according to the invention of claim 7, there is an effect that various measurements based on the image of the object can be automatically performed only by moving the mark.

【0117】また、請求項8に記載の発明によれば、マ
ークを法線ベクトルと同方向にして画面上にリアルタイ
ムに表示するので、どの方向で計測を行っているかを容
易に把握できるという効果がある。
According to the eighth aspect of the present invention, since the mark is displayed in real time on the screen in the same direction as the normal vector, it is possible to easily grasp in which direction the measurement is being performed. There is.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係る画像計測装置を示す図
である。
FIG. 1 is a diagram showing an image measuring device according to an embodiment of the present invention.

【図2】第1の検出モードの設定をした場合のサーチ方
向を例示した図である。
FIG. 2 is a diagram illustrating a search direction when a first detection mode is set.

【図3】(a)はキャリパSが設定された状態を示す
図、(b)は(a)中の3ライン上において方向4のサ
ーチをしたときのライン上の画素の画像データの示す輝
度の変化を示す図、(c)は(b)輝度の微分値の変化
を示す図である。
3A is a diagram illustrating a state in which a caliper S is set, and FIG. 3B is a diagram illustrating luminance of image data of a pixel on a line when a search in a direction 4 is performed on three lines in FIG. (C) is a diagram showing a change in a differential value of luminance.

【図4】サーチエリアを例示した図である。FIG. 4 is a diagram illustrating a search area.

【図5】エッジ検出によって見つかったエッジの位置を
例示した図であって、(a)はサーチエリアRの行方向
に複数のエッジ点が得られた様子を示す図、(b)はサ
ーチエリアRの列方向に複数のエッジ点が得られた様子
を示す図である。
5A and 5B are diagrams illustrating positions of edges found by edge detection, wherein FIG. 5A is a diagram illustrating a state in which a plurality of edge points are obtained in a row direction of a search area R, and FIG. FIG. 14 is a diagram illustrating a state in which a plurality of edge points are obtained in the column direction of R.

【図6】エッジ座標を中心位置として設定されたキャリ
パの表示例を示した図である。
FIG. 6 is a diagram illustrating a display example of a caliper set with edge coordinates as a center position.

【図7】サーチエリアRおける画像データの2値化を例
示した図である。
FIG. 7 is a diagram illustrating binarization of image data in a search area R;

【図8】キャリパSが対象物の画像10’の輪郭に添っ
て移動する様子を示す図である。
FIG. 8 is a diagram illustrating a state in which a caliper S moves along the contour of an image 10 ′ of a target object.

【図9】第1の検出モードでエッジ検出をした後に、直
線の形状要素を抽出する様子を例示した図である
((a)、(b))。
FIGS. 9A and 9B are diagrams illustrating an example of extracting a linear shape element after edge detection in the first detection mode ((a) and (b)).

【図10】(a)は計測のためのプログラムによる任意
幾何形状のリアルタイム計測処理の一例を説明するため
の図、(b)は(a)の計測対象部分を拡大して示す図
である。
10A is a diagram for explaining an example of real-time measurement processing of an arbitrary geometric shape by a measurement program, and FIG. 10B is an enlarged view of a measurement target portion of FIG.

【図11】別の計測対象物に対して幾何寸法を求める計
測処理が行われる場合のディスプレイの表示の一例を示
す図である。
FIG. 11 is a diagram illustrating an example of a display on a display when measurement processing for obtaining a geometric dimension is performed on another measurement target object.

【図12】(a)はエッジ点検出の対象となる計測対象
物の一例を示す平面図、(b)は(a)の計測対象物の
画像データが示す輝度(階調)の微分値を示す図であ
る。
12A is a plan view illustrating an example of a measurement target to be subjected to edge point detection, and FIG. 12B is a diagram illustrating a differential value of luminance (gradation) indicated by image data of the measurement target in FIG. FIG.

【符号の説明】[Explanation of symbols]

10 計測対象物 41D メモリ 42a キーボード(計測条件入力手段の一部) 42b マウス(点入力手段の一部、計測条件入力手段
の一部、マーク位置移動手段の一部) 43 ディスプレイ(表示装置) 51B 画像データ(画像情報) 53B 計測条件入力のためのプログラム(点入力手段
の一部、計測条件入力手段の一部) 53D1 第1のエッジ検出プログラム(第1のエッジ
検出手段) 53D2 第2のエッジ検出プログラム(第2のエッジ
検出手段) 53F 形状認識のためのプログラム(形状認識手段) 53H 計測のためのプログラム(計測手段、リアルタ
イム検出手段) 53J マーク位置移動のためのプログラム(マーク位
置移動手段の一部) P 基準点 S キャリパ(マーク)
Reference Signs List 10 Measurement object 41D Memory 42a Keyboard (part of measurement condition input means) 42b Mouse (part of point input means, part of measurement condition input means, part of mark position moving means) 43 Display (display device) 51B Image data (image information) 53B Program for inputting measurement conditions (part of point input means, part of measurement condition input means) 53D1 First edge detection program (first edge detection means) 53D2 Second edge Detection program (second edge detection means) 53F Program for shape recognition (shape recognition means) 53H Program for measurement (measurement means, real-time detection means) 53J Program for mark position movement (of mark position movement means) Partial) P reference point S Caliper (mark)

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 計測対象物の像を撮像して得られた画像
情報を用いて前記計測対象物の形状を計測する画像計測
装置であって、 前記画像情報を記憶するメモリと;前記画像情報に対応
する画像を表示画面上に表示する画像表示装置と;前記
表示画面上に表示された画像に対して計測箇所の近傍の
点の指示を入力するための点入力手段と;前記メモリ内
の画像情報に含まれる各画素の位置情報と階調情報とに
基づいて、前記点入力手段により指示された点の近傍に
存在する前記対象物の像のエッジ上の複数点の内所定の
条件を満たすエッジ上の点の座標であるエッジ座標を検
出する第1のエッジ検出手段と;前記エッジ座標が検出
された前記エッジ上の点を基準点として含む所定範囲内
に前記指示された点と前記基準点とを結ぶ方向の複数ラ
インを設定し、該複数ラインの前記基準点を含むライン
以外の少なくとも2ラインについて、各ライン毎に前記
メモリ内の画像情報に含まれる各画素の位置情報と階調
情報とに基づいてエッジ上の点の座標を検出する第2の
エッジ検出手段と;前記第1、第2のエッジ検出手段に
より検出された相互に近接する少なくとも3点のエッジ
上の点の座標に基づき前記3点が属するエッジ要素の種
類を認識することにより、前記計測対象物の少なくとも
一部の形状を認識する形状認識手段とを有する画像計測
装置。
1. An image measurement device for measuring a shape of a measurement target using image information obtained by capturing an image of the measurement target, wherein: a memory for storing the image information; An image display device for displaying an image corresponding to the image on a display screen; point input means for inputting an instruction of a point near a measurement point on the image displayed on the display screen; Based on the position information and the gradation information of each pixel included in the image information, a predetermined condition among a plurality of points on the edge of the image of the object existing near the point designated by the point input means is determined. First edge detecting means for detecting edge coordinates which are coordinates of a point on the edge to be satisfied; and the specified point within a predetermined range including a point on the edge at which the edge coordinates are detected as a reference point; Multiple lines in the direction connecting the reference point For at least two lines other than the line including the reference point of the plurality of lines, on the edge based on the position information and the gradation information of each pixel included in the image information in the memory for each line. Second edge detecting means for detecting the coordinates of the point; an edge to which the three points belong based on the coordinates of at least three points on the edge which are detected by the first and second edge detecting means and which are close to each other. An image measurement device comprising: shape recognition means for recognizing at least a part of the shape of the measurement object by recognizing a type of an element.
【請求項2】 任意の幾何形状の指示を入力するための
計測条件入力手段と、前記計測条件入力手段により指示
された幾何形状を求める計測処理をする計測手段とを更
に有し、該計測手段は、前記形状認識手段により認識さ
れた形状の中から前記指示に対応する幾何形状のパラメ
ータを求めることを特徴とする請求項1に記載の画像計
測装置。
2. The apparatus according to claim 1, further comprising: a measurement condition input unit for inputting an instruction of an arbitrary geometric shape; and a measurement unit for performing a measurement process for obtaining the geometric shape specified by the measurement condition input unit. 2. The image measuring apparatus according to claim 1, wherein the calculating unit obtains a parameter of a geometric shape corresponding to the instruction from the shapes recognized by the shape recognition unit.
【請求項3】 計測対象物の像を撮像して得られた画像
情報を用いて前記計測対象物の形状を計測する画像計測
装置であって、 前記画像情報を記憶するメモリと;前記画像情報に対応
する画像を表示画面上に表示する画像表示装置と;前記
表示画面上に表示された画像に対して計測箇所の近傍の
点の指示を入力するための点入力手段と;前記メモリ内
の画像情報に含まれる各画素の位置情報と階調情報とに
基づいて、前記点入力手段により指示された点の近傍に
存在する前記対象物の像のエッジ上の複数点の内所定の
条件を満たすエッジ上の点の座標であるエッジ座標を検
出する第1のエッジ検出手段と;前記エッジ座標が検出
された前記エッジ上の点を基準点として含む所定範囲内
に前記指示された点と前記基準点とを結ぶ方向の複数ラ
インを設定し、該複数ラインの前記基準点を含むライン
以外の少なくとも2ラインについて、各ライン毎に前記
メモリ内の画像情報に含まれる各画素の位置情報と階調
情報とに基づいてエッジ上の点の座標を検出する第2の
エッジ検出手段とを備え、 前記第2のエッジ検出手段は、前記基準点のエッジ座標
及びこれに近接する少なくとも2点のエッジ上の座標に
基づき直線要素を認識し、該直線要素と、前記基準点を
含む前記指示された点と前記基準点とを結ぶ方向のライ
ン上に存在する画素の階調変化とに基づいて前記直線要
素の法線ベクトルを求める機能をも更に有することを特
徴とする画像計測装置。
3. An image measurement device for measuring a shape of the measurement object using image information obtained by capturing an image of the measurement object, wherein: a memory for storing the image information; An image display device for displaying an image corresponding to the image on a display screen; point input means for inputting an instruction of a point near a measurement point on the image displayed on the display screen; Based on the position information and the gradation information of each pixel included in the image information, a predetermined condition among a plurality of points on the edge of the image of the object existing near the point designated by the point input means is determined. First edge detecting means for detecting edge coordinates which are coordinates of a point on the edge to be satisfied; and the specified point within a predetermined range including a point on the edge at which the edge coordinates are detected as a reference point; Multiple lines in the direction connecting the reference point For at least two lines other than the line including the reference point of the plurality of lines, on the edge based on the position information and the gradation information of each pixel included in the image information in the memory for each line. Second edge detecting means for detecting the coordinates of a point, wherein the second edge detecting means recognizes a straight line element based on the edge coordinates of the reference point and the coordinates on at least two edges near the reference point. A function of obtaining a normal vector of the linear element based on the linear element and a gradation change of a pixel existing on a line in a direction connecting the designated point including the reference point and the reference point. An image measurement device, further comprising:
【請求項4】 前記第1のエッジ検出手段は、前記計測
条件入力手段により指示された指示点を中心とする放射
状の複数のサーチ方向のライン上に存在する画素の位置
情報と階調情報とに基づいて複数のエッジ上の点を検出
し、これらの点の内の前記指示点との距離が最短の点の
座標をエッジ座標として検出することを特徴とする請求
項1〜3のいずれか一項に記載の画像計測装置。
4. The method according to claim 1, wherein the first edge detecting means includes position information and gradation information of pixels existing on a plurality of radial lines in the search direction centered on the designated point designated by the measuring condition input means. 4. A method according to claim 1, wherein points on a plurality of edges are detected based on the coordinates, and coordinates of a point having a shortest distance from the designated point among these points are detected as edge coordinates. The image measurement device according to claim 1.
【請求項5】 前記第1のエッジ検出手段は、点入力手
段により指示された点を中心とする所定の矩形範囲内に
行方向及び列方向の複数ラインを設定し、前記行方向及
び列方向のそれぞれについて、前記指示された点を含む
ラインと、該ライン以外の少なくとも2ラインについ
て、各ライン毎に前記メモリ内の画像情報に含まれる各
画素の位置情報と階調情報とに基づいてエッジ上の点の
座標を検出し、これらの点の内の前記指示された点との
距離が最短の点の座標をエッジ座標とする請求項1〜3
のいずれか一項に記載の画像計測装置。
5. The first edge detecting means sets a plurality of lines in a row direction and a column direction within a predetermined rectangular range centered on a point designated by a point input means, and For each of the lines, and for at least two lines other than the line, an edge based on the position information and the gradation information of each pixel included in the image information in the memory for each line. 4. The coordinates of an upper point are detected, and coordinates of a point having the shortest distance from the designated point among these points are set as edge coordinates.
The image measurement device according to any one of the above.
【請求項6】 計測対象物の像を撮像して得られた画像
情報を用いて前記計測対象物の形状を計測する画像計測
装置であって、 前記画像情報を記憶するメモリと;前記画像情報に対応
する画像を表示画面上に表示する画像表示装置と;前記
画面上に表示されるエッジ検出の対象範囲、位置及び方
向を示すマークを所望の位置に移動させるためのマーク
位置移動手段と;前記マークの移動に伴い、前記マーク
によるエッジ検出の対象範囲内に含まれるエッジ上の点
の座標をリアルタイムで求めるリアルタイム検出手段と
を有する画像計測装置。
6. An image measurement apparatus for measuring a shape of the measurement object using image information obtained by capturing an image of the measurement object, wherein the memory stores the image information; An image display device for displaying an image corresponding to the above on a display screen; and mark position moving means for moving a mark indicating a target range, a position and a direction of edge detection displayed on the screen to a desired position; An image measurement apparatus comprising: a real-time detection unit that obtains, in real time, coordinates of a point on an edge included in a target range of edge detection by the mark as the mark moves.
【請求項7】 前記リアルタイム検出手段は、前記マー
クの移動中に、前記エッジ検出の対象領域の範囲内に含
まれるエッジ上の点の座標に基づいて、前記計測対象物
の輪郭上の複数点間の距離、任意に選んだ直線への垂線
の長さあるいは任意に選んだ点との距離、若しくは該任
意に選んだ点を端点としてそれぞれ含む任意に選んだ直
線と前記エッジ上の点を通る直線とが成す角度をリアル
タイムで求める機能を更に有することを特徴とする請求
項6に記載の画像計測装置。
7. The method according to claim 7, wherein the real-time detection unit is configured to determine a plurality of points on an outline of the measurement target based on coordinates of points on an edge included in a range of the edge detection target area while the mark is moving. The distance between, the length of the perpendicular to an arbitrarily selected straight line or the distance to an arbitrarily selected point, or the arbitrarily selected straight line including the arbitrarily selected point as an end point and a point on the edge 7. The image measuring apparatus according to claim 6, further comprising a function of obtaining an angle formed by a straight line in real time.
【請求項8】 前記リアルタイム検出手段は、前記座標
を求めたエッジ上の点の法線ベクトルをリアルタイムで
求め、前記移動中の前記マークの角度を前記法線ベクト
ルと同方向にして前記画面上にリアルタイムに表示する
機能を更に有することを特徴とする請求項6に記載の画
像計測装置。
8. The real-time detecting means obtains, in real time, a normal vector of a point on the edge from which the coordinates have been obtained, and sets the angle of the moving mark in the same direction as the normal vector to display on the screen. The image measurement apparatus according to claim 6, further comprising a function of displaying the image in real time.
JP31005897A 1997-10-24 1997-10-24 Image measuring device Expired - Lifetime JP3887807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31005897A JP3887807B2 (en) 1997-10-24 1997-10-24 Image measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31005897A JP3887807B2 (en) 1997-10-24 1997-10-24 Image measuring device

Publications (2)

Publication Number Publication Date
JPH11132740A true JPH11132740A (en) 1999-05-21
JP3887807B2 JP3887807B2 (en) 2007-02-28

Family

ID=18000667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31005897A Expired - Lifetime JP3887807B2 (en) 1997-10-24 1997-10-24 Image measuring device

Country Status (1)

Country Link
JP (1) JP3887807B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004509346A (en) * 2000-09-22 2004-03-25 ベルス・メステヒニーク・ゲーエムベーハー A method for measuring a geometric shape of a measurement object by a coordinate measuring device.
JP2008111770A (en) * 2006-10-31 2008-05-15 Makino Milling Mach Co Ltd Measurement display method and machine equipped with measuring display device
JP2009282379A (en) * 2008-05-23 2009-12-03 Olympus Corp Endoscope and program
JP2010008394A (en) * 2008-05-26 2010-01-14 Olympus Corp Endoscopic device and program
US8233665B2 (en) 2009-01-23 2012-07-31 Keyence Corporation Image measuring apparatus and computer program
JP2012159410A (en) * 2011-02-01 2012-08-23 Keyence Corp Dimension measuring device, dimension measuring method, and program for dimension measuring device
JP2013036964A (en) * 2011-08-11 2013-02-21 Mitsutoyo Corp Image measurement apparatus and image measurement method
JP2014140402A (en) * 2013-01-22 2014-08-07 Olympus Corp Measuring device and program
US8903144B2 (en) 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
DE102016214080A1 (en) 2015-07-30 2017-02-02 Keyence Corporation Image inspection device, image inspection method and image inspection program
JP2019174288A (en) * 2018-03-28 2019-10-10 リコーエレメックス株式会社 Inspection system
CN113034485A (en) * 2021-04-09 2021-06-25 浙江欧视电科技有限公司 Circle detection method integrating Hough transformation and caliper clustering

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004509346A (en) * 2000-09-22 2004-03-25 ベルス・メステヒニーク・ゲーエムベーハー A method for measuring a geometric shape of a measurement object by a coordinate measuring device.
JP2008111770A (en) * 2006-10-31 2008-05-15 Makino Milling Mach Co Ltd Measurement display method and machine equipped with measuring display device
JP2009282379A (en) * 2008-05-23 2009-12-03 Olympus Corp Endoscope and program
JP2010008394A (en) * 2008-05-26 2010-01-14 Olympus Corp Endoscopic device and program
US8233665B2 (en) 2009-01-23 2012-07-31 Keyence Corporation Image measuring apparatus and computer program
US8903144B2 (en) 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
JP2012159410A (en) * 2011-02-01 2012-08-23 Keyence Corp Dimension measuring device, dimension measuring method, and program for dimension measuring device
JP2013036964A (en) * 2011-08-11 2013-02-21 Mitsutoyo Corp Image measurement apparatus and image measurement method
JP2014140402A (en) * 2013-01-22 2014-08-07 Olympus Corp Measuring device and program
US10019643B2 (en) 2013-01-22 2018-07-10 Olympus Corporation Measurement apparatus and program
DE102016214080A1 (en) 2015-07-30 2017-02-02 Keyence Corporation Image inspection device, image inspection method and image inspection program
US9959451B2 (en) 2015-07-30 2018-05-01 Keyence Corporation Image inspection device, image inspection method and image inspection program
JP2019174288A (en) * 2018-03-28 2019-10-10 リコーエレメックス株式会社 Inspection system
CN113034485A (en) * 2021-04-09 2021-06-25 浙江欧视电科技有限公司 Circle detection method integrating Hough transformation and caliper clustering

Also Published As

Publication number Publication date
JP3887807B2 (en) 2007-02-28

Similar Documents

Publication Publication Date Title
RU2521725C2 (en) System and method for three-dimensional measurement of shape of material objects
KR100499764B1 (en) Method and system of measuring an object in a digital
WO2014043461A1 (en) Laser scanner with dynamical adjustment of angular scan velocity
CN1163661A (en) Scanning arrangement and method
JP6576664B2 (en) Edge detection bias correction value calculation method, edge detection bias correction method, and program
JP2004509346A (en) A method for measuring a geometric shape of a measurement object by a coordinate measuring device.
JPH11132740A (en) Image measuring device
US7096149B2 (en) Method for determining coordinate system for device under measurement, and coordinate measuring apparatus
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
US7308128B2 (en) Magnifying observation apparatus, method for observing magnified image, and computer-readable medium
JPWO2005096129A1 (en) Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus
WO2018173352A1 (en) Image processing method and image processing device
JP2008116206A (en) Apparatus, method, and program for pattern size measurement
JP2006190212A (en) Three-dimensional position input device
JP4382430B2 (en) Head three-dimensional shape measurement system
JP2519445B2 (en) Work line tracking method
JPWO2016157403A6 (en) Charged particle beam apparatus, charged particle beam apparatus alignment method, alignment program, and storage medium
JP3595014B2 (en) Edge detection method and non-contact image measurement system using the same
WO2021141051A1 (en) Workpiece image analyzing device, workpiece image analyzing method, and program
JPS6197510A (en) Solid shape measuring apparatus
JP2011064579A (en) Three-dimensional measuring system and three-dimensional measuring method
JP3697780B2 (en) Image measuring device
US20220269061A1 (en) Magnified observation apparatus, magnified observation method, and non-transitory computer-readable storage medium or storage device
JPH0933227A (en) Discrimination method for three-dimensional shape
JP4496149B2 (en) Dimensional measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091208

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151208

Year of fee payment: 9

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151208

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151208

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term