JPH04340674A - Edge information extracting device - Google Patents

Edge information extracting device

Info

Publication number
JPH04340674A
JPH04340674A JP3141387A JP14138791A JPH04340674A JP H04340674 A JPH04340674 A JP H04340674A JP 3141387 A JP3141387 A JP 3141387A JP 14138791 A JP14138791 A JP 14138791A JP H04340674 A JPH04340674 A JP H04340674A
Authority
JP
Japan
Prior art keywords
edge
window
image
coordinates
representative point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3141387A
Other languages
Japanese (ja)
Other versions
JP2602588B2 (en
Inventor
Takashi Ueyama
植山 喬
Takaharu Akagi
敬治 赤木
Koichi Komatsu
浩一 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Priority to JP3141387A priority Critical patent/JP2602588B2/en
Publication of JPH04340674A publication Critical patent/JPH04340674A/en
Application granted granted Critical
Publication of JP2602588B2 publication Critical patent/JP2602588B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To extract an exact edge feature point by a simple operation without distinguishing whether an objective edge is one part of a straight line or one part of a circular are in the edge information extracting device to extract specified edge information from the monitor image, etc., of an object. CONSTITUTION:This device is provided with a means displaying a multilevel image, a means setting more than one windows in the multilevel image, a means superimposing the window set by this means to the multilevel image and to display the image, a means extracting the edge information at a part instructed by the window in this multilevel image, a means detecting the coordinates of an edge representative point in the window twice at least based on the edge information while virtually switching window width to a central part, and a means calculating true edge representative point coordinates based on the first edge representative point coordinates, second edge representative point coordinates and window width change rate.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、物体の寸法及び座標等
を測定する測定装置において、対象物のモニタ画像等か
ら特定のエッジ情報を抽出するエッジ情報抽出装置に関
し、特に対象とするエッジが直線でも円弧でも区別する
ことなく正確にエッジ情報を抽出できるようにしたエッ
ジ情報抽出装置に関する。
[Field of Industrial Application] The present invention relates to an edge information extraction device for extracting specific edge information from a monitor image of an object in a measuring device for measuring the dimensions and coordinates of an object, and in particular, the present invention relates to an edge information extraction device for extracting specific edge information from a monitor image of the object. The present invention relates to an edge information extraction device that can accurately extract edge information without distinguishing between straight lines and circular arcs.

【0002】0002

【従来の技術】従来から、物体計測の分野では、例えば
被測定物体の顕微鏡像をTVカメラで撮像し、これをモ
ニタ画面上に表示させると共に、画面上の数個の点を指
定することにより、上記被測定物の座標、幅、長さ及び
半径等を算出する測定装置が知られている。この種の装
置では、被測定物体の測定すべき幅、長さ等を規定する
画像中のエッジ上の点を指定して測定が行われる。この
ため、モニタ画像上の指定されたエッジの情報を抽出す
るエッジ情報抽出処理が必要になる。このエッジ情報抽
出処理には、例えば画面輝度(濃度)の中間値をスレッ
ショルドレベルとして多値画像データを2値化し、この
前処理でエッジ部分を明瞭化した上でエッジ情報を抽出
する方法がある。ところが、多値画像によっては画像全
体に適用できる適切なスレッショルドレベルを得ること
が難しい。この点を改善するために本発明者等は先に多
値画像中に任意の数のウインドウを設定する方法を提案
した(特願平 2−35799号)。この方法では限ら
れた面積のウインドウ内で局部的なスレッショルドレベ
ルを設定することができるため、多値画像全体で複数の
スレッショルドレベルを持つことができ、全体を一つの
スレッショルドレベルで2値化するような曖昧さがない
[Background Art] Conventionally, in the field of object measurement, for example, a microscopic image of an object to be measured is taken with a TV camera, and this is displayed on a monitor screen, and several points on the screen are specified. A measuring device is known that calculates the coordinates, width, length, radius, etc. of the object to be measured. In this type of apparatus, measurement is performed by specifying a point on an edge in an image that defines the width, length, etc. to be measured of the object to be measured. Therefore, edge information extraction processing is required to extract information on specified edges on the monitor image. For this edge information extraction process, for example, there is a method of binarizing multivalued image data using the intermediate value of screen brightness (density) as a threshold level, clarifying edge parts with this preprocessing, and then extracting edge information. . However, depending on the multilevel image, it is difficult to obtain an appropriate threshold level that can be applied to the entire image. In order to improve this point, the present inventors previously proposed a method of setting an arbitrary number of windows in a multilevel image (Japanese Patent Application No. 2-35799). With this method, it is possible to set a local threshold level within a window of limited area, so the entire multilevel image can have multiple threshold levels, and the entire multilevel image can be binarized using a single threshold level. There is no such ambiguity.

【0003】0003

【発明が解決しようとする課題】上述したウインドウ設
定式のエッジ情報抽出装置では、各ウインドウ内の2値
化データの中から黒白変化点の座標を各画素列毎に求め
、これに直線近似最小自乗法を適用してその算術平均か
らウインドウ内の代表的な座標(例えば中点の座標)を
決定している。この方法によると、対象とするエッジが
直線の一部である場合は誤差が少ないが、円弧の一部で
あると実際のエッジ特徴点との間に誤差が生ずる(算出
した座標が実際のエッジ特徴点より円弧の中心方向にず
れる)。しかしながら、画素単位で考えた場合、ウイン
ドウ内のエッジが円弧の一部であるのか直線の一部であ
るのかを判定する方法がないため、上記の誤差を余儀な
くされる問題がある。
[Problem to be Solved by the Invention] In the above-mentioned window setting type edge information extraction device, the coordinates of the black-white transition point are determined for each pixel column from the binarized data in each window, and The square method is applied to determine representative coordinates within the window (for example, the coordinates of the midpoint) from the arithmetic mean. According to this method, if the target edge is part of a straight line, there will be little error, but if the target edge is part of a circular arc, an error will occur between it and the actual edge feature point (the calculated coordinates will be (deviated from the feature point toward the center of the arc). However, when considered pixel by pixel, there is a problem in that the above-mentioned error is unavoidable because there is no way to determine whether an edge within a window is part of a circular arc or a part of a straight line.

【0004】本発明はこの問題点を解決し、対象とする
エッジが直線の一部か円弧の一部かを区別することなく
、簡単な操作で正確なエッジ特徴点(真のエッジ代表点
座標)を抽出できるようにすることを目的としている。
The present invention solves this problem and calculates accurate edge feature points (true edge representative point coordinates) with simple operations without distinguishing whether the target edge is a part of a straight line or a part of a circular arc. ) is intended to be extracted.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め本発明では、多値画像を表示する手段と、前記多値画
像中に1つ以上のウインドウを設定する手段と、この手
段で設定されたウインドウを前記多値画像に重畳して表
示させる手段と、この多値画像中のウインドウによって
指示された部分のエッジ情報を抽出する手段と、前記エ
ッジ情報に基づき前記ウインドウ内のエッジ代表点座標
を、ウインドウ幅を中央部へ向けて仮想的に切換えて少
なくとも2回検出する手段と、1回目のエッジ代表点座
標と2回目のエッジ代表点座標およびウインドウ幅変化
率に基づいて真のエッジ代表点座標を算出する手段とを
備えたことを特徴としている。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides means for displaying a multi-valued image, means for setting one or more windows in the multi-valued image, and a means for setting one or more windows in the multi-valued image. means for displaying a window superimposed on the multi-valued image, means for extracting edge information of a portion designated by the window in the multi-valued image, and means for extracting edge representative points within the window based on the edge information. Means for detecting the coordinates at least twice by virtually switching the window width toward the center, and detecting the true edge based on the coordinates of the first edge representative point, the second edge representative point coordinates, and the window width change rate. The present invention is characterized by comprising means for calculating representative point coordinates.

【0006】[0006]

【作用】ウインドウ内のエッジが直線の一部である場合
は、ウインドウ幅を変化させても1,2回目のエッジ代
表点は変わらない。これに対し、ウインドウ内のエッジ
が円弧の一部である場合は、ウインドウ幅を変化させる
ことで1,2回目のエッジ代表点の間に誤差が生じる。 この誤差はウインドウ幅変化率と密接に関係し、真のエ
ッジ代表点座標を下記の数1で算出することを可能にす
る。即ち、1回目のエッジ代表点座標をP0’、2回目
のエッジ代表点座標をP0”、1回目から2回目へのウ
インドウ幅変化率を1/mとした場合、真のエッジ代表
点座標P0は概ね次のようになる。
[Operation] If the edge in the window is part of a straight line, the first and second edge representative points do not change even if the window width is changed. On the other hand, if the edge within the window is part of a circular arc, changing the window width will cause an error between the first and second edge representative points. This error is closely related to the window width change rate, and makes it possible to calculate the true edge representative point coordinates using Equation 1 below. That is, if the first edge representative point coordinate is P0', the second edge representative point coordinate is P0'', and the window width change rate from the first to the second time is 1/m, then the true edge representative point coordinate P0 is is roughly as follows.

【0007】[0007]

【数1】P0 =(m2・P0”−P0’)/(m2−
1)
[Math. 1] P0 = (m2・P0''-P0')/(m2-
1)

【0008】上記の数1は対象とするエッジが直線
の一部でも円弧の一部でも区別することなく適用できる
The above equation 1 can be applied regardless of whether the target edge is a part of a straight line or a part of a circular arc.

【0009】[0009]

【実施例】以下、添付の図面を参照して本発明の実施例
を説明する。図1は、本発明を微小物体の寸法測定装置
に適用した実施例を示す要部ブロック図、図2はその全
体構成を示す斜視図である。この測定装置は大別して、
図2に示すように、被測定物体1の光学像を拡大する測
定顕微鏡2と、この測定顕微鏡2に装着されたCCDカ
メラ3と、このCCDカメラ3からの画像信号を処理し
て寸法測定処理を実行するデータ処理装置4とより構成
されている。測定顕微鏡2には、被測定物体1を載置す
るステージ12が装着されている。このステージ12は
、X方向ステージ調整ハンドル13、Y方向調整ハンド
ル14及びステージ回転つまみ15によって、各々X方
向、Y方向及び回転方向に移動可能なものとなっている
。また、本体11の向かって奥には、上方へ延びるレン
ズ支持レール16が固定されており、このレンズ支持レ
ール16に、レンズ組立体17が上下動可能に支持され
ている。レンズ組立体17は、被測定物体1と対向する
側に、4穴レボルバ18に装着された倍率が異なる4つ
の対物レンズ19a,19b,19c,19dを備えて
いる。また、レンズ組立体17は、その上部に接眼レン
ズ20を備え、この接眼レンズ20と対物レンズ19a
〜19dとを正立三眼鏡筒21を介して光学的に結合す
るものとなっている。このレンズ組立体17は、焦点調
整ハンドル22によって上下動される。また、正立三眼
鏡筒21は、正立三眼鏡筒上下動つまみ23によって上
下動される。この測定顕微鏡2の正立三眼鏡筒21の上
部に装着されたCCDカメラ3は、例えば768×49
3の画素数である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram of a main part showing an embodiment in which the present invention is applied to a size measuring device for a minute object, and FIG. 2 is a perspective view showing the overall configuration thereof. This measuring device can be broadly classified into
As shown in FIG. 2, there is a measuring microscope 2 that magnifies the optical image of the object to be measured 1, a CCD camera 3 attached to the measuring microscope 2, and a dimension measurement process by processing the image signal from the CCD camera 3. The data processing device 4 is configured to perform the following steps. The measuring microscope 2 is equipped with a stage 12 on which the object to be measured 1 is placed. This stage 12 is movable in the X direction, Y direction, and rotational direction by an X direction stage adjustment handle 13, a Y direction adjustment handle 14, and a stage rotation knob 15, respectively. Further, a lens support rail 16 extending upward is fixed to the back of the main body 11, and a lens assembly 17 is supported on this lens support rail 16 so as to be movable up and down. The lens assembly 17 includes four objective lenses 19a, 19b, 19c, and 19d with different magnifications attached to a four-hole revolver 18 on the side facing the object to be measured 1. Further, the lens assembly 17 includes an eyepiece 20 on its upper part, and the eyepiece 20 and the objective lens 19a.
-19d are optically coupled via the erect trinocular tube 21. This lens assembly 17 is moved up and down by a focus adjustment handle 22. Further, the erecting trinocular tube 21 is moved up and down by the erecting trinocular tube vertical movement knob 23. The CCD camera 3 attached to the top of the erect trinocular tube 21 of this measuring microscope 2 has a size of, for example, 768×49
The number of pixels is 3.

【0010】データ処理装置4は、図1に示すように構
成されている。なお、処理装置本体30の内部の各機能
ブロックは、ハードウェアによって実現されていても、
CPU及びソフトウェアによって実現されていても良い
。CCDカメラ3で撮像された被測定物体1の拡大像の
アナログ画像信号は、A/D変換器31に入力されてい
る。A/D変換器31は、アナログ画像信号を例えば8
ビットの多値画像データに変換する。A/D変換器31
から出力される多値画像データは、多値画像メモリ32
に格納されるようになっている。また、データ処理装置
4にはキーボード33が設けられており、これによりウ
インドウの数、位置及び大きさ並びに寸法測定の際の演
算条件等を設定することができる。キーボード33から
のウインドウ設定のためのデータ(以下、ウインドウデ
ータと呼ぶ)は、ウインドウ設定メモリ34に格納され
る。このウインドウ設定メモリ34に格納されたウイン
ドウデータと多値画像メモリ32に格納された被測定物
体1の多値画像データとは合成手段35において重畳さ
れ、CRTディスプレイ36に表示されるようになって
いる。
The data processing device 4 is configured as shown in FIG. Note that even if each functional block inside the processing device main body 30 is realized by hardware,
It may be realized by a CPU and software. An analog image signal of an enlarged image of the object to be measured 1 captured by the CCD camera 3 is input to the A/D converter 31 . The A/D converter 31 converts the analog image signal into, for example, 8
Convert to bit multivalued image data. A/D converter 31
The multivalued image data output from the multivalued image memory 32
It is designed to be stored in . Further, the data processing device 4 is provided with a keyboard 33, through which the number, position and size of windows, calculation conditions for dimension measurement, etc. can be set. Data for setting the window from the keyboard 33 (hereinafter referred to as window data) is stored in the window setting memory 34. The window data stored in the window setting memory 34 and the multi-value image data of the object to be measured 1 stored in the multi-value image memory 32 are superimposed in the synthesizing means 35 and displayed on the CRT display 36. There is.

【0011】一方、多値画像メモリ32に格納された多
値画像データとウインドウ設定メモリ34に格納された
ウインドウデータは、ウインドウ内2値化手段37にも
供給されている。ウインドウ内2値化手段37は、指定
されたウインドウ内の多値画像データのみを2値化して
、ウインドウ内のエッジ部分を明瞭化させる。ウインド
ウ内2値化手段37で2値化された画像データは、エッ
ジ座標検出手段38に供給されている。エッジ座標検出
手段38は、2値化データからエッジ情報を抽出し、そ
のエッジの代表点、例えば中点の座標(以下、エッジ座
標と呼ぶ)を検出する。これらウインドウ内2値化手段
37及びエッジ座標検出手段38は、ウインドウ内処理
用メモリ42を適宜アクセスしてその処理を実行する。 エッジ座標検出手段38で検出されたエッジ座標は座標
メモリ39に格納される。演算手段40は、座標メモリ
39に格納された各ウインドウのエッジ座標と、キーボ
ード33によって指定された演算条件とに基づいて、被
測定物体1の幅、長さ、半径等の寸法を算出する。この
算出結果は、測定結果として液晶ディスプレイ41に表
示されるようになっている。
On the other hand, the multi-value image data stored in the multi-value image memory 32 and the window data stored in the window setting memory 34 are also supplied to an in-window binarization means 37. The in-window binarization means 37 binarizes only the multivalued image data within the specified window to clarify edge portions within the window. The image data binarized by the in-window binarization means 37 is supplied to the edge coordinate detection means 38. The edge coordinate detection means 38 extracts edge information from the binarized data, and detects the coordinates of a representative point of the edge, for example, the midpoint (hereinafter referred to as edge coordinates). The in-window binarization means 37 and the edge coordinate detection means 38 appropriately access the in-window processing memory 42 and execute the processing. The edge coordinates detected by the edge coordinate detection means 38 are stored in the coordinate memory 39. The calculating means 40 calculates dimensions such as the width, length, radius, etc. of the object to be measured 1 based on the edge coordinates of each window stored in the coordinate memory 39 and the calculation conditions specified by the keyboard 33. This calculation result is displayed on the liquid crystal display 41 as a measurement result.

【0012】次に、このように構成された本装置の動作
を説明する。ステージ12上に載置された被測定物体1
の光学像は、測定顕微鏡2によって拡大された後、CC
Dカメラ3で撮像される。CCDカメラ3からのアナロ
グ画像信号は、A/D変換器31で8ビットの多値画像
データにA/D変換され、多値画像メモリ32に格納さ
れる。多値画像データが多値画像メモリ32に格納され
ると、中間調を含む多値画像データがCRTディスプレ
イ36に表示される。このディスプレイ36に表示され
た多値画像内にM×N(例えば20×14)の大きさの
ウインドウを任意の個数設定し、各ウインドウ内でスレ
ッショルドレベルを設定して多値画像を2値化する。図
3は、このようにして2値化されたウインドウ内に直線
のエッジが含まれる例を示している。図示の2値化デー
タは拡大されているため階段状であるが、そのエッジ情
報として得られたN個の点(図示の例では14個の黒点
)を最小自乗法で算術平均すると、図示のような近似直
線L1 を求めることができる。この直線L1 の例え
ば中点P0 (N/2の点)がウインドウ内2値化デー
タの代表的な座標(エッジ座標)となる。このようにウ
インドウ内エッジが直線の一部である場合は、得られた
エッジ座標が実際のエッジ特徴点にほぼ一致する。
Next, the operation of the apparatus configured as described above will be explained. Measured object 1 placed on stage 12
After being magnified by the measuring microscope 2, the optical image of CC
The image is captured by the D camera 3. The analog image signal from the CCD camera 3 is A/D converted into 8-bit multi-value image data by an A/D converter 31 and stored in a multi-value image memory 32. When the multi-value image data is stored in the multi-value image memory 32, the multi-value image data including halftones is displayed on the CRT display 36. An arbitrary number of windows of size M×N (for example, 20×14) are set within the multivalued image displayed on the display 36, and a threshold level is set within each window to binarize the multivalued image. do. FIG. 3 shows an example in which straight edges are included in the window binarized in this manner. The illustrated binarized data has a step-like shape because it has been enlarged, but when the N points obtained as edge information (14 black points in the illustrated example) are arithmetic averaged using the least squares method, the illustrated An approximate straight line L1 like this can be obtained. For example, the midpoint P0 (point N/2) of this straight line L1 becomes the representative coordinates (edge coordinates) of the binarized data within the window. In this way, when the edge within the window is part of a straight line, the obtained edge coordinates almost match the actual edge feature point.

【0013】これに対し、ウインドウ内に円弧のエッジ
が含まれる場合は事情が異なる。図4の円弧P1P0P
2 は、中心Oで半径R0 の円周上に含まれ、その中
心は右水平線Hから角度θだけ反時計方向に回転してい
る。ここではR0 =20、M×N=20×14の場合
を例としている。このウインドウ内で同様のエッジ抽出
処理を行うと14個の点が得られるが、これらの点を対
象にして最小自乗法で算術平均した場合、得られる近似
直線L2 は点P1’,P2’ を通り、その中点P0
’ は、円弧P1P0P2 の中点即ち真のエッジ特徴
点P0 からずれた位置になる。本発明ではこの誤差を
可能な限り低減しようとするものである。
On the other hand, the situation is different when the edge of a circular arc is included within the window. Arc P1P0P in Figure 4
2 is included on the circumference of a circle having a center O and a radius R0, and the center is rotated counterclockwise by an angle θ from the right horizontal line H. Here, the case where R0=20 and M×N=20×14 is taken as an example. If similar edge extraction processing is performed within this window, 14 points will be obtained, but if these points are arithmetic averaged using the method of least squares, the obtained approximate straight line L2 will connect points P1' and P2'. street, its midpoint P0
' is a position shifted from the midpoint of the arc P1P0P2, that is, the true edge feature point P0. The present invention attempts to reduce this error as much as possible.

【0014】円弧P1P0P2 の両端の点P1,P2
を結ぶ直線L3 の中点をQとしたとき、近似直線L2
 の中点P0’とのずれΔは、円弧P1P0P2の面積
Sをウインドウの幅Nで割った値に等しい。つまり、平
行四辺形P1P1’P2P2’の面積がSに等しいとい
うことである。円弧P1P0P2の面積Sは、扇形OP
1P2の面積から三角形OP1P2の面積を減算する下
記の数2によって表される。
Points P1 and P2 at both ends of arc P1P0P2
When the midpoint of the straight line L3 connecting the lines is Q, the approximate straight line L2
The deviation Δ from the midpoint P0' is equal to the area S of the arc P1P0P2 divided by the width N of the window. In other words, the area of the parallelogram P1P1'P2P2' is equal to S. The area S of the arc P1P0P2 is fan-shaped OP
It is expressed by Equation 2 below, which subtracts the area of triangle OP1P2 from the area of 1P2.

【0015】[0015]

【数2】 S=R02{(θ2−θ1)−sin(θ2−θ1)}
/2
[Formula 2] S=R02 {(θ2-θ1)-sin(θ2-θ1)}
/2

【0016】一方、点P0’とP0 は共にウイン
ドウの中線T上にあるため、それらのY座標は共にR0
・sinθである。このとき、点P1とP2のY座標は
この値より上下にN/2ずつずれている。従って、以下
の関係が成り立つ。
On the other hand, since points P0' and P0 are both on the window midline T, their Y coordinates are both R0
・Sin θ. At this time, the Y coordinates of points P1 and P2 are shifted up and down by N/2 from this value. Therefore, the following relationship holds true.

【0017】[0017]

【数3】sinθ1=sinθ−N/2R0sinθ2
=sinθ+N/2R0
[Math. 3] sin θ1=sin θ−N/2R0sin θ2
= sinθ+N/2R0

【0018】これらの関係式を用いると、点P0とP0
’との間隔即ち誤差Eと半径R0との比は次のように表
される。
Using these relational expressions, the points P0 and P0
'The ratio between the distance E, that is, the error E, and the radius R0 is expressed as follows.

【0019】[0019]

【数4】   E/R0 =cosθ−(cosθ2−cosθ1
)/2            +{(θ2−θ1)−
sin(θ2−θ1)}×R0/2N
[Equation 4] E/R0 = cos θ-(cos θ2-cos θ1
)/2 +{(θ2−θ1)−
sin(θ2-θ1)}×R0/2N

【0020】上式
の右辺第1項はP0のX座標、右辺第2項はP1,P2
間の中点のX座標、右辺第3項は円弧面積Sをウインド
ウ幅Nで割った前述のΔに関係する。上述した誤差Eは
ウインドウ幅Nに密接に関係する。即ち、数4のE/R
0とN/R0の関係を図示すると図5のようになる。同
図は円弧半径R0の傾きθをパラメータとして、これを
0°から45°まで5°おきに設定したものである。こ
の図から明らかなように、傾きθが一定であれば、ウイ
ンドウ幅Nが小さいほど誤差Eが減少する。またウイン
ドウ幅Nが一定であれば、傾きθが小さいほど誤差Eが
減少することも示している。ウインドウ幅Nの減少に対
し、誤差Eがどの程度減少するかは、図6のように両対
数目盛で表示すると明瞭になる。この図6は図5と同じ
内容を示したものであるが、各特性は直線となり、その
傾きからE/R0 がN/R0 の下げ率(mとする)
の自乗で低下することを示している。
[0020] The first term on the right side of the above equation is the X coordinate of P0, and the second term on the right side is P1, P2.
The X coordinate of the midpoint between them and the third term on the right side are related to the aforementioned Δ, which is the arc area S divided by the window width N. The error E mentioned above is closely related to the window width N. That is, E/R of number 4
The relationship between 0 and N/R0 is illustrated in FIG. In this figure, the inclination θ of the radius R0 of the circular arc is used as a parameter, and is set at every 5° from 0° to 45°. As is clear from this figure, if the slope θ is constant, the error E decreases as the window width N becomes smaller. It also shows that if the window width N is constant, the error E decreases as the slope θ becomes smaller. The extent to which the error E decreases with respect to a decrease in the window width N becomes clear when displayed on a logarithmic scale as shown in FIG. This Figure 6 shows the same content as Figure 5, but each characteristic is a straight line, and from its slope, E/R0 is the reduction rate of N/R0 (m)
This shows that the value decreases as the square of .

【0021】本発明は、この点に着目して次のような信
号処理を行う。即ち、図7に示すようにM×Nのウイン
ドウを設定した場合、1回目のエッジ特徴点検出はこの
ウインドウのまま行う。このとき検出された特徴点が前
述のP0’である。次にウインドウ幅を中心部に向けて
仮想的に1/mにする。図7の1点鎖線V1,V2はこ
の仮想的なウインドウの範囲を示している。このように
して仮想的にM×(N/m)のウインドウが設定された
ら、ここで再度前述したと同様にして2回目のエッジ特
徴点P0” を求める。この2回目の特徴点P0” は
図8に示すように、直線L2 と平行で、円弧の中点P
0 により近い直線L4 の中点である。この点P0”
も真点P0に対しては誤差を有する。しかし、この誤差
は1回目の点P0’よりは減少している。この誤差の減
少の度合いがウインドウ幅の減少率mに関係することは
図5および図6で示した通りであるが、一般的には減少
率mの自乗m2 に近似的に比例して誤差は減少する。 そこで、本発明では前述した数1の計算式で真のエッジ
特徴点P0 を算出する。この数1は、図8に示した点
P0 ,P0” 間の距離(誤差)が点P0 ,P0’
 の距離(誤差)の1/m2 の関係にあることを利用
したものである。この計算式は直線でも円弧でも共通に
適用できる。従って、操作者はこれらを区別することな
く真のエッジ特徴点を求めることができる。
The present invention focuses on this point and performs the following signal processing. That is, when an M×N window is set as shown in FIG. 7, the first edge feature point detection is performed using this window. The feature point detected at this time is the aforementioned P0'. Next, the window width is virtually set to 1/m toward the center. The dashed-dotted lines V1 and V2 in FIG. 7 indicate the range of this virtual window. Once a virtual M×(N/m) window is set in this way, the second edge feature point P0" is found again in the same manner as described above. This second feature point P0" is As shown in Figure 8, parallel to straight line L2, midpoint P of the circular arc
This is the midpoint of straight line L4, which is closer to 0. This point P0”
also has an error with respect to the true point P0. However, this error has decreased compared to the first point P0'. As shown in Figures 5 and 6, the degree of decrease in this error is related to the window width decrease rate m, but in general, the error is approximately proportional to the square of the decrease rate m2. Decrease. Therefore, in the present invention, the true edge feature point P0 is calculated using the above-mentioned equation (1). This number 1 shows that the distance (error) between the points P0 and P0'' shown in Figure 8 is the point P0 and P0'
This takes advantage of the fact that the distance (error) is 1/m2. This calculation formula can be applied to both straight lines and circular arcs. Therefore, the operator can find true edge feature points without distinguishing between them.

【0022】本発明は、種々に変形して実施できる。一
例として、m=2とすると誤差は1/4になり、またm
=3とすると誤差は1/9に低減されるが、数1の計算
式によれば、mの値をどのように選択しても同様の結果
を得ることができる。また、実施例ではウインドウの幅
をNについて減少させたが、円弧が横方向に横切る場合
はウインドウ幅をMについて減少させればよい。
The present invention can be implemented with various modifications. As an example, if m = 2, the error will be 1/4, and m
=3, the error is reduced to 1/9, but according to the formula of Equation 1, the same result can be obtained no matter how the value of m is selected. Further, in the embodiment, the window width is reduced by N, but if the arc crosses in the horizontal direction, the window width may be reduced by M.

【0023】[0023]

【発明の効果】以上述べたように本発明によれば、対象
物のモニタ画像等から特定のエッジ情報を抽出するエッ
ジ情報抽出装置において、対象とするエッジが直線の一
部か円弧の一部かを区別することなく、簡単な操作で正
確なエッジ特徴点を抽出することができる。
As described above, according to the present invention, in an edge information extraction device that extracts specific edge information from a monitor image of an object, the target edge is a part of a straight line or a part of an arc. Accurate edge feature points can be extracted with simple operations without distinguishing between

【図面の簡単な説明】[Brief explanation of drawings]

【図1】  本発明の実施例を示す要部ブロック図であ
る。
FIG. 1 is a block diagram of main parts showing an embodiment of the present invention.

【図2】  本発明の実施例装置の外観斜視図である。FIG. 2 is an external perspective view of a device according to an embodiment of the present invention.

【図3】  直線エッジの説明図である。FIG. 3 is an explanatory diagram of a straight edge.

【図4】  円弧エッジの説明図である。FIG. 4 is an explanatory diagram of an arcuate edge.

【図5】  ウインドウ幅と特徴点誤差の特性図である
FIG. 5 is a characteristic diagram of window width and feature point error.

【図6】  図5の対数表示特性図である。FIG. 6 is a logarithmic display characteristic diagram of FIG. 5.

【図7】  ウインドウ幅切換の説明図である。FIG. 7 is an explanatory diagram of window width switching.

【図8】  各次特徴点と真の特徴点の関係図である。FIG. 8 is a relationship diagram between each degree feature point and true feature point.

【符号の説明】[Explanation of symbols]

1…被測定物体、2…測定顕微鏡、3…CCDカメラ、
4…データ処理装置、32…多値画像メモリ、34…ウ
インドウ設定メモリ、35…合成手段、36…CRTデ
ィスプレイ、37…ウインドウ内2値化手段、38…エ
ッジ座標検出手段、39…座標メモリ、40…演算手段
、42…ウインドウ内処理用メモリ。
1...Object to be measured, 2...Measuring microscope, 3...CCD camera,
4...Data processing device, 32...Multi-valued image memory, 34...Window setting memory, 35...Composition means, 36...CRT display, 37...In-window binarization means, 38...Edge coordinate detection means, 39...Coordinate memory, 40... Arithmetic means, 42... Memory for processing within the window.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  多値画像を表示する手段と、前記多値
画像中に1つ以上のウインドウを設定する手段と、この
手段で設定されたウインドウを前記多値画像に重畳して
表示させる手段と、この多値画像中のウインドウによっ
て指示された部分のエッジ情報を抽出する手段と、前記
エッジ情報に基づき前記ウインドウ内のエッジ代表点座
標を、ウインドウ幅を中央部へ向けて仮想的に切換えて
少なくとも2回検出する手段と、1回目のエッジ代表点
座標と2回目のエッジ代表点座標およびウインドウ幅変
化率に基づいて真のエッジ代表点座標を算出する手段と
を備えたことを特徴とするエッジ情報抽出装置。
1. Means for displaying a multivalued image, means for setting one or more windows in the multivalued image, and means for displaying the window set by this means superimposed on the multivalued image. a means for extracting edge information of a portion designated by a window in the multivalued image; and a means for virtually switching the coordinates of an edge representative point within the window based on the edge information so that the window width is directed toward the center. and means for calculating the true edge representative point coordinates based on the first edge representative point coordinates, the second edge representative point coordinates, and the window width change rate. edge information extraction device.
JP3141387A 1991-05-17 1991-05-17 Edge information extraction device Expired - Fee Related JP2602588B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3141387A JP2602588B2 (en) 1991-05-17 1991-05-17 Edge information extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3141387A JP2602588B2 (en) 1991-05-17 1991-05-17 Edge information extraction device

Publications (2)

Publication Number Publication Date
JPH04340674A true JPH04340674A (en) 1992-11-27
JP2602588B2 JP2602588B2 (en) 1997-04-23

Family

ID=15290816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3141387A Expired - Fee Related JP2602588B2 (en) 1991-05-17 1991-05-17 Edge information extraction device

Country Status (1)

Country Link
JP (1) JP2602588B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201693A (en) * 2014-04-04 2015-11-12 富士電機株式会社 Safety control apparatus and safety control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201693A (en) * 2014-04-04 2015-11-12 富士電機株式会社 Safety control apparatus and safety control system
US10178302B2 (en) 2014-04-04 2019-01-08 Fuji Electric Co., Ltd. Safety control device and safety control system

Also Published As

Publication number Publication date
JP2602588B2 (en) 1997-04-23

Similar Documents

Publication Publication Date Title
JPS6161002A (en) Automatic measuring system of sectional shape
JPH05137047A (en) Method and device for detection of focal point
JP2002039750A (en) Automatic survey system
JP3501610B2 (en) 3D coordinate measurement method
JP3887807B2 (en) Image measuring device
CN113378663B (en) Inspection pointer type circular instrument identification method and device
CN109099835A (en) Power line clamp measurement method and its system based on mobile telephone image
JPH04340674A (en) Edge information extracting device
JPH1151651A (en) Method for measuring tilt angle of surface of sight mark, three-dimensional coordinate measuring method, and sight mark
KR20100034039A (en) Micro-dimension measuring method and measuring device
JP2001314374A (en) Corneal endothelial cell measuring apparatus
JPH0829361A (en) Lcd panel picture quality inspection device
JPH07113531B2 (en) Coordinate conversion method of measuring device
JPH0654209B2 (en) Coordinate conversion method of measuring device
JPH0560539A (en) Size measurement device
JPH03240176A (en) Edge information extracting device
JPH08327352A (en) Surveying apparatus and angle measuring method
JPH0989528A (en) Dimension measuring device
JP3265171B2 (en) Stereo image correction condition detection device
JPH02251708A (en) Three-dimensional position measuring apparatus
JPH01129113A (en) Measuring method of surface roughness
JPS63128215A (en) Detecting method for inclination of camera optical axis
JPH0981755A (en) Plane estimating method
JPH11351835A (en) Method for extracting contour line of cutting edge by processing taken image of tool
JPH10221067A (en) Electronic level

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees