JP3650205B2 - Non-contact image measurement system and edge tracking measurement method - Google Patents

Non-contact image measurement system and edge tracking measurement method Download PDF

Info

Publication number
JP3650205B2
JP3650205B2 JP03410696A JP3410696A JP3650205B2 JP 3650205 B2 JP3650205 B2 JP 3650205B2 JP 03410696 A JP03410696 A JP 03410696A JP 3410696 A JP3410696 A JP 3410696A JP 3650205 B2 JP3650205 B2 JP 3650205B2
Authority
JP
Japan
Prior art keywords
window
edge
measurement
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03410696A
Other languages
Japanese (ja)
Other versions
JPH08292015A (en
Inventor
和俊 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP03410696A priority Critical patent/JP3650205B2/en
Publication of JPH08292015A publication Critical patent/JPH08292015A/en
Application granted granted Critical
Publication of JP3650205B2 publication Critical patent/JP3650205B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、CCDカメラ等の撮像手段で被測定対象を撮像すると共に、被測定対象の画像に含まれる輪郭を検出して必要な計測情報を抽出する非接触画像計測システム及びエッジ追跡測定方法に関する。
【0002】
【従来の技術】
従来、この種の非接触画像計測システムは、接触測定では困難なICのリードフレームのような薄板の測定や配線パターン等の測定に使用されている。非接触画像計測を行う場合には、被測定対象(ワーク)を測定テーブルにセットしたのち、CCDカメラ等の撮像装置をワークの測定したい箇所に移動させ、フォーカス調整を行ってCRTディスプレイ上にワークの拡大画像を表示させる。そして、測定する箇所をマウスのカーソルやウィンドウで指示し、画像処理技術に基づいて画像のエッジ部分を抽出して所望する計測値を演算処理により求めていく。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来の非接触画像計測システムでは、画像情報の特定のエッジ部分をエッジに沿って連続的に測定したい場合、測定領域を指定するウィンドウをエッジに沿って連続的に移動させなくてはならず、操作が面倒であるという問題がある。
一方、画像処理の分野では、種々のエッジ追跡処理の方式が知られている。しかし、従来知られている方式は、多くのものが近傍画素を参照しながら追跡を行うもので、追跡に時間がかかる上、任意の間隔でサンプリングを行う非接触測定には適さないという問題がある。
更に、従来の方式では、1画素よりも小さな単位のエッジ計測に適さないという問題もある。
【0004】
本発明はこのような問題点を解決するためになされたもので、形状が未知又は変化する物体に対しても柔軟にエッジ追跡を行って必要な計測情報を抽出することができる操作性に優れた非接触測定装置及びエッジ追跡測定方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
本発明に係るエッジ追跡測定方法は、追従すべきエッジを含む被測定画像に前記エッジの一部を含むようにウィンドウを設定するためのステップと、設定されたウィンドウ内の画像情報から前記ウィンドウ内の複数のエッジ点を検出するステップと、このステップで検出された複数のエッジ点に近似直線を当てはめるステップと、このステップで当てはめられた近似直線に沿って一部の領域が現在のウィンドウに重なるように次の新たなウィンドウを設定するステップとを備え、前記新たなウィンド内の画像情報に基づいて前記エッジ点の検出、前記直線の当てはめ、及び前記新たなウィンドウの生成を順次繰り返すことにより、前記ウィンドウを前記被測定画像のエッジに沿って順次移動させながら前記ウィンドウ内で必要な測定点を抽出していくことを特徴とする。
【0006】
本発明に係る他のエッジ追跡測定方法は、被測定対象を撮像することによって表示画面に表示された追従すべきエッジを含む被測定画像に前記エッジの一部を含むようにウィンドウを設定するためのステップと、設定されたウィンドウ内の画像情報から前記ウィンドウ内の複数のエッジ点を検出するステップと、このステップで検出された複数のエッジ点に近似直線を当てはめるステップと、このステップで当てはめられた近似直線に沿って一部の領域が現在のウィンドウに重なるように次の新たなウィンドウを設定するステップと、このステップで生成された新たなウィンドウが前記表示画面の中に収まるように前記新たなウィンドウの発生と協動させて前記被測定対象の撮像位置を変更するステップとを備え、前記新たなウィンド内の画像情報に基づいて前記エッジ点の検出、前記直線の当てはめ、前記新たなウィンドウの生成、及び前記撮像位置の変更を順次繰り返すことにより、前記ウィンドウを前記被測定画像のエッジに沿って順次移動させながら前記ウィンドウ内で必要な測定点を抽出していくことを特徴とする。
【0007】
また、本発明に係る非接触画像計測システムは、被測定対象を撮像する撮像手段と、この撮像手段で撮像された前記被測定対象の画像を表示する表示手段と、この表示手段に前記被測定対象の画像に重ねて測定領域を示すウィンドウを表示させると共に、前記被測定対象の画像に含まれるエッジに沿って前記ウィンドウを移動させて前記ウィンドウ内の画像情報から計測に必要な情報を抽出する制御手段とを備え、前記制御手段は、前記ウィンドウ内の画像情報から前記ウィンドウ内の複数のエッジ点を検出し、得られた複数のエッジ点に近似直線を当てはめると共に、この近似直線に沿って一部の領域が現在のウィンドウに重なるように次の新たなウィンドウを生成するものであることを特徴とする。
【0008】
なお、本発明に係るより好ましい態様としては、前記ウィンドウ内でエッジ点を見失ったときに、最後に検出されたエッジ点を中心として前記ウィンドウを回転させて前記最後に検出されたエッジ点に続くエッジ点を検出する。
【0009】
また、予め指定された測定終了点を前記ウィンドウ内に含むか否かを判別し、前記指定された測定終了点を前記ウィンドウ内に含むと判別された場合に、エッジ追跡を終了させる。
【0010】
本発明のエッジ追跡測定方法によれば、最初にウィンドウの初期位置を設定すれば、その後はウィンドウがエッジに沿って自律的に移動して必要なエッジ点をサンプリングしていくので、エッジに関する必要な情報を極めて簡単な操作で得ることができる。
【0011】
表示画面に入りきらない被測定対象を測定する際には、ウィンドウの移動と被測定対象の撮像位置とを協動させることにより、常に表示画面内にウィンドウが収まるようにすることができる。このため、比較的大型の被測定対象についても、エッジ抽出と測定点抽出とを支障なく行うことができる。
【0012】
また、この発明によれば、ウィンドウ内で得られた複数のエッジ点から近似直線を求め、この近似直線に沿って次のウィンドウ位置を決定しているので、サンプル値に異常点が含まれていても、次のウィンドウ位置の決定に大きく影響を及ぼす事はない。次のウィンドウの位置は、前のウィンドウに一部の領域が重なるように決定されるので、エッジが急峻に変化している場合でも、次のウィンドウでエッジを見失う事がない。
【0013】
万一、検出すべきエッジが予想以上に急峻でウィンドウ内でエッジ点を見失った場合でも、最後に検出されたエッジ点を中心として前記ウィンドウを回転させ、上記エッジ点に続くエッジ点を検出して次の新たなウィンドウを設定することにより、前記新たなウィンド内の画像情報に基づいて再び前記エッジ点の検出、前記直線の当てはめ、及び前記新たなウィンドウの生成を支障なく続行することができる。
【0014】
なお、前記被測定画像における測定終了点を指定すれば、この測定終了点を前記ウィンドウ内に含むと判別された場合に、当該ウィンド内の画像情報に基づいて新たなウィンドウは生成されず、前記ウィンドウ内の必要な測定点の抽出が終了するので、一連の処理を自動的に終了させることができる。
【0015】
また、本発明の非接触画像計測システムでは、制御手段がウィンドウを被測定対象の画像のエッジに沿って移動させて計測に必要な情報を抽出するので、形状が未知又は変化する物体に対しても必要な計測情報を効率良く抽出することができる。
【0016】
【発明の実施の形態】
以下、添付の図面を参照して本発明の実施例について説明する。
図1は、本発明の実施例に係る非接触画像計測システムの全体構成を示す斜視図である。
このシステムは、非接触画像計測型の三次元測定機1と、この三次元測定機1を駆動制御すると共に、必要なデータ処理を実行するコンピュータシステム2と、計測結果をプリントアウトするプリンタ3とにより構成されている。
【0017】
三次元測定機1は、次のように構成されている。即ち、架台11上には、ワーク12を載置する測定テーブル13が装着されており、この測定テーブル13は、図示しないY軸駆動機構によってY軸方向に駆動される。架台11の両側縁中央部には上方に延びる支持アーム14,15が固定されており、この支持アーム14,15の両上端部を連結するようにX軸ガイド16が固定されている。このX軸ガイド16には、撮像ユニット17が支持されている。撮像ユニット17は、図示しないX軸駆動機構によってX軸ガイド16に沿って駆動される。撮像ユニット17の下端部には、CCDカメラ18が測定テーブル13と対向するように装着されている。また、撮像ユニット17の内部には、図示しない照明装置及びフォーカシング機構の他、CCDカメラ18のZ軸方向の位置を移動させるZ軸駆動機構が内蔵されている。
【0018】
コンピュータシステム2は、コンピュータ本体21、キーボード22、ジョイスティックボックス23、マウス24及びCRTディスプレイ25を備えて構成されている。
コンピュータ本体21は、例えば図2に示すように構成されている。即ち、CCDカメラ18から入力される画像情報は、インタフェース(以下、I/Fと呼ぶ)31を介して多値画像メモリ32に格納される。多値画像メモリ32に格納された多値画像情報は、表示制御部33を介してCRTディスプレイ25に表示される。一方、マウス24から入力される位置情報は、I/F34を介してCPU35に入力される。CPU35は、プログラムメモリ36に格納されたプログラムに従って、マウス24で指定された位置、大きさ及び向きの矩形領域をウィンドウとして表示するためのデータを生成し、このウィンドウの内部の多値画像情報を多値画像メモリ32から抽出してエッジ点の検出、検出されたエッジ点への近似直線の当てはめ処理、及び求められた近似直線に沿った次のウィンドウの生成処理を順次実行する。ワークメモリ37は、CPU35での各種処理のための作業領域を提供する。
【0019】
次に、このように構成された非接触画像計測システムにおけるエッジ追跡測定手順について説明する。
図3は、このエッジ追跡測定のためのCPU35の処理の手順を示すフローチャート、図4は、この処理を説明するためCRTディスプレイ25に表示されたワーク12の一部を示す画像情報41を示す図である。
図4に示す画像情報41には、追跡しようとするエッジ42が含まれている。そこで、まず、マウス24等を操作してエッジ42の一部を内部に含むように測定領域を示す矩形のウィンドウ43の初期位置を設定する(S1)。ウィンドウ43は、例えば、その四隅A,B,C,Dをマウス24のクリック操作で設定するか、又は矩形の対角方向の2点を指定したのち、その矩形領域をドラッグ操作で任意の角度に傾け、移動させる等の操作によって指定する。なお、このとき、エッジ42に沿って追跡する方向も指定する。
【0020】
ウィンドウ43の初期位置が設定されたら、次にCPU35は、ウィンドウ43内の多値画像情報からエッジ点44を複数検出する(S2)。図5には、このサンプリングの詳細が示されている。エッジ点のサンプリングの間隔Δは、予めワークメモリ37に設定しておく。CPU35は、まず、始点A(xa,ya)から終点B(xb,yb)まで、x座標をcos θ[但し、θはウィンドウ43の傾きである。]、y座標をsin θずつ変化させながら、多値画像メモリ32からx,y座標で示されるアドレスの多値画像情報を抽出していく。得られた多値の点列データから適当なスレッショルドレベルを設定し、このスレッショルドレベルと点列データとの交差するポイントをエッジ点としてサンプリングする。次に、始点と終点とを、それぞれΔ・sin θ及びΔ・cos θだけ移動させて、同様のサンプリングを実行する。以上の処理を始点C(xc,yc)及び終点D(xd,yd)まで連続して行うと、予め設定された間隔Δでの複数のエッジ点44のサンプリングが終了する。
【0021】
次に、CPU35は、得られた複数のエッジ点44のサンプリング値に例えば最小2乗法により、近似直線を当てはめる(S3)。
いま、図6に示すように、ウィンドウ43により得られたエッジ点44のサンプリング値から近似直線Lが求められたとすると、CPU35は、この近似直線Lに沿うように、次のウィンドウ43′を決定する(S4)。
このため、まず、現ウィンドウ43で求められたウィンドウ43の移動方向における最も端のエッジ点43aから近似直線Lに垂線を下ろし、この垂線と近似直線Lとの交点から、近似直線Lに沿ってウィンドウ43の移動方向とは逆向きにH・m/100(但し、Hはウィンドウの高さ、mは予め設定された重複率(%))だけ離れた点P1とこの点P1からウィンドウ43の移動方向にHだけ離れた点P2とを求める。次に、点P1,P2で近似直線Lにそれぞれ直交する直線上で、近似直線LからそれぞれW/2(但し、Wはウィンドウの幅)だけ離れた点をそれぞれ新たなウィンドウ43′の四隅の点A′,B′,C′,D′とする。これにより、次のウィンドウ43′が決定される。
【0022】
次のウィンドウ43′が決定されたら、前述と同様のウィンドウ43′内のエッジ点のサンプリングと近似直線の当てはめを行いながら、順次ウィンドウ43を移動していく。そして、追跡すべきエッジを全て追跡したら、処理を終了する(S5)。
【0023】
なお、ウィンドウ43の初期位置を設定する際、マウス24等を操作してエッジ42上に測定終了点を設定するか、又はワーク座標系上の点として直接数値を入力する等の方法により、一連の処理を測定終了点で自動的に終了させることができる。
図7は、この測定終了のためのCPU35の処理の手順を示すフローチャート、図8は、この処理を説明するためCRTディスプレイ25に表示されたワーク12の一部を示す画像情報41を示す図、図9及び図10は、終了判定処理を説明するための図である。
いま、説明の簡単化のため、図9に示すように、ウィンドウ43の中心を基準としてウィンドウ座標系m,nを定め、その原点をOwとする。
【0024】
CPU35は、まず、ワーク座標系x,yでウィンドウ43の中心Owと終了点Eとの相対位置を表すベクトルEを算出する(S11)。次に、ワークメモリ37上でベクトルEを例えばワーク座標系とウィンドウ座標系との間の傾きが0°になるように回転させる(S12)。回転されたベクトルE′のベクトル成分Ex,Eyが、図10に示すように、ウィンドウ43′の幅W及び高さHの1/2よりも小さい場合、即ち Ex <W/2, Ey <H/2であれば(S13)、終了条件を満足すると判断して、新たなウィンドウ43は生成せず、ウィンドウ43内の必要な測定点を抽出したら、一連の処理を終了する。一方、回転されたベクトルE′のベクトル成分Ex,Eyが、図10に示すように、 Ex<W/2, Ey <H/2のいずれか一方の条件を満さなければ(S13)、終了条件を満足すると判断するまで、新たに生成されるウィンドウ43について上述した処理を繰り返す(S11〜S13)。
なお、ワーク12が円のように閉じられた形状である場合には、測定の開始点及び終了点が一致する。このため、最初のウィンドウ43の生成時においては、上述した終了条件の判別を行わず、2回目以降のウィンドウ43の生成時において、判別を行うようにすればよい。2回目には、ウィンドウ43の移動によって測定終了点がウィンドウ43から外れるからである。
【0025】
このように、本実施例のシステムによれば、最初にウィンドウの初期位置を設定すれば、その後はウィンドウがエッジに沿って自律的に移動して必要なエッジ点をサンプリングしていくので、エッジに関する必要な情報が極めて簡単な操作で得られるという利点がある。
なお、曲線近似によって次のウィンドウ位置を決定することも考えられるが、この場合には、サンプリング点に異常点が含まれている場合、その点に左右されて次のウィンドウでエッジを見失う事が考えられる。この点、このシステムでは、ウィンドウ内で得られた複数のエッジ点から最小2乗法により近似直線を求め、この近似直線に沿って次のウィンドウ位置を決定しているので、サンプル値に異常点が含まれていても、次のウィンドウ位置の決定に大きく影響を及ぼす事はない。
【0026】
また、このシステムでは、予め指定した重複率mで前のウィンドウに重なるように次のウィンドウが決定されるので、例えば図11に示すように、エッジが急峻に変化している場合でも、次のウィンドウでエッジを見失う事がない。この重複率mは、エッジの急峻度とエッジの追従効率とを勘案して、任意の値に設定すればよい。図示の例は、重複率が約20%の例を示している。
【0027】
しかし、適切な重複率を設定しても、予想以上に急峻なエッジに対しては、エッジを見失うこともある。この場合、図12に示すように、近似直線に沿った方向ではワーク12の形状が不連続になっていると判断し、ウィンドウ43内で得られた最後のエッジ点Pnの近傍を捜し回ることにより、見失ったエッジ42を捜し出すことができる。
図13は、このエッジ追跡測定のためのCPU35の処理の手順を示すフローチャート、図14は、この処理を説明するための図である。
【0028】
CPU35は、ウィンドウ43内の多値画像情報からエッジ点を検出して(S2)、エッジ点が検出されなければ(S21)、エッジ点Pnの近傍について明るさ(例えば、反射強度)を調べ(S22)、ワーク12の形状が図14(a)に示すような鋭角であるか、あるいは図14(b)に示すような鈍角であるかを判別する(S23)。ここで、明るさを調べる位置は、最終エッジ検出点Pnを基準として角度と距離によって決める。図12に示すように、エッジを見失ったときのウィンドウ43は近似直線に対して垂直に設定されるため、その方向を基準として連続するエッジの方向を推定する。エッジが得られなかった点Pn+1は、連続するエッジを見失う直前の位置からサンプリング間隔Δだけ離れた位置であるため、実際のワーク12の形状に対して矛盾する場合が少なく、明るさを調べる位置として最適であると考えられる。
【0029】
ワーク12の形状が鋭角である場合には、図15(a)に示すように、ウィンドウ43をエッジ点Pnを中心にして−90°回転させ(S24)、ウィンドウ43内の多値画像情報からエッジ点Pn+1を検出する(S25)。ここで、エッジ点Pn+1が検出されれば(S26)、見失われたエッジ42を捜し出したとして、上述した直線の当てはめ処理を行う。一方、エッジ点Pn+1が再び検出されなければ(S26)、図15(b)に示すように、ウィンドウ43をエッジ点Pnを中心にして−45°回転させ(S27)、ウィンドウ43内の多値画像情報からエッジ点Pn+1を検出する(S28)。ここで、エッジ点Pn+1が検出されれば(S29)、見失われたエッジ42を捜し出したとして、上述した直線の当てはめ処理を行う。一方、エッジ点Pn+1が再び検出されなければ(S29)、測定の続行を断念し、例えばCRTディスプレイ25を介してユーザに警告する。
以下、ワーク12の形状が図14(b)に示すような鈍角である場合にも、回転角を例えば+90°,+45°と変更して同様の処理を行う(S30〜S33)。
【0030】
また、CRTディスプレイ25の画面に入りきらないワーク12を測定する際には、ウィンドウ43の移動とワーク12の撮像位置とを協動させることにより、常に表示画面内にウィンドウ43が収まるようにすることができる。このため、比較的大型のワーク12についても、エッジ抽出と測定点抽出とを支障なく行うことができる。
図16は、このエッジ追跡測定のためのCPU35の処理の手順を示すフローチャート、図17は、この処理を説明するための図である。
【0031】
CPU35は、近似直線に沿うように次のウィンドウ43′を決定して(S4)、画面41の中央Oaとウィンドウ43′の中心Ow′との相対位置を表すベクトルAを算出し(S41)、ウィンドウ43′が画面41に収まるか否かを判別する(S42)。ウィンドウ43′が画面41に収まらない場合には、次の画面41′の中央Obから近似直線に沿って境界FF′に至るまでの距離を所定の割合(例えば、50%)で内分するベクトルBを算出した後(S43)、画面41の中央Oaと画面41′の中央Obとの相対位置を表すベクトルB−A(移動量)を算出し(S44)、ベクトルB−Aの向きとは逆向きに B−A だけステージを移動させる(S45)。
なお、上述した割合の指定はプログラムメモリ36に記憶されたソフトウェアで実現しているので、変数として取り扱い変更を容易に行うことができる。
【0032】
【発明の効果】
以上述べたように、本発明によれば、ウィンドウが被測定対象の画像のエッジに沿って移動して計測に必要な情報を抽出するので、形状が未知又は変化する物体に対しても必要な情報を効率良く抽出することができるという効果を奏する。
【0033】
また、本発明によれば、被測定対象に応じたプログラムの作成を要せず、初期設定をするだけでエッジ追跡測定における一連の処理を自動的に行うことができ、操作を短時間で修得できるという効果を奏する。
【図面の簡単な説明】
【図1】 本発明の実施例に係る非接触画像計測システムの構成を示す斜視図である。
【図2】 同システムにおけるコンピュータ本体のブロック図である。
【図3】 同システムにおけるエッジ追跡処理のフローチャートである。
【図4】 同システムにおける表示画面を示す図である。
【図5】 同システムにおけるウィンドウ内のエッジ点検出を説明するための図である。
【図6】 同システムにおける次のウィンドウ位置の決定手順を説明するための図である。
【図7】 同システムにおける終了処理のフローチャートである。
【図8】 同システムにおける表示画面を示す図である。
【図9】 同システムにおける終了点の判別手順を説明するための図である。
【図10】 同システムにおける終了点判別を説明するための図である。
【図11】 同システムにおけるウィンドウの移動軌跡を示す図である。
【図12】 同システムにおけるウィンドウ内のエッジ点検出を説明するための図である。
【図13】 同システムにおけるエッジ追跡処理のフローチャートである。
【図14】 同システムにおけるワーク形状の判別手順を説明するための図である。
【図15】 同システムにおける次のウィンドウ位置の決定手順を説明するための図である。
【図16】 同システムにおけるステージ移動処理のフローチャートである。
【図17】 同システムにおける次の画面位置の決定手順を説明するための図である。
【符号の説明】
1…三次元測定機、2…コンピュータシステム、3…プリンタ、11…架台、12…ワーク、13…測定テーブル、14,15…支持アーム、16…X軸ガイド、17…撮像ユニット、18…CCDカメラ、21…コンピュータ本体、22…キーボード、23…ジョイスティックボックス、24…マウス、25…CRTディスプレイ、31,34…インタフェース、32…多値画像メモリ、33…表示制御部、35…CPU、36…プログラムメモリ、37…ワークメモリ、41,41′…画像情報、42…エッジ、43,43′,43″…ウィンドウ、44…エッジ点。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a non-contact image measurement system and an edge tracking measurement method for capturing an object to be measured by an imaging unit such as a CCD camera and extracting necessary measurement information by detecting a contour included in the image of the object to be measured. .
[0002]
[Prior art]
Conventionally, this type of non-contact image measurement system is used for measurement of a thin plate such as an IC lead frame, measurement of a wiring pattern, etc., which is difficult by contact measurement. When performing non-contact image measurement, after setting an object to be measured (workpiece) on a measurement table, an imaging device such as a CCD camera is moved to the location where the workpiece is to be measured, focus adjustment is performed, and the workpiece is displayed on the CRT display. An enlarged image of is displayed. Then, the location to be measured is indicated by a mouse cursor or window, the edge portion of the image is extracted based on the image processing technique, and a desired measurement value is obtained by arithmetic processing.
[0003]
[Problems to be solved by the invention]
However, in the above-described conventional non-contact image measurement system, when a specific edge portion of image information is to be continuously measured along the edge, the window for designating the measurement area must not be continuously moved along the edge. There is a problem that the operation is troublesome.
On the other hand, various edge tracking processing methods are known in the field of image processing. However, many of the known methods perform tracking while referring to neighboring pixels, and tracking takes time and is not suitable for non-contact measurement in which sampling is performed at an arbitrary interval. is there.
Furthermore, the conventional method has a problem that it is not suitable for edge measurement of a unit smaller than one pixel.
[0004]
The present invention has been made in order to solve such problems, and is excellent in operability that can flexibly perform edge tracking and extract necessary measurement information even for an object whose shape is unknown or changes. Another object of the present invention is to provide a non-contact measuring apparatus and an edge tracking measuring method.
[0005]
[Means for Solving the Problems]
An edge tracking measurement method according to the present invention includes a step for setting a window so that a part of the edge is included in a measured image including an edge to be tracked, and image information in the set window. Detecting a plurality of edge points, applying an approximate line to the plurality of edge points detected in this step, and overlapping a part of the current window along the approximate line applied in this step A step of setting a next new window as described above, and by sequentially repeating the detection of the edge point, the fitting of the straight line, and the generation of the new window based on the image information in the new window, Extract necessary measurement points in the window while sequentially moving the window along the edge of the measured image And wherein the go.
[0006]
In another edge tracking measurement method according to the present invention, a window is set so that a part of the edge is included in the measured image including the edge to be followed displayed on the display screen by imaging the measured object. And a step of detecting a plurality of edge points in the window from image information in the set window, a step of applying an approximate line to the plurality of edge points detected in this step, and a step of applying Setting a next new window so that a part of the area overlaps the current window along the approximate straight line, and the new window so that the new window generated in this step fits in the display screen. And changing the imaging position of the object to be measured in cooperation with the generation of a new window, the image in the new window While sequentially detecting the edge point based on the information, fitting the straight line, generating the new window, and changing the imaging position, the window is sequentially moved along the edge of the image to be measured. It is characterized in that necessary measurement points are extracted in the window.
[0007]
Further, the non-contact image measurement system according to the present invention includes an imaging unit that images the measurement target, a display unit that displays the image of the measurement target captured by the imaging unit, and the display unit that includes the measurement target. A window indicating a measurement region is displayed over the target image, and the window is moved along an edge included in the measurement target image to extract information necessary for measurement from the image information in the window. Control means, wherein the control means detects a plurality of edge points in the window from the image information in the window, applies an approximate straight line to the obtained plurality of edge points, and along the approximate straight line The next new window is generated so that a part of the area overlaps the current window.
[0008]
According to a more preferable aspect of the present invention, when an edge point is lost in the window, the window is rotated around the edge point detected last and the edge point detected last is continued. Detect edge points.
[0009]
Further, it is determined whether or not a predetermined measurement end point is included in the window, and when it is determined that the specified measurement end point is included in the window, edge tracking is ended.
[0010]
According to the edge tracking measurement method of the present invention, if the initial position of the window is first set, then the window moves autonomously along the edge and samples necessary edge points. Information can be obtained by a very simple operation.
[0011]
When measuring an object to be measured that does not fit in the display screen, it is possible to always fit the window in the display screen by coordinating the movement of the window and the imaging position of the object to be measured. For this reason, edge extraction and measurement point extraction can be performed without trouble even for a relatively large object to be measured.
[0012]
Further, according to the present invention, an approximate straight line is obtained from a plurality of edge points obtained in the window, and the next window position is determined along the approximate straight line. Therefore, an abnormal point is included in the sample value. However, it does not greatly affect the determination of the next window position. Since the position of the next window is determined so that a part of the area overlaps the previous window, the edge is not lost in the next window even when the edge changes sharply.
[0013]
In the unlikely event that the edge to be detected is steeper than expected and the edge point is lost in the window, the window is rotated around the last detected edge point, and the edge point following the edge point is detected. By setting the next new window, the detection of the edge point, the fitting of the straight line, and the generation of the new window can be continued without any trouble based on the image information in the new window. .
[0014]
If a measurement end point in the measured image is specified, when it is determined that the measurement end point is included in the window, a new window is not generated based on the image information in the window, Since extraction of necessary measurement points in the window ends, a series of processing can be automatically ended.
[0015]
Further, in the non-contact image measurement system of the present invention, the control means moves the window along the edge of the image to be measured and extracts information necessary for measurement, so that an object whose shape is unknown or changes is extracted. The necessary measurement information can be extracted efficiently.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a perspective view showing the overall configuration of a non-contact image measurement system according to an embodiment of the present invention.
This system includes a non-contact image measurement type CMM 1, a computer system 2 that drives and controls the CMM 1, and executes necessary data processing, and a printer 3 that prints out measurement results. It is comprised by.
[0017]
The three-dimensional measuring machine 1 is configured as follows. That is, a measurement table 13 on which the workpiece 12 is placed is mounted on the gantry 11, and this measurement table 13 is driven in the Y-axis direction by a Y-axis drive mechanism (not shown). Support arms 14 and 15 extending upward are fixed to the center of both side edges of the gantry 11, and an X-axis guide 16 is fixed so as to connect both upper ends of the support arms 14 and 15. An imaging unit 17 is supported on the X-axis guide 16. The imaging unit 17 is driven along the X-axis guide 16 by an X-axis drive mechanism (not shown). A CCD camera 18 is mounted on the lower end of the imaging unit 17 so as to face the measurement table 13. The imaging unit 17 includes a Z-axis drive mechanism that moves the position of the CCD camera 18 in the Z-axis direction, in addition to a lighting device and a focusing mechanism (not shown).
[0018]
The computer system 2 includes a computer main body 21, a keyboard 22, a joystick box 23, a mouse 24, and a CRT display 25.
The computer main body 21 is configured, for example, as shown in FIG. That is, image information input from the CCD camera 18 is stored in the multi-value image memory 32 via an interface (hereinafter referred to as I / F) 31. The multi-value image information stored in the multi-value image memory 32 is displayed on the CRT display 25 via the display control unit 33. On the other hand, position information input from the mouse 24 is input to the CPU 35 via the I / F 34. In accordance with the program stored in the program memory 36, the CPU 35 generates data for displaying a rectangular area having a position, size, and orientation designated by the mouse 24 as a window, and stores the multi-value image information inside the window. The detection of edge points extracted from the multi-valued image memory 32, the process of fitting an approximate line to the detected edge points, and the process of generating the next window along the obtained approximate line are sequentially executed. The work memory 37 provides a work area for various processes in the CPU 35.
[0019]
Next, an edge tracking measurement procedure in the non-contact image measurement system configured as described above will be described.
FIG. 3 is a flowchart showing a processing procedure of the CPU 35 for the edge tracking measurement, and FIG. 4 is a diagram showing image information 41 showing a part of the workpiece 12 displayed on the CRT display 25 for explaining this processing. It is.
The image information 41 shown in FIG. 4 includes an edge 42 to be tracked. Therefore, first, the initial position of the rectangular window 43 indicating the measurement region is set so as to include a part of the edge 42 by operating the mouse 24 or the like (S1). In the window 43, for example, the four corners A, B, C, and D are set by clicking the mouse 24, or two points in the diagonal direction of the rectangle are specified, and then the rectangular area is dragged to an arbitrary angle. It is specified by operations such as tilting and moving. At this time, the direction to be traced along the edge 42 is also designated.
[0020]
When the initial position of the window 43 is set, the CPU 35 next detects a plurality of edge points 44 from the multi-value image information in the window 43 (S2). FIG. 5 shows details of this sampling. The sampling interval Δ of the edge point is set in the work memory 37 in advance. The CPU 35 first sets the x coordinate from the start point A (xa, ya) to the end point B (xb, yb) as cos θ [where θ is the inclination of the window 43. The multi-value image information at the address indicated by the x and y coordinates is extracted from the multi-value image memory 32 while changing the y coordinate by sin θ. An appropriate threshold level is set from the obtained multi-valued point sequence data, and a point where the threshold level and the point sequence data intersect is sampled as an edge point. Next, the starting point and the ending point are moved by Δ · sin θ and Δ · cos θ, respectively, and similar sampling is executed. When the above processing is continuously performed to the start point C (xc, yc) and the end point D (xd, yd), sampling of the plurality of edge points 44 at the preset interval Δ is completed.
[0021]
Next, the CPU 35 applies an approximate straight line to the obtained sampling values of the plurality of edge points 44 by, for example, the least square method (S3).
Now, as shown in FIG. 6, if the approximate line L is obtained from the sampling value of the edge point 44 obtained by the window 43, the CPU 35 determines the next window 43 'along the approximate line L. (S4).
For this reason, first, a perpendicular line is drawn from the edge point 43a in the moving direction of the window 43 obtained in the current window 43 to the approximate straight line L, and along the approximate straight line L from the intersection of the normal line and the approximate straight line L. H · m / 100 opposite to the moving direction of the window 43 (where H is the height of the window, m is a preset overlap rate (%)) and the point P1 from the point P1 A point P2 separated by H in the movement direction is obtained. Next, points that are separated from the approximate line L by W / 2 (W is the width of the window) on the straight lines orthogonal to the approximate line L at points P1 and P2, respectively, at the four corners of the new window 43 '. Points A ′, B ′, C ′, and D ′ are assumed. Thereby, the next window 43 'is determined.
[0022]
When the next window 43 'is determined, the window 43 is sequentially moved while sampling the edge points in the window 43' and fitting the approximate straight line as described above. When all the edges to be tracked are tracked, the process is terminated (S5).
[0023]
When the initial position of the window 43 is set, the mouse 24 or the like is operated to set a measurement end point on the edge 42, or a series of values is directly input as a point on the work coordinate system. Can be automatically terminated at the measurement end point.
FIG. 7 is a flowchart showing a processing procedure of the CPU 35 for the end of the measurement, and FIG. 8 is a diagram showing image information 41 showing a part of the work 12 displayed on the CRT display 25 for explaining this processing. 9 and 10 are diagrams for explaining the end determination process.
For simplification of description, as shown in FIG. 9, the window coordinate systems m and n are defined with reference to the center of the window 43, and the origin is Ow.
[0024]
First, the CPU 35 calculates a vector E representing the relative position between the center Ow of the window 43 and the end point E in the work coordinate system x, y (S11). Next, the vector E is rotated on the work memory 37 so that, for example, the inclination between the work coordinate system and the window coordinate system becomes 0 ° (S12). As shown in FIG. 10, when the vector components Ex and Ey of the rotated vector E ′ are smaller than ½ of the width W and the height H of the window 43 ′, that is, Ex <W / 2, Ey <H If it is / 2 (S13), it is determined that the end condition is satisfied, a new window 43 is not generated, and when necessary measurement points in the window 43 are extracted, a series of processing ends. On the other hand, if the vector components Ex and Ey of the rotated vector E ′ do not satisfy one of the conditions Ex <W / 2 and Ey <H / 2 as shown in FIG. 10 (S13), the process ends. The process described above is repeated for the newly generated window 43 until it is determined that the condition is satisfied (S11 to S13).
When the work 12 has a closed shape like a circle, the measurement start point and the end point coincide. For this reason, when the first window 43 is generated, the above-described termination condition is not determined, and the determination may be performed when the window 43 is generated for the second time or later. This is because the measurement end point deviates from the window 43 due to the movement of the window 43 at the second time.
[0025]
As described above, according to the system of the present embodiment, if the initial position of the window is set first, then the window moves autonomously along the edge and samples necessary edge points. There is an advantage that necessary information on the information can be obtained by an extremely simple operation.
Although it is possible to determine the next window position by curve approximation, in this case, if an abnormal point is included in the sampling point, the edge may be lost in the next window depending on that point. Conceivable. In this point, in this system, an approximate straight line is obtained from a plurality of edge points obtained in the window by the least square method, and the next window position is determined along this approximate straight line. Even if included, it does not significantly affect the determination of the next window position.
[0026]
Further, in this system, since the next window is determined so as to overlap the previous window at a predetermined overlap rate m, for example, as shown in FIG. 11, even when the edge changes sharply, the next window Never miss an edge in the window. The overlap ratio m may be set to an arbitrary value in consideration of the edge steepness and the edge tracking efficiency. The illustrated example shows an example in which the duplication rate is about 20%.
[0027]
However, even if an appropriate overlap ratio is set, an edge that is steeper than expected may be lost. In this case, as shown in FIG. 12, it is determined that the shape of the workpiece 12 is discontinuous in the direction along the approximate straight line, and the vicinity of the last edge point Pn obtained in the window 43 is searched. Thus, the lost edge 42 can be searched for.
FIG. 13 is a flowchart showing a processing procedure of the CPU 35 for this edge tracking measurement, and FIG. 14 is a diagram for explaining this processing.
[0028]
The CPU 35 detects the edge point from the multi-value image information in the window 43 (S2), and if the edge point is not detected (S21), the brightness (for example, reflection intensity) is examined in the vicinity of the edge point Pn ( In S22, it is determined whether the shape of the workpiece 12 is an acute angle as shown in FIG. 14A or an obtuse angle as shown in FIG. 14B (S23). Here, the position for checking the brightness is determined by the angle and the distance with the final edge detection point Pn as a reference. As shown in FIG. 12, since the window 43 when the edge is lost is set perpendicular to the approximate straight line, the direction of the continuous edge is estimated based on that direction. The point Pn + 1 at which no edge is obtained is a position separated from the position immediately before losing sight of the continuous edge by the sampling interval Δ, and therefore there is little inconsistency with the actual shape of the workpiece 12, and the position for checking the brightness It is considered as optimal.
[0029]
When the shape of the workpiece 12 is an acute angle, as shown in FIG. 15A, the window 43 is rotated by −90 ° about the edge point Pn (S24), and the multivalued image information in the window 43 is used. Edge point Pn + 1 is detected (S25). If the edge point Pn + 1 is detected (S26), the above-described straight line fitting process is performed on the assumption that the missing edge 42 is found. On the other hand, if the edge point Pn + 1 is not detected again (S26), the window 43 is rotated by −45 ° around the edge point Pn (S27) as shown in FIG. An edge point Pn + 1 is detected from the image information (S28). If the edge point Pn + 1 is detected (S29), the above-described straight line fitting process is performed on the assumption that the missing edge 42 is found. On the other hand, if the edge point Pn + 1 is not detected again (S29), the continuation of the measurement is abandoned, and the user is warned via the CRT display 25, for example.
Hereinafter, even when the shape of the workpiece 12 is an obtuse angle as shown in FIG. 14B, the rotation angle is changed to, for example, + 90 ° and + 45 °, and the same processing is performed (S30 to S33).
[0030]
Further, when measuring the workpiece 12 that does not fit on the screen of the CRT display 25, the movement of the window 43 and the imaging position of the workpiece 12 are coordinated so that the window 43 is always within the display screen. be able to. For this reason, edge extraction and measurement point extraction can be performed without any trouble even for a relatively large workpiece 12.
FIG. 16 is a flowchart showing the processing procedure of the CPU 35 for the edge tracking measurement, and FIG. 17 is a diagram for explaining this processing.
[0031]
The CPU 35 determines the next window 43 ′ along the approximate line (S4), calculates a vector A representing the relative position between the center Oa of the screen 41 and the center Ow ′ of the window 43 ′ (S41), It is determined whether or not the window 43 'fits on the screen 41 (S42). If the window 43 'does not fit on the screen 41, a vector that internally divides the distance from the center Ob of the next screen 41' to the boundary FF 'along the approximate straight line at a predetermined rate (for example, 50%). After calculating B (S43), a vector BA (movement amount) representing the relative position between the center Oa of the screen 41 and the center Ob of the screen 41 'is calculated (S44), and the direction of the vector BA is as follows: In the opposite direction, the stage is moved by B-A (S45).
Since the above-described ratio designation is realized by software stored in the program memory 36, it is possible to easily change the handling as a variable.
[0032]
【The invention's effect】
As described above, according to the present invention, the window moves along the edge of the image to be measured to extract information necessary for measurement, and thus is necessary even for an object whose shape is unknown or changes. There is an effect that information can be extracted efficiently.
[0033]
In addition, according to the present invention, it is not necessary to create a program according to the measurement target, and a series of processing in edge tracking measurement can be automatically performed only by initial setting, and the operation can be acquired in a short time. There is an effect that can be done.
[Brief description of the drawings]
FIG. 1 is a perspective view showing a configuration of a non-contact image measurement system according to an embodiment of the present invention.
FIG. 2 is a block diagram of a computer main body in the system.
FIG. 3 is a flowchart of edge tracking processing in the system.
FIG. 4 is a diagram showing a display screen in the system.
FIG. 5 is a diagram for explaining edge point detection in a window in the system.
FIG. 6 is a diagram for explaining a procedure for determining a next window position in the system.
FIG. 7 is a flowchart of end processing in the system.
FIG. 8 is a diagram showing a display screen in the system.
FIG. 9 is a diagram for explaining an end point determination procedure in the system;
FIG. 10 is a diagram for explaining end point determination in the system;
FIG. 11 is a view showing a moving locus of a window in the system.
FIG. 12 is a diagram for explaining edge point detection in a window in the system.
FIG. 13 is a flowchart of edge tracking processing in the system.
FIG. 14 is a diagram for explaining a workpiece shape determination procedure in the system;
FIG. 15 is a diagram for explaining the procedure for determining the next window position in the system;
FIG. 16 is a flowchart of stage movement processing in the system.
FIG. 17 is a diagram for explaining a procedure for determining the next screen position in the system.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... CMM, 2 ... Computer system, 3 ... Printer, 11 ... Mount, 12 ... Workpiece, 13 ... Measurement table, 14, 15 ... Support arm, 16 ... X-axis guide, 17 ... Imaging unit, 18 ... CCD Camera, 21 ... Computer body, 22 ... Keyboard, 23 ... Joystick box, 24 ... Mouse, 25 ... CRT display, 31,34 ... Interface, 32 ... Multi-valued image memory, 33 ... Display control unit, 35 ... CPU, 36 ... Program memory 37 ... Work memory 41, 41 '... Image information 42 ... Edge, 43, 43', 43 "... Window, 44 ... Edge point.

Claims (8)

追従すべきエッジを含む被測定画像に前記エッジの一部を含むようにウィンドウを設定するためのステップと、
設定されたウィンドウ内の画像情報から前記ウィンドウ内の複数のエッジ点を検出するステップと、
このステップで検出された複数のエッジ点に近似直線を当てはめるステップと、
このステップで当てはめられた近似直線に沿って一部の領域が現在のウィンドウに重なるように次の新たなウィンドウを設定するステップとを備え、
前記新たなウィンド内の画像情報に基づいて前記エッジ点の検出、前記直線の当てはめ、及び前記新たなウィンドウの生成を順次繰り返すことにより、前記ウィンドウを前記被測定画像のエッジに沿って順次移動させながら前記ウィンドウ内で必要な測定点を抽出していくことを特徴とするエッジ追跡測定方法。
Setting a window to include a portion of the edge in the measured image including the edge to be followed;
Detecting a plurality of edge points in the window from image information in the set window;
Fitting an approximate line to a plurality of edge points detected in this step;
Setting the next new window so that some area overlaps the current window along the approximate line fitted in this step,
The window is sequentially moved along the edge of the image to be measured by sequentially detecting the edge point, fitting the straight line, and generating the new window based on the image information in the new window. An edge tracking measurement method, wherein necessary measurement points are extracted in the window.
被測定対象を撮像することによって表示画面に表示された追従すべきエッジを含む被測定画像に前記エッジの一部を含むようにウィンドウを設定するためのステップと、
設定されたウィンドウ内の画像情報から前記ウィンドウ内の複数のエッジ点を検出するステップと、
このステップで検出された複数のエッジ点に近似直線を当てはめるステップと、
このステップで当てはめられた近似直線に沿って一部の領域が現在のウィンドウに重なるように次の新たなウィンドウを設定するステップと、
このステップで生成された新たなウィンドウが前記表示画面の中に収まるように前記新たなウィンドウの発生と協動させて前記被測定対象の撮像位置を変更するステップとを備え、
前記新たなウィンド内の画像情報に基づいて前記エッジ点の検出、前記直線の当てはめ、前記新たなウィンドウの生成、及び前記撮像位置の変更を順次繰り返すことにより、前記ウィンドウを前記被測定画像のエッジに沿って順次移動させながら前記ウィンドウ内で必要な測定点を抽出していくことを特徴とするエッジ追跡測定方法。
Setting a window to include a part of the edge in the image to be measured including the edge to be followed displayed on the display screen by imaging the object to be measured;
Detecting a plurality of edge points in the window from image information in the set window;
Fitting an approximate line to a plurality of edge points detected in this step;
Setting the next new window so that some area overlaps the current window along the approximation line fitted in this step;
Changing the imaging position of the measurement object in cooperation with the generation of the new window so that the new window generated in this step fits in the display screen,
Based on the image information in the new window, the detection of the edge point, the fitting of the straight line, the generation of the new window, and the change of the imaging position are sequentially repeated, thereby making the window an edge of the measured image. An edge tracking measurement method, wherein necessary measurement points are extracted in the window while sequentially moving along the window.
前記エッジ点を検出するステップは、前記設定されたウィンドウ内でエッジ点を見失ったときに、最後に検出されたエッジ点を中心として前記ウィンドウを回転させて前記最後に検出されたエッジ点に続くエッジ点を検出するステップである
ことを特徴とする請求項1又は2記載のエッジ追跡測定方法。
The step of detecting the edge point continues to the last detected edge point by rotating the window around the last detected edge point when an edge point is lost in the set window. The edge tracking measurement method according to claim 1, wherein the edge tracking measurement method is a step of detecting an edge point.
前記被測定対象における測定終了点を指定するステップと、
指定された測定終了点を前記ウィンドウ内に含むか否かを判別するステップと、
前記指定された測定終了点を前記ウィンドウ内に含むと判別された場合に、エッジ追跡を終了させるステップと
を更に備えたことを特徴とする請求項1〜3のいずれか1項記載のエッジ追跡測定方法。
Designating a measurement end point in the measurement object;
Determining whether a specified measurement end point is included in the window;
The edge tracking according to claim 1, further comprising a step of ending edge tracking when it is determined that the specified measurement end point is included in the window. Measuring method.
被測定対象を撮像する撮像手段と、
この撮像手段で撮像された前記被測定対象の画像を表示する表示手段と、
この表示手段に前記被測定対象の画像に重ねて測定領域を示すウィンドウを表示させると共に、前記被測定対象の画像に含まれるエッジに沿って前記ウィンドウを移動させて前記ウィンドウ内の画像情報から計測に必要な情報を抽出する制御手段とを備え、
前記制御手段は、前記ウィンドウ内の画像情報から前記ウィンドウ内の複数のエッジ点を検出し、得られた複数のエッジ点に近似直線を当てはめると共に、この近似直線に沿って一部の領域が現在のウィンドウに重なるように次の新たなウィンドウを生成するものである
ことを特徴とする非接触画像計測システム。
Imaging means for imaging a measurement object;
Display means for displaying an image of the measurement object imaged by the imaging means;
A window indicating a measurement region is displayed on the display unit so as to overlap the measurement target image, and the window is moved along an edge included in the measurement target image, and measurement is performed from image information in the window. And a control means for extracting information necessary for
The control means detects a plurality of edge points in the window from the image information in the window, applies an approximate straight line to the obtained plurality of edge points, and a part of the area along the approximate straight line is currently A non-contact image measurement system for generating the next new window so as to overlap the window.
前記制御手段は、前記生成された新たなウィンドウが前記表示手段の表示画面内に収まるように前記新たなウィンドウの発生と協動させて前記被測定対象に対する前記撮像手段の位置を移動させるものである
ことを特徴とする請求項5記載の非接触画像計測システム。
The control means moves the position of the imaging means with respect to the measurement target in cooperation with the generation of the new window so that the generated new window fits within the display screen of the display means. The non-contact image measurement system according to claim 5, wherein the non-contact image measurement system is provided.
前記制御手段は、前記ウィンドウ内でエッジ点を見失ったときに、最後に検出されたエッジ点を中心として前記ウィンドウを回転させて前記最後に検出されたエッジ点に続くエッジ点を検出するものである
ことを特徴とする請求項5又は6記載の非接触画像計測システム。
The control means is configured to detect an edge point following the last detected edge point by rotating the window around the last detected edge point when an edge point is lost in the window. The non-contact image measurement system according to claim 5, wherein the non-contact image measurement system is provided.
前記制御手段は、予め指定された測定終了点を前記ウィンドウ内に含むか否かを判別し、
前記指定された測定終了点を前記ウィンドウ内に含むと判別された場合に、エッジ追跡を終了させるものである
ことを特徴とする請求項5〜7のいずれか1項記載の非接触画像計測システム。
The control means determines whether or not the measurement end point designated in advance is included in the window,
8. The non-contact image measurement system according to claim 5, wherein, when it is determined that the designated measurement end point is included in the window, edge tracking is ended. 9. .
JP03410696A 1995-02-24 1996-02-21 Non-contact image measurement system and edge tracking measurement method Expired - Fee Related JP3650205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03410696A JP3650205B2 (en) 1995-02-24 1996-02-21 Non-contact image measurement system and edge tracking measurement method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6206295 1995-02-24
JP7-62062 1995-02-24
JP03410696A JP3650205B2 (en) 1995-02-24 1996-02-21 Non-contact image measurement system and edge tracking measurement method

Publications (2)

Publication Number Publication Date
JPH08292015A JPH08292015A (en) 1996-11-05
JP3650205B2 true JP3650205B2 (en) 2005-05-18

Family

ID=26372902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03410696A Expired - Fee Related JP3650205B2 (en) 1995-02-24 1996-02-21 Non-contact image measurement system and edge tracking measurement method

Country Status (1)

Country Link
JP (1) JP3650205B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7064845B2 (en) * 2000-09-22 2006-06-20 Werth Messtechnik Gmbh Method for measuring the geometry of an object by means of a co-ordination measuring device
EP1229494B1 (en) * 2001-01-17 2007-03-21 FUJIFILM Corporation Method, apparatus and program storage medium for determining the outline of a scanned image
JP5577508B2 (en) * 2010-10-19 2014-08-27 株式会社ミツトヨ Image measuring apparatus and drive control method thereof

Also Published As

Publication number Publication date
JPH08292015A (en) 1996-11-05

Similar Documents

Publication Publication Date Title
JP3608920B2 (en) Non-contact image measurement system
JP5923824B2 (en) Image processing device
JP3596753B2 (en) Apparatus and method for generating part program for image measuring device
JP3739550B2 (en) Method for determining wafer measurement position
JPS60231208A (en) Control method of automatic machine
US6665066B2 (en) Machine vision system and method for analyzing illumination lines in an image to determine characteristics of an object being inspected
JP2003030653A (en) Image processing method, image processor and bonding device
JP2932193B2 (en) Graphic processing unit
KR100647750B1 (en) Image processing apparatus
JP3545542B2 (en) Wafer rotation direction detection method
JP3887807B2 (en) Image measuring device
JP3650205B2 (en) Non-contact image measurement system and edge tracking measurement method
JP3672970B2 (en) Non-contact image measurement system
JP3595014B2 (en) Edge detection method and non-contact image measurement system using the same
JP4097993B2 (en) Coordinate transformation device, coordinate transformation program
Leubner et al. Computer-vision-based human-computer interaction with a back projection wall using arm gestures
JPH09250909A (en) Method and system for measuring image without contact
JP2003203216A (en) Image measuring device part program generating device and image forming device part program generating program
JP3595015B2 (en) Image center of gravity detection method
JP3853507B2 (en) Line width measuring method and apparatus
JP4053642B2 (en) Coordinate system setting method and image measuring apparatus
JP3849059B2 (en) Image recognition method
JP3853500B2 (en) Edge detection method and image measuring apparatus
JP2004239761A (en) Image measuring instrument, and program for generating edge tracking measuring program
WO2018078714A1 (en) System for creating component shape data for image processing, and method for creating component shape data for image processing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees