JP2004294311A - Picture image measuring instrument - Google Patents

Picture image measuring instrument Download PDF

Info

Publication number
JP2004294311A
JP2004294311A JP2003088241A JP2003088241A JP2004294311A JP 2004294311 A JP2004294311 A JP 2004294311A JP 2003088241 A JP2003088241 A JP 2003088241A JP 2003088241 A JP2003088241 A JP 2003088241A JP 2004294311 A JP2004294311 A JP 2004294311A
Authority
JP
Japan
Prior art keywords
image
measurement
feeler
touch probe
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003088241A
Other languages
Japanese (ja)
Inventor
Yoshihiro Naganuma
義広 長沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003088241A priority Critical patent/JP2004294311A/en
Publication of JP2004294311A publication Critical patent/JP2004294311A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • A Measuring Device Byusing Mechanical Method (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a coordinate measuring machine for easily performing teaching work for a coordinate measuring instrument equipped with a touch probe. <P>SOLUTION: A support device 4 comprises: an image acquisition part 41 for acquiring picked up image of a measuring object 7 by an imaging device 23; a display processing part 44 for displaying the picture image of the object 7 acquired by the acquisition part 41 on a display device 5 while overlay-displaying a mark designating the feeler shape of a touch probe 24 on the image displayed on the display device 5 in a size adapted to an imaging magnification, and a GUI part 43 for receiving the setting of virtual probing used for touch probe measurement by using the mark overlay-displayed on the image of the object 7. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、被測定物を撮像する撮像装置とタッチプローブとを有する画像測定装置に関する。
【0002】
【従来の技術】
水平方向に移動可能なステージ上に置かれた被測定物を、光学系を介して撮像し、得られた撮像画像から被測定物の測定を行なう画像測定装置が、広く普及している。この画像測定装置は、撮像画像上で指定された測定ポイントの座標を測定する。しかし、テーパー状断面を持つ穴や側面を有する被測定物など、画像測定では正確に測定できない場合がある。このため、タッチプローブを備えた画像測定装置も提案されている(例えば特許文献1参照)。
【0003】
タッチプローブは、フィーラー(スタイラス)が測定ポイントに接触したときに出力される信号を検知し、このときのフィーラーの座標を検出することで、測定ポイントの座標を測定する。
【0004】
【特許文献1】
米国特許第33,774号明細書
【0005】
【発明が解決しようとする課題】
しかしながら、画像測定装置が対象とする被測定物には、サブmmオーダーといった微細なものもある。このような微細な被測定物に対して、タッチプローブ測定を行なう場合、その微細さのために肉眼観察によるティーチング作業が困難であると言う問題がある。
【0006】
本発明は、上記事情に鑑みてなされたものであり、タッチプローブを備えた座標測定装置において、ティーチング作業を簡単に行なえる座標測定機を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するために請求項1に係る発明は、被測定物を撮像する撮像装置とフィーラーを備えたタッチプローブとを有する画像測定装置において、前記撮像装置が撮像した前記被測定物の撮像画像と前記タッチプローブのフィーラー形状を表すマークとをオーバレイ表示する表示装置と、前記表示装置にオーバレイ表示されているマークを用いて、タッチプローブ測定の手順を設定する設定手段とを有することを特徴とする画像測定装置を提供する。
【0008】
請求項2に係る発明は、請求項1に記載の画像測定装置において、前記表示手段は、前記設定手段で設定した前記手順でタッチプローブ測定を行うときにフィーラーが通過する領域をオーバーレイ表示することを特徴とする画像測定装置を提供する。
【0009】
請求項3に係る発明は、請求項1または2に記載の画像測定装置において、前記表示手段は、前記撮像装置の倍率が変更された場合、前記被測定物の画像上にオーバレイ表示する前記マークもしくは前記領域の大きさを、倍率変更後の倍率に応じた大きさに変更することを特徴とする画像測定装置を提供する。
【0010】
請求項4に係る発明は、請求項1乃至3のいずれか1項に記載の画像測定装置において、前記手順設定時の前記被測定物の形状と、前記タッチプローブ実行時の被測定物の形状のずれを検出し、前記ずれを補正して前記手順を実行する補正手段をさらに有することを特徴とする画像測定装置を提供する。
【0011】
【発明の実施の形態】
以下、本発明の実施形態について説明する。
【0012】
図1は、本発明の実施形態に係る座標測定装置の概略構成図である。
【0013】
本実施形態の座標測定装置は、タッチプローブを備えた画像測定装置である測定機1と、測定機1を支援する支援装置4とを備えて構成されている。また、測定機1は、測定機本体2と、コントローラ3とを備えて構成されている。
【0014】
測定機本体2は、倍率切替機構を備えた光学系を有する鏡筒22と、撮像装置23と、フィーラー24aを備えたタッチプローブ24と、鏡筒22を上下(Z方向)に移動させる不図示の上下動機構と、鏡筒22および被測定物7を相対的に水平方向(XY方向)へ移動することのできるステージ21とを備えて構成されている。
【0015】
撮像装置23は、鏡筒22の光学系の物体面に置かれた被測定物7の光学像を撮像するものであり、例えばCCDカメラが用いられる。
【0016】
タッチプローブ24は、その先端にフィーラー24aを備えており、鏡筒22に固定されている。したがって、鏡筒22の光学系の光軸中心とタッチプローブ24のフィーラー24aとの水平方向の相対的な位置は変化しない。また鏡筒22の光学系の焦点位置とタッチプローブ24のフィーラー24aとの上下方向の相対的な位置も変化しない。
【0017】
タッチプローブ24の先端のフィーラー24aが被測定物7の予め設定した測定ポイントに接触した瞬間、もしくは接触状態から離れた瞬間に、タッチプローブ24は信号をコントローラ3のプローブ信号検出部34へ出力し、プローブ信号検出部34はトリガ信号を生成する。
【0018】
なお、フィーラー24aの径および位置は、リファレンスボール(フィーラーの径および位置を補正するために使われる真球)等を用いて予め取得した補正値により、被測定物7の同一箇所を測定した場合に、測定値が同一座標となるように補正される。複数のフィーラーが用意されている場合、フィーラー毎にフィーラーの径、位置に応じて予め取得した補正値のうち、実際に使用するフィーラーの補正値により、タッチプローブ測定の測定値が補正される。また、倍率切替に伴って光学系の倍率や光軸や焦点位置が変化する場合、各倍率に応じて予め取得した光学系補正値により、画像測定の測定値が補正される。光学系とフィーラー24aの相対的な位置は、同一のリファレンスボール等を画像とタッチプローブの両方で測定して予め取得した補正値(および倍率やフィーラーに応じた補正値)により、画像測定でもタッチプローブ測定でも被測定物7の同一箇所を測定した場合に測定値が同一座標となるように補正される。なお、フィーラー24aは、タッチプローブ24から着脱可能であり、通常は図示していないラックに収容されている。このラックには、複数種類のフィーラー24aが収容可能であり、操作者はこのラックに収容されている複数種類のフィーラー24aの中から、所望のフィーラー24aを選択し、タッチプローブ24に取り付けて使用する。
【0019】
ステージ21は、図示しない移動機構と座標検出機構とを有し、駆動制御部31から制御されXY方向に移動する。鏡筒22は、移動機構により駆動制御部31から制御されZ方向に移動する。移動機構としてはボールねじ、モータ等が使用される。また、座標検出機構としては、リニアエンコーダ等が使用され、座標検出部33に座標信号を出力する。これらによって被測定物7と、水平方向における観察位置(鏡筒22の光学系の光軸中心位置)、上下方向における観察位置(鏡筒22の光学系の合焦位置)、およびフィーラー24aとの相対的な移動経路、移動速度、位置などが検出、制御される。
【0020】
また本実施形態に係る座標測定装置には、オートフォーカス機能が搭載されており、被測定物7に自動で焦点を合わせることができる。このオートフォーカスの方式としては、鏡筒22と被測定物7のZ軸方向の相対的な距離を変化させて複数の画像を取得し、後述する画像処理部46で検出した画像のコントラストが最大となる位置、すなわち合焦位置を算出するパッシブ方式と呼ばれる方式や、レーザダイオードやLED光を補助光として被測定物7に照射し、その反射光の光点位置の変位等から合焦位置を知るアクティブ方式と呼ばれるものがあり、被測定物の検出位置が鏡筒光学系の焦点位置になるように鏡筒位置が制御される。
【0021】
コントローラ3は、測定機本体2を制御するもので、支援装置4とのインターフェースである支援装置IF部36、リニアエンコーダ等の座標検出機構からの信号を処理して座標や移動速度を検出する座標検出部33、加減速カーブと各軸の速度配分を決定し、検出位置、速度でモータドライバの閉ループ制御を行う駆動制御部31、タッチプローブ24からの信号を受けてトリガ信号を生成するプローブ信号検出部34、光学系の倍率や照明光量を調節する光学系制御部35などを備えて構成されている。
【0022】
支援装置4は、コントローラ3とのインターフェースであるコントローラIF部42、マウス、キーボード、ジョイスティック等の入力装置6およびCRT、LCD等の表示装置5を用いて操作者に情報を提示したり操作者から指示を受け付けたりするグラフィカルユーザインターフェース(GUI)部43を備えている。また、この支援装置4は、測定手順の教示、記憶、再現等のティーチング機能を持つティーチング処理部47、エッジ検出、パターンマッチング、コントラスト検出等の画像処理機能を持つ画像処理部46、座標表示機能および撮像装置23で撮像した被測定物7の画像とフィーラー24aのマークとをオーバーレイ表示するオーバレイ表示機能を持つ表示処理部44、座標間演算、幾何形状演算、数値演算、統計計算、公差判定等の測定演算機能を持つ測定演算部45、測定結果データ保存、データ再配置(測定結果成績表)等のデータ管理機能を持つデータ管理部48、撮像装置23から画像を取得する機能を持つ画像取得部41、ネットワーク、搬送手段等との外部通信機能を持つ通信部(不図示)などを備えている。
【0023】
次に、画像測定装置を使用して、被測定物7の座標を測定する動作について説明する。
【0024】
支援装置4のティーチング処理部47は、コントローラIF部42を介してコントローラ3に移動指令を送信する。コントローラ3の駆動制御部31は、支援装置IF部36を介して支援装置4から受信した移動指令に従い、ステージ21のXY軸、鏡筒22のZ軸を駆動し、指令座標が観察光学系の中心になるように移動制御する。なお、コントローラ3にジョイスティックなどの操作手段を設け、駆動制御部31が操作手段に入力された操作内容に従い、ステージ21のXY軸、鏡筒22のZ軸を駆動しても構わない。
【0025】
また、支援装置4のティーチング処理部47は、コントローラIF部42を介してコントローラ3に光学系の倍率切替命令を送信する。コントローラ3の光学系制御部35は、支援装置IF部36を介して支援装置4から受信した倍率切替命令に従い、鏡筒22の光学系の倍率を変倍するよう制御する。なお、倍率切替命令は、ティーチング機能によって倍率の変更が設定されている場合の他に、例えばコントローラ3に設けられた操作手段を操作者が操作したような場合にも送出される。
【0026】
支援装置4において、測定演算部45には、鏡筒22の光学系の倍率毎に光学系補正値(倍率補正値および各倍率における光軸の位置や同焦点の位置などに関する補正値)が登録されている。ティーチング処理部47は、コントローラ3に送信した倍率切替命令が示す倍率を測定演算部45に通知する。測定演算部45は、その倍率に対応する光学系補正値を、検出座標の補正に用いるように設定する。このように光学系が設定された後、撮像装置23によって被測定物7の所定の範囲の画像が撮影され、画像取得部41を介して支援装置4に取り込まれる。
【0027】
次に、撮像した画像から被測定物7の座標を測定する方法について説明する。
【0028】
コントローラ3が画像取得タイミング信号を受け取ると、支援装置4は、不図示のエンコーダからXYZ座標値を検出する座標検出部33を介してXYZ座標値を取得する(測定機本体2のXYZ座標値)。支援装置4は、撮像装置23で取得した画像を画像処理部46で処理して画面内エッジ位置を算出する。さらに、上記光学系補正値から座標の値として算出される(画面内座標値)。測定機本体2のXYZ座標値と画面内座標値とから測定座標が算出される。また、操作者の指令によって検出した物体の線や形状等を算出することもできる。
【0029】
次に、タッチプローブ24を用いて被検試料7の形状を測定する方法を説明する。
【0030】
タッチプローブ24は、後述する方法でティーチングされた経路を通って、被測定物7にプロービングする。コントローラ3の座標検出部33は、タッチプローブ信号検出部34からタッチトリガ信号を受けると、測定機本体2の図示していない座標検出機構からXYZ座標値を取得し、支援装置IF部36を介して支援装置4に送出する。支援装置4の測定演算部45は、このXYZ座標値とフィーラー補正値(各フィーラーにおけるフィーラー径、位置などに関する補正値)から、検出座標の正確な値を算出する。なお、測定演算部45は、操作者の指定によって検出した物体の幾何形状等を算出することもできる。
【0031】
次に、ワーク座標系について説明する。
【0032】
被測定物を交換すると、被測定物はステージ21の全く同一の位置に置かれるわけではなく、多少ずれておかれる。そこで被測定物の複数の位置を画像やタッチプロービングで測定し、それらの位置から個々の被測定物の座標系(ワーク座標系)を設定する。被測定物の形状を基準にして座標系が決められるため、被測定物が置かれるステージ21上の位置に関わらず、個々の被測定物で座標系は一致することになる。この座標系の設定方法について説明する。
【0033】
まず、被測定物中の任意の点を仮の原点として設定する。支援装置4のGUI部43は、操作者の指示に従い点や線などの測定対象を選択する。次に、画像処理部46は、画像取得部41を介して撮像装置23から取得した画像に対してエッジ検出を行い、点や線などの測定対象を検出する。測定演算部45は、選択あるいは検出された測定対象の座標を測定する。タッチプロービングの場合には、コントローラ3に設けられたジョイスティック等の操作手段を操作して実際にタッチプロービング動作を実行し座標測定を行う。この一連の測定動作は、座標系設定動作としてティーチングリストに登録される。測定演算部45は、このようにして測定した点を被測定物座標系(ワーク座標系)の原点に、また測定した線を被測定物座標系(ワーク座標系)のX軸に設定する。ワーク座標系は、ティーチングの最初に設定しておくとよい。
【0034】
本実施形態に係る画像測定装置は、画像処理による1点エッジ検出、画像処理による多点エッジ検出、画像処理によるパターンマッチングテンプレート画像記憶、画像処理によるパターンマッチング検出、パッシブオートフォーカスによる高さ検出、アクティブオートフォーカスによる高さ検出、アクティブオートフォーカスによる連続多点検出、タッチプローブによるプロービング、後述する仮想プロービング検出、経過点入力等の検出機能(コード)を有している。
【0035】
さらに点、多点平均、最大点、最小点、円、線、平面、点と点の距離、点と線の距離、面と点の距離、線と線の交点、数値計算、統計計算、経過点設定、ワーク座標系設定、ワーク座標系クリア、ワーク基準面設定等の演算機能(コード)を有する。
【0036】
次に、タッチプローブの測定位置を画像測定装置に入力するティーチング方法について説明する。図2に、ティーチング方法のフローチャートを示す。
【0037】
なお、この検出機能を仮想プロービングコードと呼ぶ。タッチプローブによるプロービングの位置、経路等を、撮像装置23が撮像した撮像画像を用いることにより、実際にプロービングすることなくティーチングする機能である。もちろん、実際のプロービングを伴う検出機能が別途存在することは言うまでもない。
【0038】
ティーチングを始める前にはいくつかの条件を予め設定しておく必要がある。まず画像測定を行う位置、すなわち画像測定の中心および合焦位置とタッチプローブとの位置関係を、リファレンスボール等を使って補正しておく必要がある。またフィーラーに関するパラメータの既定値が設定されていなければならない。ここでフィーラーに関するパラメーターとは、フィーラーID、フィーラー径およびその補正値、アプローチ距離、アプローチ速度、オーバトラベル距離、Zオフセット距離等の、そのフィーラー24aを用いてタッチプローブ測定を行なう場合に必要なパラメータ(以下フィーラー情報とする)である。測定機本体2の図示していないラックに収容されているフィーラー24a毎に既定値が定められており、フィーラー情報記憶部45に保存されている。なお、オーバトラベル距離とは、設定されたパスに従ってフィーラー24aを移動させても、フィーラー24aが測定ポイントに到達しなかった場合、つまりトリガ信号が出力されなかった場合に、測定ポイントに到達させるために追加移動させる最大距離のことである。
【0039】
操作者は、これらの条件が設定されているのを確認した後に、プロービングのティーチング作業を始める。支援装置4のGUI部43は、入力装置6を介して操作者よりティーチング作業の開始指示を受け付けると、ティーチング作業を受け付けるためのGUI画面を表示装置5に表示する(S101)。図3は、表示装置5に表示するGUI画面の一例を示す図である。このGUI画面には、画像取得部41が撮像装置23より取得した撮像画像を表示するための画像表示エリア51、ティーチングリストに加える機能コードを選択するコード選択エリア52、座標入力エリア53、ティーチング情報をリスト表示するためのティーチングリスト表示エリア54、フィーラー24aの選択ボックスが設けられたフィーラー選択エリア55、光学倍率の選択ボックスが設けられた倍率選択エリア56、設定中のプロービング情報を表示するためのプロービング情報表示エリア57と、プロービング情報表示エリア57に表示されているプロービング情報に従ってフィーラー24aを移動するための簡易実行ボタン58等を有している。ここで、コード選択エリア52、フィーラー選択エリア55および倍率選択エリア56の選択ボックスは、例えばドロップダウンメニュー形式の選択ボックスであり、初期状態では、所定のフィーラーIDおよび光学倍率(鏡筒22の光学系に標準で設定されている倍率)がデフォルト選択されている。コード選択エリア52で選択されるコードとしては経過点設定、ワーク座標系設定、ワーク座標系クリア、ワーク基準面設定等がある。コードやフィーラーや倍率を選択すると、ティーチングにそのコードの機能、フィーラー交換、倍率変換が登録される。また、図3において、符号517はカーソルである。操作者はマウス等の入力装置6を用いて、カーソルを操作することができる。
【0040】
まず、測定演算部45は、上記した被測定物7に対する座標系(ワーク座標系)を設定する(S102)。
【0041】
次に、操作者がカーソル517を操作し、機能選択エリア52で仮想プロービングコードを選択すると(S103)、GUI部43は表示処理部44にオーバレイ表示を指示する。これを受けて表示処理部44は、GUI部43を介して、GUI画面の画像表示エリア51に表示されている撮像画像上に、仮想的なフィーラー24aを示す円形のシンボルなどや、プロービング時にフィーラー24aが通過する領域を表す長円状シンボルなどをオーバレイ表示する(S104)。
【0042】
操作者がカーソル517を操作し、画像表示エリア51内で第1の目標検出位置を指示すると、表示処理部44は、画像表示エリア51に表示されている被測定試料7の撮像画像上に、フィーラー径、アプローチ距離、アプローチ速度、オーバートラベル距離、Zオフセット距離等のフィーラー情報の既定値をオーバーレイ表示する。これらの値を変更する場合は、フィーラー選択エリア55やパス情報エリア57に数値を直接入力する(S105)。
【0043】
なお、図3において、符号512、513はそれぞれ経過点(プロービング開始点)、検出点のフィーラーを示すマークであり、符号514はアプローチ軌跡を示すマークであり、そして、符号516は、オーバトラベル軌跡を示すマークである。また、図3において、符号515は、プローブング時のフィーラー干渉範囲(タッチプローブ測定を行なった場合にフィーラー24aが通過する領域)を示すマークである。
【0044】
ここで、フィーラーを示すマークの径、アプローチ軌跡の長さ、および、オーバトラベル軌跡の長さは、読み出したフィーラー情報によって特定されるフィーラー径、アプローチ距離、オーバトラベル距離と、倍率選択エリア61で選択されている光学倍率切替に連動して表示サイズが書替えられる。移動する座標は数値を座標入力エリア53に入力しても構わない。
【0045】
さて、GUI部43は、目標検出位置513に対するアプローチの方向、すなわち開始位置512から目標検出位置513に移動する方向を操作者より受け付ける。GUI部43は、操作者のカーソル517の操作に従い、画像表示エリア51にオーバレイ表示されているフィーラーを示すマーク512、513、アプローチ軌跡を示すマーク514、オーバトラベル軌跡を示すマーク515およびフィーラー干渉範囲を示すマーク515を、マーク513(目標検出位置)中心に回転させる。これにより、操作者からアプローチの方向の指定を受け付ける。また必要に応じて、アプローチ距離、オーバートラベル距離等の修正を受ける。
【0046】
それから、GUI部43は、操作者より、このプローブの移動に関する情報(以下仮想プロービングコードとする)の登録指示を受け付けると、その旨をティーチング処理部47に通知する。これを受けて、ティーチング処理部47は、画像表示エリア51にオーバレイ表示されているフィーラーを示すマーク512、513、アプローチ軌跡を示すマーク514、オーバトラベル軌跡を示すマーク515およびフィーラー干渉範囲を示すマーク515の画面内における位置から、経過点(プロービング開始点)、検出点の座標値(ワーク座標系の座標)、アプローチ距離、オーバートラベル距離等を決定し、これを第1の目標検出位置の仮想プロービングコードとして、ティーチングリストに追加する(S106)。
【0047】
同様に第2の仮想プロービングを入力する。この操作を繰り返し、複数の仮想プロービングをティーチングリストに追加する(S111)。
【0048】
ここで、画像表示エリア51に収まらない他の部分を指定する場合には、コントローラ3に設けられたジョイスティック等の操作手段でXYZ軸を駆動して、所望の目標検出位置で仮想プロービングを登録する。実際のタッチプローブを使用したプロービングでは、入力した目標検出座標が順次測定されるが、その際、タッチプローブの直線的な移動経路と被測定物が干渉する場合には、これを避けるための経過点(パスポイント)を入力して登録する。経過点についても画面上のグラフィックで追加、編集することができる。このタッチプローブの直線的な移動経路と経過点を含めてプローブパスとする。
【0049】
図3に示すGUI画面において、操作者のカーソル517の操作によりプローブパス表示ボタン582が選択されると(S107)、図4に示すように、表示処理部44は、ティーチングリストに登録されている複数の仮想プロービングコードによって決定されるプローブパス518を、画像表示エリア51に表示されている撮像画像上にオーバレイ表示する(S108)。
【0050】
なお、タッチプローブのフィーラー交換、もしくはフィーラー着脱をする場合には、フィーラー交換として、ティーチングリストに登録される。同様に、ラック付近にリファレンスボールを設置しておき、フィーラー交換後に自動的にキャリブレーションを実行することを選択することも可能である。
【0051】
次に、GUI部43は、操作者より、ティーチングリストの保存指示を受け付けると(S109)、その旨をティーチング処理部47に通知する。これを受けて、ティーチング処理部47は、このティーチングリストに名前を付けてティーチングファイルとして保存する(S110)。なお、後で説明するテンプレート画像もティーチングファイルに一緒に保存することもできる。
【0052】
なお、図3に示すGUI画面において、操作者のカーソル517の操作により簡易実行ボタン581が選択されると、ティーチング処理部47は、コントローラ3に指令を送信し、実際にプロービング動作を行わせる。これにより、プロービング動作を確認することができる。また、編集ボタン583が選択されると、ティーチング処理部47は、ティーチングリストに追加済みの情報の編集を受け付ける。これにより、仮想プロービングを一旦決定した後でも、プローブパス等のグラフィックを再表示させ、再度パラメータを編集することができる。
【0053】
このティーチング作業は、簡易実行機能を除いて、実際にタッチプローブ(フィーラー)を装着していなくても行うことができる。なお、ティーチング作業は表示画面上に、撮像装置23で撮影した被検出試料7の画像ではなく、被測定試料の図面を表示させても同様に行うことができる。
【0054】
さて、本実施形態に係る画像測定装置によれば、以上のようにしてティーチングしたティーチングファイルをリプレイすることで、自動測定を行うことができる。まず、ティーチングファイルを開く。ステージ上の任意の位置に置かれた被測定物の、ティーチング時に仮の原点設定に用いた箇所(特徴的な部分や端点等)を観察できる状態にし、その箇所を仮の原点に設定する。その後にリプレイ動作を開始すると、ティーチング処理部47は、ティーチング時のXYZ座標への位置決め駆動、画面内でのエッジ検出エリアや方向、照明、倍率、画像処理各種パラメータ、タッチプロービング(仮想プロービングは実プロービングとして)、経過点移動等を、ティーチング時に記録した通りに再現し、ティーチングリストの順に次々と自動測定を実行する。測定演算部45が算出した全ての測定値は、データ管理部48により既定のファイルに保存される。ティーチングリストの項目が全て終了すると自動測定が終了する。ティーチング時に必要な結果を指定していれば、終了時に必要な結果のみを集計する。指示されていれば作表等をする。実プロービング時には、表示画面上に無関係な部分が映ることになるためマスクしても構わない。リプレイの時に撮像後測定機能を選択すると、プロービングに先立って測定部分の画像を取得し、ティーチング時のグラフィックをオーバーレイ表示した状態でプロービングが行われ、検出点がグラフィックに追加表示される。
【0055】
なお、ティーチング中であっても、既存のティーチングファイルを開いた状態であっても、ティーチングリスト上の任意のコードを一つ、または複数選択しておき、選択したコードの簡易実行や編集ができる。
【0056】
この様にして設定したティーチングファイルを実行することによって、タッチプローブ24を使用して被測定物7の形状を測定することができる。本実施形態に係る画像測定装置を使用すると、タッチプローブ24の測定位置を撮像装置23で取得した被測定物7を表示した表示画面上で簡単にティーチング作業をすることができる。
【0057】
次に、上記したティーチング作業に用いた被測定物7と実際にタッチプローブ測定する被測定物7と間の寸法等のバラツキが大きい場合のプロービングの補正機能について説明する。
【0058】
これはティーチング時に使用した被測定物7と、測定実行時に測定する被測定物7の形状がばらついている場合に、ティーチング作業により設定したパスに従ってフィーラー24aを移動させたのでは、測定物7の測定ポイントに接触しなかったり、あるいは、被測定物7の他の部分に接触したりして、正確に測定できない場合に使用するものである。
【0059】
ティーチング時、GUI部43が、仮想プロービングに先立って、操作者のカーソル517の操作により、画像表示エリア51に表示されている撮像画像中の注目領域の選択を受け付けると、測定演算部45は、選択された画像をテンプレート画像として設定し(パターンマッチングサーチ)、その中心を一時的な座標系の原点に設定し登録する。リプレイ時において、画像処理部46は、画像取得部41を介して新たな被測定物7の撮像画像を撮像装置23で取得する。そして、その撮像画像中で、上記したテンプレート画像と一致する部分をパターンマッチング処理(画面内でテンプレート画像と一致する領域を探す処理)で見つけその座標(サーチ座標)を出力する。測定演算部45は、テンプレート座標と、マッチング処理によって特定したサーチ座標がずれている場合、そのずれ量だけ一時的に座標をずらして設定する。これにより、被測定物の加工に大きなばらつきがあるような場合でも、タッチプローブ測定を実行することができる。
【0060】
本実施形態では、被測定物7の撮像画像上にオーバレイ表示された仮想的なフィーラーを表すマークを用いて、タッチプローブ測定の手順の設定を受け付けている。また、手順の設定に従ってタッチプローブ測定を行なった場合にタッチプローブ24のフィーラー24aが通過する領域を、被測定物7の撮像画像上にオーバレイ表示している。このため、肉眼観察によるティーチング作業のように、タッチプローブ24のフィーラー24aを実際に動かして手順の設定を行なう必要がない。したがって微細な測定物に対するティーチング作業を、肉眼観察による場合に比べてより簡単且つ安全に行なえるように、タッチプローブ測定を支援することができる。
【0061】
また、本実施形態では、撮像装置23の撮像倍率が変更された場合、変更後の撮像倍率に合わせた大きさとなるように、被測定物7の撮像画像上にオーバレイ表示するプロービングおよびプローブパスのマークの大きさを変更している。このため、肉眼観察による場合に比べて、プローブパスと被測定物7との干渉の有無の確認や経過点の追加を、視覚的により容易に行なうことができる。
【0062】
さらに、本実施形態では、ティーチング時に記録した被測定物7のテンプレート画像および実際にタッチプローブ測定する被測定物7の撮像画像を用いて、実際にタッチプローブ測定する被測定物7のサーチ座標とティーチング時に使用した被測定物のテンプレート座標の差分に応じて、ティーチング作業時に設定した座標系を一時的に修正している。ティーチング作業に用いた被測定物7と実際にタッチプローブ測定する被測定物7と間の寸法等のバラツキが大きい場合、ティーチング作業により設定したパスに従ってフィーラー24aを移動させたのでは、フィーラー24aが被測定物7の測定ポイントに接触しなかったり、あるいは、被測定物7の他の部分に接触したりして、正確に測定できない事態も起こり得る。しかし、本実施形態では、上記のようにしてプロービング位置を修正しているので、そのような事態が発生する可能性を低減することができる。
【0063】
なお、本発明は上記の実施形態に限定されるものではなく数々の変形が可能である。
【0064】
なお、登録済みのティーチングファイルの修正は、オフライン、つまり、測定機1に繋がっていない状態でも行なうことができる。但し、この場合、タッチプローブ測定の簡易実行(図3の簡易実行ボタン)を行なうことはできない。
【0065】
また、上記の実施形態において、ティーチング作業では、測定機1から取得した被測定物7の撮像画像の代わりに、予めメモリ等に登録しておいた被測定物7のCAD図面等を利用してもよい。このようにすれば、登録済みのティーチングファイルの修正の場合と同様に、オフライン、つまり、測定機1に繋がっていない状態で行なうことができる。但し、この場合、タッチプローブ測定の簡易実行(図3の簡易実行ボタン)を行なうことはできない。
【0066】
【発明の効果】
以上説明したように、本発明によれば、タッチプローブを備えた座標測定装置において、ティーチング作業を簡単に行なえる座標測定機を提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態が適用された座標測定システムの概略構成図である。
【図2】図1に示す支援装置4のテーチング作業の支援動作を説明するためのフロー図である。
【図3】表示装置5に表示するGUI画面の一例を示す図である。
【図4】図3に示すGUI画面の画像表示エリア51に表示されるプローブパスのオーバレイ表示の一例を示す図である。
【符号の説明】
1…測定機、2…測定機本体、3…コントローラ、4…支援装置、5…表示装置、6…入力装置、21…ステージ、22…鏡筒、23…撮像装置、24…タッチプローブ、24a…フィーラー、31…駆動制御部、33…座標検出部、34…プローブ信号検出部、35…光学制御部、36…支援装置IF部、41…画像取得部、42…コントローラIF部、43…GUI部、44…表示処理部、45…測定演算部、46…画像処理部、47…ティーチング処理部、48…データ管理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image measurement device having an imaging device for imaging an object to be measured and a touch probe.
[0002]
[Prior art]
2. Description of the Related Art An image measurement apparatus that captures an object to be measured placed on a horizontally movable stage via an optical system and measures the object from an obtained captured image is widely used. This image measurement device measures coordinates of a measurement point specified on a captured image. However, there are cases where accurate measurement cannot be performed by image measurement, such as a hole having a tapered cross section or an object having a side surface. For this reason, an image measuring device provided with a touch probe has also been proposed (for example, see Patent Document 1).
[0003]
The touch probe detects a signal output when the feeler (stylus) contacts the measurement point, and detects the coordinates of the feeler at this time to measure the coordinates of the measurement point.
[0004]
[Patent Document 1]
US Patent No. 33,774
[0005]
[Problems to be solved by the invention]
However, there are fine objects to be measured by the image measuring apparatus, such as sub-mm order. When the touch probe measurement is performed on such a minute object to be measured, there is a problem that the teaching operation by visual observation is difficult due to the minuteness.
[0006]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a coordinate measuring machine having a touch probe, which can easily perform a teaching operation.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 is an image measurement apparatus having an imaging device for imaging an object to be measured and a touch probe having a feeler, wherein the imaging of the object to be measured is performed by the imaging device. A display device for overlaying an image and a mark representing the feeler shape of the touch probe, and setting means for setting a procedure of touch probe measurement using the mark displayed on the display device. An image measuring device is provided.
[0008]
According to a second aspect of the present invention, in the image measurement device according to the first aspect, the display unit displays an area through which a feeler passes when performing a touch probe measurement in the procedure set by the setting unit. An image measuring device characterized by the following.
[0009]
According to a third aspect of the present invention, in the image measuring device according to the first or second aspect, when the magnification of the imaging device is changed, the display unit displays the mark to be overlaid on an image of the device under test. Alternatively, there is provided an image measuring device wherein the size of the area is changed to a size corresponding to the magnification after the magnification is changed.
[0010]
According to a fourth aspect of the present invention, in the image measurement device according to any one of the first to third aspects, the shape of the DUT at the time of setting the procedure and the shape of the DUT at the time of executing the touch probe are set. An image measuring apparatus further comprising a correction unit for detecting a deviation of the image, correcting the deviation, and executing the procedure.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described.
[0012]
FIG. 1 is a schematic configuration diagram of a coordinate measuring device according to an embodiment of the present invention.
[0013]
The coordinate measuring device according to the present embodiment includes a measuring device 1 that is an image measuring device provided with a touch probe, and a support device 4 that supports the measuring device 1. The measuring device 1 includes a measuring device main body 2 and a controller 3.
[0014]
The measuring device main body 2 includes a lens barrel 22 having an optical system with a magnification switching mechanism, an imaging device 23, a touch probe 24 with a feeler 24a, and an unillustrated moving the lens barrel 22 up and down (Z direction). And a stage 21 that can relatively move the lens barrel 22 and the DUT 7 in the horizontal direction (XY directions).
[0015]
The imaging device 23 captures an optical image of the DUT 7 placed on the object plane of the optical system of the lens barrel 22, and uses, for example, a CCD camera.
[0016]
The touch probe 24 has a feeler 24 a at its tip, and is fixed to the lens barrel 22. Therefore, the horizontal relative position between the center of the optical axis of the optical system of the lens barrel 22 and the feeler 24a of the touch probe 24 does not change. Further, the relative position in the vertical direction between the focal position of the optical system of the lens barrel 22 and the feeler 24a of the touch probe 24 does not change.
[0017]
The touch probe 24 outputs a signal to the probe signal detection unit 34 of the controller 3 at the moment when the feeler 24a at the tip of the touch probe 24 comes into contact with a predetermined measurement point of the DUT 7 or when the touch probe 24 leaves the contact state. , The probe signal detection unit 34 generates a trigger signal.
[0018]
The diameter and position of the feeler 24a are obtained by measuring the same portion of the DUT 7 by using a correction value obtained in advance using a reference ball (a true sphere used to correct the diameter and position of the feeler) or the like. Then, the measured values are corrected so as to have the same coordinates. When a plurality of feelers are prepared, the measurement value of the touch probe measurement is corrected by the correction value of the actually used feeler among the correction values acquired in advance according to the diameter and position of the feeler for each feeler. When the magnification, the optical axis, and the focal position of the optical system change due to the magnification switching, the measurement value of the image measurement is corrected by the optical system correction value acquired in advance according to each magnification. The relative position of the optical system and the feeler 24a is determined by the correction value (and the correction value corresponding to the magnification and the feeler) obtained in advance by measuring the same reference ball or the like with both the image and the touch probe, and the image is measured. Even in the probe measurement, when the same part of the DUT 7 is measured, the measurement values are corrected so that the measured values have the same coordinates. The feeler 24a is detachable from the touch probe 24, and is usually housed in a rack (not shown). A plurality of types of feelers 24a can be accommodated in this rack, and the operator selects a desired feeler 24a from the plurality of types of feelers 24a accommodated in the rack and attaches it to the touch probe 24 for use. I do.
[0019]
The stage 21 has a moving mechanism and a coordinate detecting mechanism (not shown), and moves in the XY directions under the control of the drive control unit 31. The lens barrel 22 is controlled by the drive control unit 31 by the moving mechanism and moves in the Z direction. As the moving mechanism, a ball screw, a motor, or the like is used. Further, a linear encoder or the like is used as the coordinate detection mechanism, and outputs a coordinate signal to the coordinate detection unit 33. With these, the measurement object 7 and the observation position in the horizontal direction (the optical axis center position of the optical system of the lens barrel 22), the observation position in the vertical direction (the in-focus position of the optical system of the lens barrel 22), and the feeler 24a A relative moving route, moving speed, position, and the like are detected and controlled.
[0020]
In addition, the coordinate measuring apparatus according to the present embodiment has an auto-focus function, and can automatically focus on the DUT 7. In this autofocus method, a plurality of images are acquired by changing the relative distance between the lens barrel 22 and the DUT 7 in the Z-axis direction, and the contrast of the image detected by the image processing unit 46 described below is maximized. A method called a passive method of calculating a focus position, that is, a method called a passive method, or a method in which a laser diode or LED light is applied to the DUT 7 as auxiliary light, and the focus position is determined from the displacement of the light spot position of the reflected light. There is a so-called active method, in which the lens barrel position is controlled so that the detection position of the object to be measured is at the focal position of the lens barrel optical system.
[0021]
The controller 3 controls the measuring device main body 2, and processes signals from a coordinate detecting mechanism such as a support device IF unit 36, which is an interface with the support device 4, and a linear encoder, to detect coordinates and a moving speed. A detection unit 33, a drive control unit 31 that determines an acceleration / deceleration curve and speed distribution of each axis, performs a closed loop control of the motor driver based on the detected position and speed, and a probe signal that generates a trigger signal by receiving a signal from the touch probe 24 It is provided with a detection unit 34, an optical system control unit 35 for adjusting the magnification of the optical system and the amount of illumination, and the like.
[0022]
The support device 4 presents information to the operator using the controller IF unit 42, which is an interface with the controller 3, an input device 6 such as a mouse, a keyboard, and a joystick, and a display device 5 such as a CRT and an LCD. A graphical user interface (GUI) unit 43 for receiving instructions is provided. The support device 4 includes a teaching processing unit 47 having a teaching function such as teaching, storage, and reproduction of a measurement procedure, an image processing unit 46 having an image processing function such as edge detection, pattern matching, and contrast detection, and a coordinate display function. And a display processing unit 44 having an overlay display function of overlaying an image of the DUT 7 captured by the imaging device 23 and a mark of the feeler 24a, an inter-coordinate calculation, a geometric shape calculation, a numerical calculation, a statistical calculation, a tolerance determination, and the like. A measurement operation unit 45 having a measurement operation function, a data management unit 48 having a data management function such as storage of measurement result data and data relocation (measurement result report), and an image acquisition having a function of acquiring an image from the imaging device 23. A communication unit (not shown) having an external communication function with the unit 41, a network, a transport unit, and the like.
[0023]
Next, the operation of measuring the coordinates of the DUT 7 using the image measurement device will be described.
[0024]
The teaching processing unit 47 of the support device 4 transmits a movement command to the controller 3 via the controller IF unit 42. The drive control unit 31 of the controller 3 drives the XY axes of the stage 21 and the Z axis of the lens barrel 22 according to the movement command received from the support device 4 via the support device IF unit 36, and the command coordinates of the observation optical system Control the movement so that it is the center. The controller 3 may be provided with operating means such as a joystick, and the drive control unit 31 may drive the XY axes of the stage 21 and the Z axis of the lens barrel 22 according to the operation input to the operating means.
[0025]
In addition, the teaching processing unit 47 of the support device 4 transmits a magnification switching command of the optical system to the controller 3 via the controller IF unit 42. The optical system control unit 35 of the controller 3 controls the magnification of the optical system of the lens barrel 22 according to the magnification switching command received from the support device 4 via the support device IF unit 36. Note that the magnification switching command is also transmitted, for example, when an operator operates an operation unit provided in the controller 3 in addition to a case where the magnification is changed by the teaching function.
[0026]
In the support device 4, an optical system correction value (a magnification correction value and a correction value relating to the position of the optical axis and the position of the parfocal point at each magnification) are registered in the measurement calculation unit 45 for each magnification of the optical system of the lens barrel 22. Have been. The teaching processing unit 47 notifies the measurement calculation unit 45 of the magnification indicated by the magnification switching command transmitted to the controller 3. The measurement calculation unit 45 sets the optical system correction value corresponding to the magnification to be used for correcting the detected coordinates. After the optical system is set as described above, an image of a predetermined range of the DUT 7 is captured by the imaging device 23 and is captured by the support device 4 via the image acquisition unit 41.
[0027]
Next, a method for measuring the coordinates of the DUT 7 from the captured image will be described.
[0028]
When the controller 3 receives the image acquisition timing signal, the support device 4 acquires the XYZ coordinate values from the encoder (not shown) via the coordinate detection unit 33 that detects the XYZ coordinate values (the XYZ coordinate values of the measuring device main body 2). . The support device 4 processes the image acquired by the imaging device 23 by the image processing unit 46 to calculate the in-screen edge position. Further, it is calculated as a coordinate value from the optical system correction value (in-screen coordinate value). Measurement coordinates are calculated from the XYZ coordinate values of the measuring device main body 2 and the coordinate values in the screen. Further, it is also possible to calculate a line, a shape, and the like of the object detected by an instruction from the operator.
[0029]
Next, a method of measuring the shape of the test sample 7 using the touch probe 24 will be described.
[0030]
The touch probe 24 probes the device under test 7 through a path taught by a method described later. Upon receiving the touch trigger signal from the touch probe signal detecting unit 34, the coordinate detecting unit 33 of the controller 3 acquires XYZ coordinate values from a coordinate detecting mechanism (not shown) of the measuring device main body 2, and receives the XYZ coordinate values via the support device IF unit 36. To the support device 4. The measurement calculation unit 45 of the support device 4 calculates an accurate value of the detected coordinates from the XYZ coordinate values and the feeler correction values (correction values related to the feeler diameter, position, and the like in each feeler). In addition, the measurement calculation unit 45 can also calculate the geometric shape and the like of the object detected by the designation of the operator.
[0031]
Next, the work coordinate system will be described.
[0032]
When the object to be measured is replaced, the object to be measured is not placed at exactly the same position on the stage 21, but is slightly shifted. Therefore, a plurality of positions of the measured object are measured by an image or touch probing, and a coordinate system (work coordinate system) of each measured object is set from those positions. Since the coordinate system is determined based on the shape of the device under test, the coordinate system of each device under test is the same regardless of the position on the stage 21 where the device under test is placed. A method for setting this coordinate system will be described.
[0033]
First, an arbitrary point in the measured object is set as a temporary origin. The GUI unit 43 of the support device 4 selects a measurement target such as a point or a line according to an instruction of the operator. Next, the image processing unit 46 performs edge detection on the image acquired from the imaging device 23 via the image acquisition unit 41, and detects a measurement target such as a point or a line. The measurement calculation unit 45 measures the selected or detected coordinates of the measurement target. In the case of touch probing, an operation means such as a joystick provided on the controller 3 is operated to actually execute a touch probing operation to measure coordinates. This series of measurement operations is registered in the teaching list as a coordinate system setting operation. The measurement calculation unit 45 sets the point measured in this way to the origin of the workpiece coordinate system (work coordinate system), and sets the measured line to the X axis of the workpiece coordinate system (work coordinate system). The work coordinate system is preferably set at the beginning of teaching.
[0034]
The image measuring device according to the present embodiment includes one-point edge detection by image processing, multi-point edge detection by image processing, pattern matching template image storage by image processing, pattern matching detection by image processing, height detection by passive autofocus, It has detection functions (codes) such as height detection by active autofocus, continuous multipoint detection by active autofocus, probing by a touch probe, virtual probing detection described later, and input of an elapsed point.
[0035]
In addition, point, multipoint average, maximum point, minimum point, circle, line, plane, point-to-point distance, point-to-line distance, plane-to-point distance, line-to-line intersection, numerical calculation, statistical calculation, progress It has calculation functions (codes) such as point setting, work coordinate system setting, work coordinate system clear, and work reference plane setting.
[0036]
Next, a teaching method for inputting the measurement position of the touch probe to the image measurement device will be described. FIG. 2 shows a flowchart of the teaching method.
[0037]
Note that this detection function is called a virtual probing code. This is a function of teaching the position, route, and the like of probing by the touch probe without actually probing by using an image captured by the imaging device 23. Of course, it goes without saying that a detection function with actual probing exists separately.
[0038]
Before starting teaching, it is necessary to set some conditions in advance. First, it is necessary to correct the position where the image measurement is performed, that is, the positional relationship between the center and the focus position of the image measurement and the touch probe using a reference ball or the like. In addition, default values of parameters related to the feeler must be set. Here, the parameters related to the feeler include parameters necessary for performing a touch probe measurement using the feeler 24a, such as a feeler ID, a feeler diameter and a correction value thereof, an approach distance, an approach speed, an overtravel distance, and a Z offset distance. (Hereinafter referred to as feeler information). A default value is defined for each feeler 24a housed in a rack (not shown) of the measuring device main body 2, and is stored in the feeler information storage unit 45. Note that the overtravel distance is to reach the measurement point when the feeler 24a does not reach the measurement point even when the feeler 24a is moved according to the set path, that is, when the trigger signal is not output. Is the maximum distance to be additionally moved.
[0039]
After confirming that these conditions are set, the operator starts the probing teaching work. Upon receiving a teaching work start instruction from the operator via the input device 6, the GUI unit 43 of the support device 4 displays a GUI screen for receiving the teaching work on the display device 5 (S101). FIG. 3 is a diagram illustrating an example of a GUI screen displayed on the display device 5. On the GUI screen, an image display area 51 for displaying a captured image acquired by the image acquisition unit 41 from the imaging device 23, a code selection area 52 for selecting a function code to be added to the teaching list, a coordinate input area 53, teaching information List display area 54 for displaying a list of the images, a feeler selection area 55 provided with a selection box for the feeler 24a, a magnification selection area 56 provided with an optical magnification selection box, and a display for displaying the probing information being set. It has a probing information display area 57 and a simple execution button 58 for moving the feeler 24a in accordance with the probing information displayed in the probing information display area 57. Here, the selection boxes of the code selection area 52, the feeler selection area 55, and the magnification selection area 56 are, for example, selection boxes of a drop-down menu format. In an initial state, a predetermined feeler ID and an optical magnification (the optical magnification of the lens barrel 22) are set. The magnification set as a standard for the system) is selected by default. The codes selected in the code selection area 52 include a progress point setting, a work coordinate system setting, a work coordinate system clear, and a work reference plane setting. When a code, feeler, or magnification is selected, the function of the code, feeler replacement, and magnification conversion are registered in teaching. In FIG. 3, reference numeral 517 is a cursor. The operator can operate the cursor using the input device 6 such as a mouse.
[0040]
First, the measurement calculation unit 45 sets a coordinate system (work coordinate system) for the above-described DUT 7 (S102).
[0041]
Next, when the operator operates the cursor 517 and selects a virtual probing code in the function selection area 52 (S103), the GUI unit 43 instructs the display processing unit 44 to display an overlay. In response to this, the display processing unit 44, via the GUI unit 43, places a circular symbol indicating the virtual feeler 24a on the captured image displayed in the image display area 51 of the GUI screen, or displays the feeler during probing. An oval symbol or the like representing an area through which 24a passes is displayed as an overlay (S104).
[0042]
When the operator operates the cursor 517 and designates the first target detection position in the image display area 51, the display processing unit 44 displays the captured image of the sample 7 to be measured displayed in the image display area 51 on the captured image. A default value of feeler information such as a feeler diameter, an approach distance, an approach speed, an overtravel distance, and a Z offset distance is displayed as an overlay. When these values are to be changed, numerical values are directly input to the feeler selection area 55 and the path information area 57 (S105).
[0043]
In FIG. 3, reference numerals 512 and 513 denote marks indicating an elapsed point (probing start point) and a feeler at a detection point, reference numeral 514 denotes a mark indicating an approach locus, and reference numeral 516 denotes an overtravel locus. Is a mark indicating In FIG. 3, reference numeral 515 is a mark indicating a feeler interference range at the time of probing (the area through which the feeler 24a passes when performing the touch probe measurement).
[0044]
Here, the diameter of the mark indicating the feeler, the length of the approach trajectory, and the length of the overtravel trajectory are determined by the feeler diameter, approach distance, overtravel distance, and magnification selection area 61 specified by the read feeler information. The display size is rewritten in conjunction with the switching of the selected optical magnification. The coordinates to be moved may be input to the coordinate input area 53 as numerical values.
[0045]
The GUI unit 43 receives an approach direction with respect to the target detection position 513, that is, a direction of moving from the start position 512 to the target detection position 513 from the operator. In accordance with the operation of the cursor 517 by the operator, the GUI unit 43 displays marks 512 and 513 indicating a feeler, a mark 514 indicating an approach locus, a mark 515 indicating an overtravel locus, and a feeler interference range which are overlaid on the image display area 51. Is rotated about the mark 513 (target detection position). Thereby, the designation of the approach direction is received from the operator. In addition, if necessary, the approach distance, the overtravel distance, and the like are corrected.
[0046]
Then, when the GUI unit 43 receives an instruction to register information on the movement of the probe (hereinafter, referred to as a virtual probing code) from the operator, the GUI unit 43 notifies the teaching processing unit 47 of that. In response to this, the teaching processing unit 47 generates the marks 512 and 513 indicating the feeler, the mark 514 indicating the approach trajectory, the mark 515 indicating the overtravel trajectory, and the mark indicating the feeler interference range, which are overlaid on the image display area 51. From the position in the screen 515, the lapse point (probing start point), the coordinate value of the detection point (the coordinate of the work coordinate system), the approach distance, the overtravel distance, and the like are determined, and are determined as the virtual target detection position. It is added to the teaching list as a probing code (S106).
[0047]
Similarly, a second virtual probing is input. This operation is repeated to add a plurality of virtual probing to the teaching list (S111).
[0048]
Here, when designating another part which does not fit in the image display area 51, the XYZ axes are driven by operating means such as a joystick provided in the controller 3, and virtual probing is registered at a desired target detection position. . In probing using an actual touch probe, the input target detection coordinates are sequentially measured. At this time, if the linear movement path of the touch probe interferes with the DUT, Enter and register points (pass points). Elapsed points can also be added and edited with on-screen graphics. A probe path includes the linear movement path and the progress point of the touch probe.
[0049]
When the probe path display button 582 is selected by the operator operating the cursor 517 on the GUI screen shown in FIG. 3 (S107), the display processing unit 44 is registered in the teaching list as shown in FIG. The probe path 518 determined by the plurality of virtual probing codes is displayed as an overlay on the captured image displayed in the image display area 51 (S108).
[0050]
When the feeler is replaced or the feeler is attached / detached, the touch probe is registered in the teaching list as the feeler replacement. Similarly, it is also possible to install a reference ball near the rack and select to automatically execute calibration after replacing the feeler.
[0051]
Next, upon receiving an instruction to save the teaching list from the operator (S109), the GUI unit 43 notifies the teaching processing unit 47 of the instruction. In response to this, the teaching processing unit 47 assigns a name to the teaching list and saves it as a teaching file (S110). Note that a template image to be described later can also be stored together with the teaching file.
[0052]
Note that, when the simple execution button 581 is selected by the operator operating the cursor 517 on the GUI screen shown in FIG. 3, the teaching processing unit 47 transmits a command to the controller 3 to actually perform the probing operation. Thereby, the probing operation can be confirmed. When the edit button 583 is selected, the teaching processing unit 47 accepts editing of information that has been added to the teaching list. Thereby, even after the virtual probing is once determined, the graphic such as the probe path can be displayed again and the parameters can be edited again.
[0053]
This teaching operation can be performed without actually mounting the touch probe (feeler) except for the simple execution function. Note that the teaching operation can be performed in the same manner by displaying the drawing of the sample to be measured on the display screen instead of displaying the image of the sample 7 to be detected on the display screen.
[0054]
Now, according to the image measurement device according to the present embodiment, automatic measurement can be performed by replaying the teaching file that has been taught as described above. First, open the teaching file. A position (characteristic portion, end point, or the like) used for setting a temporary origin of the object to be measured placed at an arbitrary position on the stage at the time of teaching is observed, and the position is set as a temporary origin. Thereafter, when the replay operation is started, the teaching processing section 47 drives the positioning to the XYZ coordinates at the time of teaching, the edge detection area and direction in the screen, illumination, magnification, various parameters of image processing, touch probing (virtual probing is performed in real time). The movement of the lapse point is reproduced as recorded at the time of teaching, and the automatic measurement is executed one after another in the order of the teaching list. All the measurement values calculated by the measurement calculation unit 45 are stored in a predetermined file by the data management unit 48. When all the items in the teaching list are completed, the automatic measurement ends. If necessary results are specified at the time of teaching, only the necessary results are totaled at the end. Make a table if instructed. At the time of actual probing, an unrelated portion is reflected on the display screen, so that it may be masked. When the measurement function after imaging is selected at the time of replay, an image of a measurement portion is acquired prior to probing, probing is performed in a state in which a graphic at the time of teaching is displayed in an overlay manner, and a detection point is additionally displayed on the graphic.
[0055]
Even during teaching or with an existing teaching file open, you can select one or more codes on the teaching list and easily execute or edit the selected code. .
[0056]
By executing the teaching file set as described above, the shape of the DUT 7 can be measured using the touch probe 24. When the image measurement device according to the present embodiment is used, a teaching operation can be easily performed on a display screen on which the measurement target 7 obtained by the imaging device 23 at the measurement position of the touch probe 24 is displayed.
[0057]
Next, a description will be given of a probing correction function in a case where there is a large variation in dimensions and the like between the DUT 7 used in the teaching operation and the DUT 7 to be actually measured by the touch probe.
[0058]
This is because if the shape of the DUT 7 used during teaching and the shape of the DUT 7 measured during execution of measurement vary, the feeler 24a is moved according to the path set by the teaching operation. It is used when accurate measurement cannot be made due to non-contact with the measurement point or contact with another part of the DUT 7.
[0059]
At the time of teaching, when the GUI unit 43 receives the selection of the attention area in the captured image displayed in the image display area 51 by the operation of the cursor 517 by the operator prior to the virtual probing, the measurement calculation unit 45 The selected image is set as a template image (pattern matching search), and its center is set and registered as the origin of the temporary coordinate system. At the time of replay, the image processing unit 46 acquires a new captured image of the DUT 7 by the imaging device 23 via the image acquisition unit 41. Then, in the captured image, a portion that matches the above-described template image is found by a pattern matching process (a process of searching for an area that matches the template image on the screen), and the coordinates (search coordinates) are output. When the template coordinates and the search coordinates specified by the matching process are shifted, the measurement calculation unit 45 sets the coordinates by temporarily shifting the coordinates by the shift amount. Accordingly, even when there is a large variation in the processing of the object to be measured, the touch probe measurement can be performed.
[0060]
In the present embodiment, the setting of the procedure of the touch probe measurement is received by using a mark representing a virtual feeler which is overlaid on the captured image of the device 7. Further, when the touch probe measurement is performed in accordance with the setting of the procedure, the area through which the feeler 24a of the touch probe 24 passes is displayed as an overlay on the captured image of the DUT 7. Therefore, unlike the teaching work by visual observation, it is not necessary to actually move the feeler 24a of the touch probe 24 to set the procedure. Therefore, it is possible to support the touch probe measurement so that the teaching operation on the minute measurement object can be performed more easily and safely than in the case of visual observation.
[0061]
Further, in the present embodiment, when the imaging magnification of the imaging device 23 is changed, the probing and the probe path for displaying the overlay on the captured image of the DUT 7 so as to have a size corresponding to the changed imaging magnification are performed. The size of the mark has been changed. For this reason, compared with the case of the naked eye observation, the presence or absence of the interference between the probe path and the DUT 7 and the addition of the progress point can be more easily visually performed.
[0062]
Further, in the present embodiment, the search coordinates of the DUT 7 to be actually subjected to the touch probe measurement are obtained by using the template image of the DUT 7 recorded at the time of teaching and the captured image of the DUT 7 to be actually subjected to the touch probe measurement. The coordinate system set at the time of the teaching operation is temporarily corrected according to the difference between the template coordinates of the DUT used at the time of the teaching. If there is a large variation in the dimensions and the like between the DUT 7 used for the teaching operation and the DUT 7 to be actually measured by the touch probe, if the feeler 24a is moved according to the path set by the teaching operation, the feeler 24a A situation may occur in which measurement cannot be performed accurately because the measurement point of the measurement target 7 does not contact the measurement point or the measurement target 7 contacts another part. However, in the present embodiment, since the probing position is corrected as described above, the possibility that such a situation occurs can be reduced.
[0063]
It should be noted that the present invention is not limited to the above embodiment, and various modifications are possible.
[0064]
The registered teaching file can be corrected off-line, that is, even when the teaching file is not connected to the measuring device 1. However, in this case, the simple execution of the touch probe measurement (the simple execution button in FIG. 3) cannot be performed.
[0065]
In the above-described embodiment, in the teaching operation, a CAD drawing or the like of the DUT 7 registered in advance in a memory or the like is used instead of the captured image of the DUT 7 acquired from the measuring device 1. Is also good. In this manner, as in the case of modifying a registered teaching file, the modification can be performed off-line, that is, in a state where the teaching file is not connected to the measuring device 1. However, in this case, the simple execution of the touch probe measurement (the simple execution button in FIG. 3) cannot be performed.
[0066]
【The invention's effect】
As described above, according to the present invention, in a coordinate measuring device provided with a touch probe, a coordinate measuring machine that can easily perform a teaching operation can be provided.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a coordinate measuring system to which an embodiment of the present invention is applied.
FIG. 2 is a flowchart for explaining a supporting operation of a teaching operation of the supporting device 4 shown in FIG. 1;
FIG. 3 is a diagram illustrating an example of a GUI screen displayed on the display device 5;
4 is a diagram showing an example of an overlay display of a probe path displayed in an image display area 51 of a GUI screen shown in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Measuring machine, 2 ... Measuring machine main body, 3 ... Controller, 4 ... Support device, 5 ... Display device, 6 ... Input device, 21 ... Stage, 22 ... Barrel, 23 ... Imaging device, 24 ... Touch probe, 24a ... Feeler, 31 ... Drive control unit, 33 ... Coordinate detection unit, 34 ... Probe signal detection unit, 35 ... Optical control unit, 36 ... Support device IF unit, 41 ... Image acquisition unit, 42 ... Controller IF unit, 43 ... GUI Unit, 44 display processing unit, 45 measurement operation unit, 46 image processing unit, 47 teaching processing unit, 48 data management unit

Claims (4)

被測定物を撮像する撮像装置とフィーラーを備えたタッチプローブとを有する画像測定装置において、
前記撮像装置が撮像した前記被測定物の撮像画像と前記タッチプローブのフィーラー形状を表すマークとをオーバレイ表示する表示装置と、
前記表示装置にオーバレイ表示されているマークを用いて、タッチプローブ測定の手順を設定する設定手段とを有すること
を特徴とする画像測定装置。
In an image measurement device having an imaging device for imaging an object to be measured and a touch probe having a feeler,
A display device that overlays a captured image of the measured object captured by the imaging device and a mark representing a feeler shape of the touch probe,
Setting means for setting a procedure of a touch probe measurement using a mark overlay-displayed on the display device.
前記表示手段は、前記設定手段で設定した前記手順でタッチプローブ測定を行うときにフィーラーが通過する領域をオーバーレイ表示すること
を特徴とする請求項1に記載の画像測定装置。
2. The image measurement apparatus according to claim 1, wherein the display unit displays an area through which a feeler passes when performing a touch probe measurement in the procedure set by the setting unit. 3.
前記表示手段は、前記撮像装置の倍率が変更された場合、前記被測定物の画像上にオーバレイ表示する前記マークもしくは前記領域の大きさを、倍率変更後の倍率に応じた大きさに変更すること
を特徴とする請求項1または2に記載の画像測定装置。
When the magnification of the imaging device is changed, the display unit changes the size of the mark or the area to be overlaid on the image of the device under test to a size according to the changed magnification. The image measuring device according to claim 1 or 2, wherein:
前記手順設定時の前記被測定物の形状と、前記タッチプローブ実行時の被測定物の形状のずれを検出し、前記ずれを補正して前記手順を実行する補正手段をさらに有すること
を特徴とする請求項1乃至3のいずれか1項に記載の画像測定装置。
The apparatus further includes a correction unit configured to detect a deviation between the shape of the DUT at the time of setting the procedure and the shape of the DUT at the time of executing the touch probe, correct the deviation, and execute the procedure. The image measurement device according to claim 1.
JP2003088241A 2003-03-27 2003-03-27 Picture image measuring instrument Pending JP2004294311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003088241A JP2004294311A (en) 2003-03-27 2003-03-27 Picture image measuring instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003088241A JP2004294311A (en) 2003-03-27 2003-03-27 Picture image measuring instrument

Publications (1)

Publication Number Publication Date
JP2004294311A true JP2004294311A (en) 2004-10-21

Family

ID=33402427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003088241A Pending JP2004294311A (en) 2003-03-27 2003-03-27 Picture image measuring instrument

Country Status (1)

Country Link
JP (1) JP2004294311A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352212B2 (en) 2009-11-18 2013-01-08 Hexagon Metrology, Inc. Manipulable aid for dimensional metrology
JP2013160765A (en) * 2012-02-03 2013-08-19 Mitsutoyo Corp Movement route adjustment support method of shape measurement device, and movement route adjustment support device
JP2015190928A (en) * 2014-03-28 2015-11-02 株式会社キーエンス optical coordinate measuring device
JP2015227794A (en) * 2014-05-30 2015-12-17 株式会社キーエンス Coordinate measurement device
US9995574B2 (en) 2011-08-11 2018-06-12 Mitutoyo Corporation CMM moving path adjustment assisting method and apparatus
JP2018169344A (en) * 2017-03-30 2018-11-01 株式会社東京精密 Three-dimensional measuring instrument, measurement method, and measurement program
JP2022009534A (en) * 2017-03-30 2022-01-14 株式会社東京精密 Three-dimensional measuring device, measurement method, and measurement program
DE102023111065A1 (en) 2022-05-12 2023-11-16 Keyence Corporation IMAGE MEASURING DEVICE
DE102023111134A1 (en) 2022-05-12 2023-11-16 Keyence Corporation Image measuring device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06161533A (en) * 1992-11-25 1994-06-07 Sanyo Electric Co Ltd Control system for three-dimensional measuring device
JPH07505958A (en) * 1992-09-25 1995-06-29 カール−ツアイス−スチフツング Coordinate measurement method on workpiece
JPH0814876A (en) * 1994-06-28 1996-01-19 Mitsutoyo Corp System for automatically measuring dimensions of workpiece
JPH10339630A (en) * 1997-06-10 1998-12-22 Mitsutoyo Corp 3-dimension measuring system
JPH11153427A (en) * 1997-08-18 1999-06-08 Giddings & Lewis Inc Coordinates measuring machine
JP2000074661A (en) * 1998-08-27 2000-03-14 Mitsutoyo Corp Measuring path selecting method in measuring instrument

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07505958A (en) * 1992-09-25 1995-06-29 カール−ツアイス−スチフツング Coordinate measurement method on workpiece
JPH06161533A (en) * 1992-11-25 1994-06-07 Sanyo Electric Co Ltd Control system for three-dimensional measuring device
JPH0814876A (en) * 1994-06-28 1996-01-19 Mitsutoyo Corp System for automatically measuring dimensions of workpiece
JPH10339630A (en) * 1997-06-10 1998-12-22 Mitsutoyo Corp 3-dimension measuring system
JPH11153427A (en) * 1997-08-18 1999-06-08 Giddings & Lewis Inc Coordinates measuring machine
JP2000074661A (en) * 1998-08-27 2000-03-14 Mitsutoyo Corp Measuring path selecting method in measuring instrument

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352212B2 (en) 2009-11-18 2013-01-08 Hexagon Metrology, Inc. Manipulable aid for dimensional metrology
US10655960B2 (en) 2011-08-11 2020-05-19 Mitutoyo Corporation CMM moving path adjustment assisting method and apparatus
US9995574B2 (en) 2011-08-11 2018-06-12 Mitutoyo Corporation CMM moving path adjustment assisting method and apparatus
US10024658B2 (en) 2011-08-11 2018-07-17 Mitutoyo Corporation CMM moving path adjustment assisting method and apparatus
JP2013160765A (en) * 2012-02-03 2013-08-19 Mitsutoyo Corp Movement route adjustment support method of shape measurement device, and movement route adjustment support device
JP2015190928A (en) * 2014-03-28 2015-11-02 株式会社キーエンス optical coordinate measuring device
JP2015227794A (en) * 2014-05-30 2015-12-17 株式会社キーエンス Coordinate measurement device
JP2018169344A (en) * 2017-03-30 2018-11-01 株式会社東京精密 Three-dimensional measuring instrument, measurement method, and measurement program
JP2022009534A (en) * 2017-03-30 2022-01-14 株式会社東京精密 Three-dimensional measuring device, measurement method, and measurement program
JP7008930B2 (en) 2017-03-30 2022-01-25 株式会社東京精密 3D measuring machine, measuring method, and measuring program
JP7227527B2 (en) 2017-03-30 2023-02-22 株式会社東京精密 Coordinate measuring machine, measuring method, and measuring program
DE102023111065A1 (en) 2022-05-12 2023-11-16 Keyence Corporation IMAGE MEASURING DEVICE
DE102023111134A1 (en) 2022-05-12 2023-11-16 Keyence Corporation Image measuring device

Similar Documents

Publication Publication Date Title
US6968080B2 (en) Method and apparatus for generating part programs for use in image-measuring instruments, and image-measuring instrument and method of displaying measured results therefrom
JP5525953B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP5679560B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP6071452B2 (en) System and method for using editing initialization block in part program editing environment of machine vision system
JP3853620B2 (en) Part program generation device and program for image measurement device
JP2000346638A (en) Method for generating measuring procedure file, measuring apparatus and storage medium
WO2003102500A1 (en) Method of obtaining 3-d coordinates
JP5467962B2 (en) Measurement setting data creation device, measurement setting data creation method, program for measurement setting data creation device, and dimension measurement device
JP2004294311A (en) Picture image measuring instrument
JP7221792B2 (en) Measurement program selection aid and measurement controller
JP2012037257A (en) Measurement setting data creation device, measurement setting data creation method, and program for measurement setting data creation device
JP2002350123A (en) Method for supporting measurement, measuring system and measurement support program
JP6979885B2 (en) 3D shape auto trace method and measuring machine
US10753725B2 (en) Measuring apparatus and method for controlling the illumination for a measuring apparatus
JP2978808B2 (en) Image measuring device
JP2004012192A (en) Measuring microscope device, its display method, and its display program
JP2018072270A (en) Image measurement device
JPH11295045A (en) Inspecting apparatus
JPH0821722A (en) Method and equipment for measuring shape
JP2008224497A (en) Measurement position display method and measurement device
JP3183811B2 (en) Inspection support device
JP2937918B2 (en) Image measuring device
JP7383350B2 (en) Teaching program for image measurement equipment
JP3853500B2 (en) Edge detection method and image measuring apparatus
JP2000009459A (en) Image measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080421

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080916