JP3900319B2 - Image measuring apparatus and image display method thereof - Google Patents

Image measuring apparatus and image display method thereof Download PDF

Info

Publication number
JP3900319B2
JP3900319B2 JP24046397A JP24046397A JP3900319B2 JP 3900319 B2 JP3900319 B2 JP 3900319B2 JP 24046397 A JP24046397 A JP 24046397A JP 24046397 A JP24046397 A JP 24046397A JP 3900319 B2 JP3900319 B2 JP 3900319B2
Authority
JP
Japan
Prior art keywords
image
measurement
image data
display
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP24046397A
Other languages
Japanese (ja)
Other versions
JPH1163953A (en
Inventor
治 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP24046397A priority Critical patent/JP3900319B2/en
Publication of JPH1163953A publication Critical patent/JPH1163953A/en
Application granted granted Critical
Publication of JP3900319B2 publication Critical patent/JP3900319B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像計測装置及びその画像表示方法に係り、更に詳しくは、対象物の像を撮像し画像表示装置の表示画面に表示するとともに、撮像して得た2次元の画像データを用いて対象物の形状認識、輪郭検出その他の所定の計測処理を行う画像計測装置、及びこの画像計測装置において画像データが表示画素数を超える場合に対象物の画像の計測指示のため画像を表示画面に表示する画像表示方法に関する。
【0002】
【従来の技術】
従来より工業や医療の分野で用いられる画像計測システムでは、パーソナルコンピュータ(以下、適宜「パソコン」という)に専用の画像計測装置を接続し、この専用の装置に撮像して得た対象物の画像データを取り込んで画像処理及び計測処理を行い、その結果のみをパソコン側に転送して表示することがなされていた。
【0003】
その後のパソコンの性能向上に伴い、近年では、パソコン上に画像データを直接取り込み、パソコン上で画像処理及び計測処理を行うことが可能となり、例えば撮像デバイスに2次元CCDを用いた画像入力装置の場合、画素数600×400即ち240000画素程度の画像データが取り扱われている。現在のパーソナルコンピュータのディスプレイは1024×1280程度の画素まで表示でき、上記画像入力装置で入力された画像データは全領域にわたってディスプレイ上に表示可能である。
【0004】
しかし、より高精度な画像による計測処理を行おうとすると、上記の240000画素程度の画素数の画像データでは必ずしも十分でない場合があることから、より多くの画素数の画像データの取り込みが可能な1次元CCD(即ちラインセンサ)を用いた画像入力装置が最近になって開発され、かかる装置により、画素数6000×6000=36000000程度の非常に大きなデータ量の画像データが扱われるようになった。
【0005】
【発明が解決しようとする課題】
上述したような非常に大きなデータ量の画像データを取り扱う画像計測装置では、画像データの画素数がディスプレイの表示限界を越えているため、計測対象の画像の全領域を一度に表示することができない。かかる場合、従来はその画像の一部分毎に画面を切り換えてディスプレイ上に表示する以外に方法はなく、対象物の全体形状を表示することができなかった。
【0006】
しかるに、計測対象の画像に対する計測指示は、ディスプレイに表示された画像上の所望の位置をマウスで指示することにより行われることから、上述したように、画像のある一部分のみがディスプレイ上に表示される場合には、表示されない残りの部分をマウスで指定することができず、画面を順次切り換えてその計測したい領域部分をディスプレイ上に表示させ計測指示を行う必要があった。このため、計測指示が面倒であるという不都合があった。この場合、画像の各部分と全体との関係を常に考慮することも必須である。
【0007】
本発明は、かかる事情の下になされたもので、その目的は表示装置の表示限界を越えるような大きなデータ量の画像データの場合でも、対象物の画像に対して計測などの指示を容易に行うことができる画像計測装置及びその画像表示方法を提供することにある。
【0008】
【課題を解決するための手段】
本発明は、第1の観点からすると、表示装置(43)の表示画面に表示された画像を用いて所定の計測処理を行う画像計測装置であって、対象物(27)の像を撮像し、表示画面に表示可能な画素数より大きな画素数の第1の画像データ(51B)を取り込む画像取り込み部(25)と;第1の画像データ(51B)が記憶されるメモリ(41D)と;メモリ(41D)内に記憶された第1の画像データ(51B)に対し一定画素数毎に所定の画素数減少処理を施して表示画面に表示可能な画素数の第2の画像データ(51D)を作成する表示データ作成手段(53B)と;表示データ作成手段(53B)で作成された第2の画像データ(51D)による第2の画像を表示画面に表示する表示制御手段(53D)と;表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力するための計測条件入力手段(42a、42b、53F)とを有し、前記第2の画像を表示中に入力された前記計測条件に基づいて、前記メモリに記憶された前記第1の画像データを用いた計測を行う第1の画像計測装置である
【0009】
これによれば、画像取り込み部により対象物の像が撮像され、表示画面に表示可能な画素数より大きな画素数の第1の画像データが取り込まれると、該第1の画像データがメモリに記憶される。次に、表示データ作成手段では、メモリ内に記憶された第1の画像データに対し一定画素数毎に所定の画素数減少処理を施して表示画面に表示可能な画素数の第2の画像データを作成し、この作成された第2の画像データによる第2の画像が表示制御手段によって表示画面に表示される。このため、対象物の全体形状を表示することが可能となる。よって、計測条件入力手段により、表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力することが容易になる。また、第2の画像を表示中に入力された計測条件に基づいて、メモリに記憶された第1の画像データを用いた計測が行われる。これにより、メモリに記憶された、より多くの情報を含む第1の画像データ(生の画像データ)を用いてより高精度な計測処理が迅速に行われることとなる。
【0010】
この場合において、表示画面に表示された第2の画像データによる画像に対して計測すべき領域等の指示が可能になるので、第1の画像データ(生の画像データ)は必ずしも表示画面上に表示する必要はないが、例えば表示制御手段(53D)は、上記計測条件に応じて、第1の画像データ(51B)による第1の画像の一部を、第2の画像と同時又は別々に表示画面上に表示するとともに、計測条件入力手段(42a、42b、53F)は、表示画面に表示された第1の画像に対して計測条件を入力するためにも用いられるようにしても良い。このようにすると、対象物が細かな構造であり、画素数の少ない第2の画像データによる画像では計測位置を正確に指示できない場合にも、表示画面上に表示された第1の画像データによる画像に対して正確な計測位置を指示することが可能になる。
【0014】
本発明は、第2の観点からすると、表示装置(43)の表示画面に表示された画像を用いて所定の計測処理を行う画像計測装置であって、対象物(27)の像を撮像し、表示画面に表示可能な画素数より大きな画素数の第1の画像データ(51B)を取り込む画像取り込み部(25)と;第1の画像データ(51B)が記憶されるメモリ(41D)と;メモリ(41D)内に記憶された第1の画像データ(51B)に対し一定画素数毎に所定の画素数減少処理を施して表示画面に表示可能な画素数の第2の画像データ(51D)を作成する表示データ作成手段(53B)と;表示データ作成手段(53B)で作成された第2の画像データ(51D)による第2の画像を表示画面に表示する表示制御手段(53D)と;表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力するための計測条件入力手段(42a、42b、53F)と;前記計測条件入力手段(42a、42b、53F)により計測すべき形状が指示されると、前記第2の画像データ(51D)を用いて形状抽出のための画像処理を行って該当する形状を抽出し、計測すべき形状に対して予め記憶してある計測方法に従って計測条件を設定する計測制御手段(53H)と;を有する第2の画像計測装置である。
【0015】
これによれば、計測条件入力手段により計測すべき形状を指示するだけで、その形状が自動的に抽出され、その形状の計測条件が自動的に設定される。また、この場合も、データ量の小さな第2の画像データを用いて形状抽出のための画像処理、計測条件の設定を行うことにより、処理速度を速くすることができる
【0016】
本発明は、第3の観点からすると、表示装置(43)の表示画面に表示可能な画素数より大きな画素数の画像を計測指示のために表示する画像計測装置の画像表示方法であって、表示画面に表示可能な画素数より大きな画素数の第1の画像データ(51B)を取り込みメモリ(41D)に記憶する第1工程と;第1の画像データ(51B)の一定画素数の画素毎に所定の画素数減少処理を施して表示画面に表示可能な画素数の第2の画像データ(51D)を作成し、計測指示のため前記第2の画像データによる第2の画像を表示画面に表示する第2工程と;前記第2の画像を表示中に入力された計測条件に基づいて、前記メモリに記憶された前記第1の画像データを用いた計測を行う第3工程と;を含む画像計測装置の画像表示方法である。
【0017】
これによれば、表示画面に表示可能な画素数より大きな画素数の第1の画像データが取り込まれ記憶され、その第1の画像データの一定画素数の画素毎に所定の画素数減少処理が施され、表示画面に表示可能な画素数の第2の画像データが作成され、計測指示のため第2の画像データによる第2の画像が表示画面に表示される。このため、第1の画像データが表示装置の表示限界を越えるような大きなデータ量であってもそのデータに画素数減少処理が施された第2の画像データによる対象物全体の画像を計測指示のため表示画面に表示することが可能になる。従って、表示画面に表示された第2の画像データによる対象物全体の画像に対し計測指示を容易に行うことができる。また、第2の画像を表示中に入力された計測条件に基づいて、メモリに記憶された第1の画像データを用いた計測が行われる。これにより、メモリに記憶された、より多くの情報を含む第1の画像データ(生の画像データ)を用いてより高精度な計測処理が迅速に行われることとなる。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態を図1ないし図7に基づいて説明する。
【0019】
図1には、一実施形態に係る画像計測装置の全体構成が概略的に示されている。この図1の画像計測装置は、撮像ユニット21、光源ユニット21J及びインターフェイスユニット23で構成された画像取り込み部25と、ホストコンピュータ40とを備えている。
【0020】
前記撮像ユニット21は、対象物27(例えば半導体チップや液晶ディスプレイパネルなど)と1次元光電変換素子(ラインセンサ)21Hとを該ラインセンサ21Hを構成する受光素子の配列方向であるX方向(図1における紙面直交方向)に直交するY方向(図1における紙面内左右方向)に相対的に移動させながらラインセンサ21Hにより対象物27の画像を1ラインづつ撮像する構成部分である。この撮像ユニット21は、対象物27を載置してベース21D上をY方向に移動可能なステージ21Bと、このステージ21Bの上方に配置され、ベース21D上に植設された支柱28に保持された光学系ユニット21Cと、この光学系ユニット21Cの上方に固定された保持部材21Eと、この保持部材21Eに保持されるとともに光学系ユニット21C内の対物レンズ21Fの結像面に配置されたラインセンサ21Hとを備えている。このラインセンサ21Hは、6000画素を有し、対象物27の像のうちX方向の1ライン分6000画素の画像信号を単位として出力するようになっている。なお、光学系ユニット21C内には、対物レンズ21Fの他に落射照明用のハーフミラー等が収容されている。
【0021】
前記ステージ21Bは、後述するインターフェイスユニット23内の制御部23Bによって制御される不図示のリニアアクチュエータを含む駆動系を介して、ベース21D上をラインセンサ13の素子配列方向と直交するY方向に一定の速度で移動するようになっており、これにより対象物27とラインセンサ21Hとが、該ラインセンサ21Hの素子配列方向と直交する方向に相対移動するようになっている。このステージ21BのY方向の移動量は、ベース21Dとステージ21Bとの間に設けられたエンコーダ21Lによって計測される。
【0022】
ここで、エンコーダ21Lとしては、通常と同様の所定ピッチの光学格子パターンを有するエンコーダスケールを含む光学式のリニアエンコーダが用いられており、このエンコーダ21Lはステージ21BがY方向に1スケールピッチ移動するごとに位相が360度変化するA相の信号(擬似正弦波)とこれと90度位相がずれたB相の信号(擬似正弦波)を出力し、このA相、B相の位相変化から、ステージ21BのY方向の移動量即ちラインセンサ21Hと対象物27との相対移動の距離を検出する。
【0023】
また、撮像ユニット21では、後述する光源ユニット21J内の不図示の光源からの光によって対象物27が図1の上方から落射照明(又は下方からの透過照明)で照明され、対象物27の像が光学系ユニット21C内の対物レンズ21Fによって結像面に結像され、この像が結像面に配置されたラインセンサ21Hによって撮像される。
【0024】
前記光源ユニット21Jは、光ファイバなどを介して撮像ユニット21に落射又は透過の照明光を出力するものであり、光源を含み光量が調節可能な調光装置とこの調光装置からの光を前記光ファイバに導くための光学系とを有する。また、落射照明、透過照明の選択及びこれらの光の光量の調整は後述するインターフェイスユニット23内部の制御部23Bによって制御されるようになっている。
【0025】
インターフェイスユニット23は、制御部23B、撮像同期回路23D、及びラインセンサの撮像制御部23Fを含んで構成されている。
【0026】
制御部23Bは、ホストコンピュータ40からの制御信号を受けてステージ21Bのリニアアクチュエータを制御してステージ21Bを一定速度で移動させたり、落射照明、透過照明を選択したり、光源ユニット21Jから出力される光の光量を制御するための構成部分であり、マイクロプロセッサとそのファームウェアで構成される。
【0027】
撮像同期回路23Dは、エンコーダ21Lの検出出力であるA相、B相の2相の擬似正弦波が所定の位相角になったときに撮像同期信号を撮像制御部23Fに出力する回路である。
【0028】
撮像制御部23Fは、撮像同期回路23Dから撮像同期信号を受けてラインセンサ21Hに所定の撮像制御信号を送ってその撮像タイミングを制御すると共に、ラインセンサ21Hからの画像信号をA/D変換して画像データ信号をホストコンピュータ40に出力する回路である。また、この撮像制御部23Fは、ホストコンピュータ40からの制御信号に基づきラインセンサ21Hの撮像可能状態、撮像停止状態などの制御をも行うようになっている。
【0029】
上記のようにして構成された画像取り込み部25によると、対象物27とラインセンサ21Hとの相対移動が所定距離進むごとに撮像同期回路23Dから撮像同期信号が出力され、撮像制御部23Fの制御によりラインセンサ21Hで対象物27の画像を1ラインづつ撮像する。この1ライン分の画像信号は撮像制御部23FでA/D変換され画像データとしてホストコンピュータ40に送出される。ステージ21Bを移動させ、対象物27の像の1ライン分を順次撮像していくことによって、対象物27の2次元の画像を撮像しその2次元の画像の画像データ(第1の画像データ)が得られる。ここでは、1画素に1バイト(白黒256階調)、6000ラインで対象物27の2次元の画像が構成される。このようにして、画像取り込部25により6000×6000という大きな画素数をもつ第1の画像データが取り込まれ、後述するホストコンピュータ40のメモリに記憶される。
【0030】
前記ホストコンピュータ(以下、適宜「コンピュータ」という)40は、本実施形態では、所定のオペレーティングシステム(例えば、Windows 95)で動作するパーソナルコンピュータを用いて構成され、コンピュータ本体41に入力デバイスであるキーボード42a,マウス42bと表示装置としてのディスプレイ43とを接続した構成になっている。コンピュータ本体41は、マイクロプロセッサ41B、メモリ41D、PCIバス41Fを有し、PCIバス41Fを介してキーボード42a,マウス42bを接続するためのキーボードインターフェイス(キーボードコントローラ)41H、ディスプレイ43を接続するためのビデオインターフェイス41J、シリアルインターフェイス41L、ハードディスク41P、画像入力ボード41Rが接続されている。この他、このコンピュータ40には、デジタルシグナルプロセッサボード41Tも必要に応じて接続可能であり、マイクロプロセッサ41Bで行う画像処理の一部をこのボード41Tでもできるようになっている。
【0031】
画像入力ボード41Rのシリアルインターフェイス(RS422)には、インターフェイスユニット23の撮像制御部23Fが接続され、ホストコンピュータ40でラインセンサ21Hの撮像可能状態、撮像停止状態などのコントロールを行うとともに、撮像制御部23FでA/D変換して得た第1の画像データを画像入力ボード41Rのバッファメモリ(2MB×2)に一旦貯えてメモリ41Dに転送する(これについては更に後述する)。
【0032】
本実施形態では、ハードディスク41Pに格納された制御プログラムをメモリ41Dにロードしてプログラムを起動させることによって、シリアルインターフェイス(RS232C)を介してインターフェイスユニット23の制御部23Bに制御信号を送ってステージ21Bのリニアアクチュエータの制御、光学系の倍率制御、光量制御等ができるようになっており、また、これらの設定はハードディスク41Pに記憶できるようになっている。また、ハードディスク41Pには、エッジ(輪郭)検出、ピッチ計測など計測対象物の画像データに対して様々な画像処理・計測処理を行うための様々なプログラム、その他の制御プログラムが格納され、これらをメモリ41Dにロードしてプログラムを起動させることによって画像処理・計測処理が行えるようになっている。
【0033】
メモリ41Dは、第1の画像データ51B(データ量36MB)だけでなく第2の画像データ51Dや制御プログラム、画像処理・計測処理を行うプログラム等を格納するため、十分の大きな容量を持たせてある。上記の画像処理・計測処理を行うプログラムには、具体的には、アライメント設定/補正プログラム53A、表示データ作成のためのプログラム53B、表示制御のためのプログラム53D、計測条件入力のためのプログラム53F、計測制御のためのプログラム53H等が含まれる。上記各プログラムは、それぞれを一つの実行モジュール(あるいは実行ファイル)で構成することが勿論できるが、任意の複数を一つの実行モジュールで構成したり、全てを単一の実行モジュールで構成することも可能である。どのような構成にするかは、オペレーティングシステム、開発言語等に基づいて決定すれば良い。
【0034】
アライメント設定/補正プログラム53Aは、後述するように対象物の設置位置のずれを補正するためのプログラムである。
【0035】
表示データ作成のためのプログラム53Bは、メモリ41D内に記憶された第1の画像データ51Bに対し一定画素数の画素毎に所定の画素数減少処理を施してディスプレイ43の表示画面に表示可能な画素数の第2の画像データ51Dを作成しメモリ41Dに記憶するためのプログラムであり、これによって表示データ作成手段が実現されている。ここでは、ディスプレイ43に、VGA(640×480)、SVGA(1024×768)、XGA(1280×1024)の表示ができるマルチスキャンディスプレイが用いられている。前記表示データ作成のためのプログラム53Bは、デフォルトでは、6000×6000画素の第1の画像データ51Bに10×10画素(即ち100画素)毎に、所定の画素数減少処理、例えば間引き処理、あるいは上記100画素の階調の平均化処理等を施してディスプレイ43の表示画面に表示可能な600×600画素の第2の画像データ51D(360KB)を作成するようになっているが、この設定はディスプレイ43の表示モードに応じて変更できるようになっている。
【0036】
表示制御のためのプログラム53Dは、ビデオインターフェイス41Jにメモリ41D上の画像データを転送するとともにビデオインターフェイス41Jに制御コマンドを送って、画素数減少処理後の第2の画像データ51Dによる画像をディスプレイ43の表示画面の所定の領域に表示し、また、第1の画像データ51Bの一部による画像を、第2の画像データ51Dによる画像と同時又は別々に表示画面上の所定の領域に表示するためのプログラムであり、これによって表示制御手段が構成されている。
【0037】
計測条件入力のためのプログラム53Fは、ディスプレイ43の表示画面上に計測条件のメニュー(タスクバーやツールバー、ツールボックスなどで表示される)及びメモリ41D内の画像データの画像が表示された状態において、マウス42b(又はキーボード42a)の操作によりマウスカーソル(又はグラフィックカーソル、カーソル)の位置を検出することによって、計測条件やディスプレイ43の表示画面に表示された画像上の位置及び領域などを入力するためのプログラムである。本実施形態では、上記のマウス42b(及びキーボード42a)及び計測条件入力のためのプログラム53Fによって、ディスプレイ43の表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力するための計測条件入力手段が実現され、この計測条件入力手段はディスプレイ43の表示画面に表示された第1の画像データ51Bによる画像に対して計測すべき領域の指示を含む計測条件を入力をするためにも用いられる。
【0038】
計測制御のためのプログラム53Hは、上記計測条件入力手段により計測条件を入力した後、該計測条件により指示された領域について入力された計測条件に応じた計測処理を行うためのプログラムであり、計測処理の内容としては、エッジ検出(輪郭検出)、形状認識、長さ計測、面積計測、誤差検出などがある。表示された画像が第1の画像データの一部によるものである場合は勿論、第2の画像データによるものである場合にも、計測条件の入力に応じその計測条件で指示された領域の第1の画像データを用いて計測処理が行われる。これによって、計測条件に応じた計測処理を計測条件で指示された領域の第1の画像データ51Bを用いて行う計測制御手段が実現される。なお、この計測制御のためのプログラム53Hでは第2の画像データ51Dに基づいて対象物27の概略形状を認識後、計測条件に応じた計測処理を計測条件で指示された領域の第1の画像データ51Bを用いて行うことができるようになっている。
【0039】
次に、上述のようにして構成された本実施形態に係る画像計測装置の全体的な動作について説明する。
【0040】
まず、対象物27をステージ21Bの上に載置して、コンピュータ40の入力デバイスを操作し、対象物27の撮像を開始する。このとき、コンピュータ40からの制御信号により、ラインセンサ21Hは撮像可能状態になり、ステージ21Bが一定速度で移動する。撮像範囲内でラインセンサ21Hの撮像位置が移動し、その移動の所定距離間隔毎にラインセンサ21Hで対象物27の1ライン分の像の撮像が行われる。1ライン分の画像信号は撮像制御部23FでA/D変換され画像データとしてホストコンピュータ40に出力され、コンピュータ本体41のメモリに記憶される。ラインセンサ21Hの位置が開始時とは反対側の端になると対象物27の走査撮像が完了し、対象物21の2次元画像に対応する第1の画像データ51Dが、コンピュータ本体41のメモリ41Dに記憶される。
【0041】
図2には、ラインセンサ21Hで対象物27の像を読み取って得た第1の画像データ51Bが画像入力ボード41Rを経て、コンピュータ40のメモリ41Dへ格納されるまでの状態が示されている。画像入力ボード41Rには2メガバイトのバッファメモリ41Sが2個、合計4メガ用意され、ラインセンサ21Hで撮像して得た1ライン分の画像データ51Bはバッファメモリ41Sの一方(例えばバッファメモリ(1))に記憶される。この一方のバッファメモリ41Sが第1の画像データの2メガバイト分でいっぱいになると、画像データ51Bはバッファメモリ41Sの他方(例えばバッファメモリ(2))に記憶される。いっぱいになった一方のバッファメモリ41Sの画像データ51Bは、PCIバス41F経由でメモリ41Dにブロック転送される。このとき転送速度は30MHz以上で行われ、この速度を確保するために、マイクロプロセッサ41Bは、転送以外の他のジョブを行わないようになっている。
【0042】
この高速の転送速度により、ラインセンサ21Hで撮像して得た1ライン分の画像データ51Bを記憶する他方のバッファメモリがいっぱいになる前に、メモリ41Dへの転送を終了する。そして、いっぱいになると、画像データ51Bを記憶するバッファメモリを切り替える。このバッファメモリの切り替えの繰り返し即ちバッファメモリ41Sのインターリーブによって、ラインセンサ21で撮像して得た36メガバイトの画像データ51Bを転送し終える。これによって、ラインセンサ21Hによる対象物27の像の読み取りとほぼ同時にメモリ41Dへの転送も行われ、対象物27の像の読み取り終了に要する時間(約2.5秒)でメモリ41Dへの転送も終える。
【0043】
そして、画像データ51Bのメモリ41Dへの転送を終了すると、表示データ作成のためのプログラム53Bによって、メモリ41D内に記憶された6000×6000画素の第1の画像データ51Bに対し前述した画素数減少処理を施してディスプレイ43に表示可能な第2の画像データ51Dを作成してメモリ41D内に記憶し、表示制御のためのプログラム53Dで、ビデオインターフェイス41Jにメモリ41D上の第2の画像データ51Dを転送して第2の画像データ51Dによる画像をディスプレイ43の表示画面の所定の領域(ウインドウ)に表示する。
【0044】
そして、第2の画像データ51Dによる対象物の全体画像を見ながら、対象物の画像の計測すべき箇所を略指示できるようになっている。計測条件のメニューに応じて、指示された位置を生画像である第1の画像データ51Bにおける計測場所に置き換えて、この第1の画像データ51Bで画像処理や計測処理が行われる。
【0045】
また、対象物27が細かな構造であり、画素数の少ない第2の画像では計測位置が正確に指示できない場合には、前記第2の画像の計測したい場所近傍をマウス42bで指示することにより、表示制御のためのプログラム53Dによって、指示された場所近傍の部分に該当する対象物27の第1の画像データによる第1の画像が拡大されて所定の領域(ウィンドウ)43Aに表示される。この場合、場所を複数指示すれば、それぞれの指示された場所についてその場所近傍の対象物27の前記第1の画像が拡大されてそれぞれ別のウィンドウに表示される。このため、マウス42b、キーボード42a及び計測条件入力のためのプログラム53Fにより、表示画面に表示された画像上の位置(又は領域)の指示、計測内容等の計測条件の入力・指示はそれぞれのウィンドウ43A等に拡大表示された対象物27の像に対して行えるようになっている。そして、入力された計測条件に応じて、計測制御のためのプログラム53Hによって、そのウィンドウに表示が行われている画像に対応する第1の画像データを用いて入力された計測条件及び指示された領域に応じた計測処理が行われる。
【0046】
このように、本実施形態では、ディスプレイ43の表示画面に表示可能な画素数より大きな画素数の画像を取扱う場合に、表示画面に表示可能な画素数より大きな画素数の第1の画像データ51Bを取り込み記憶し、この第1の画像データ51Dの一定画素数の画素毎に所定の画素数減少処理を施して表示画面に表示可能な画素数の第2の画像データ51Dを作成し、計測指示のため表示画面に表示する、という画像表示方法をとっている。そのため、第2の画像データ51Dにより対象物27の画像全体が表示画面に表示可能になり、対象物27の像全体が把握し易くなる。
【0047】
また、表示画面に表示された対象物27の全体の画像に対し、コンピュータ40の入力デバイス(マウス42b)を操作することにより計測すべき領域の指示を含む計測条件の入力を計測条件入力のためのプログラム53Fによって容易に行うことが可能になっている。
【0048】
更に、取り扱うデータ量が小さくなるので動作が非常に速くなる。例えば、6000×60000=36000000(36MB)の生画像の第1の画像データに対して、画素数減少処理を行い600×600=360000(360KB)の第2の画像データを作成すると、取り扱いデータ量は1/100に縮小し、処理時間は数百分の1となる。
【0049】
ところで、計測すべき同一形状の対象物が複数あり同じ計測を繰り返し行う場合、操作性及び計測効率の向上のためには、最初の対象物の撮像を行った後、この最初の対象物についてティーチングデータ(測定手順ファイル)を作成し、そのティーチングデータを2番目以降の対象物の計測の際に用いてエッジ検出等の計測処理を行うことが望ましい。
【0050】
図3には、最初の対象物27についてティーチングデータの作成及びエッジ検出を行う場合の概略の流れが示されている。以下、図3を用いてティーチングデータの作成等について簡単に説明する。
【0051】
まず、上述したようにして対象物27の6000×6000画素の像43Bが第1の画像データ51Bとして取り込まれると、表示データ作成のためのプログラム53Bによって、36000000(6000×6000)画素の第1の画像データ51Bに間引き(抜き取り)などの画素数減少処理が施され、360000(600×600)画素の画像43Dの第2の画像データ51Dが作成され、前記画像43Dがディスプレイ43の表示画面上に表示される。
【0052】
そこで、まず、ティーチングデータの作成に先立って対象物の基準設置位置を設定するために対象物の所定の箇所を計測する。これをアライメントという。
【0053】
これを更に詳述すると、オペレータが、コンピュータ40の入力デバイスを操作しアライメント設定/補正のプログラム53Aを介してアライメント設定を入力すると、マイクロプロセッサ41Bによって計測条件入力のためのプログラム53Fが起動される。
【0054】
画面上に表示された第2の画像データによる第2の画像43Dを見ながらコンピュータ40のマウス42bを操作して、表示画面との対話形式で前記所定の箇所を計測するための計測条件を入力する。次いで、計測制御のためのプログラム53Hが起動されて前述の如く、第1の画像データを用いて所定箇所の座標値を含む計測結果が求められる。そして、この計測結果に基づいて対象物27上に設定したワーク座標系の情報をアライメントデータとして記憶する。
【0055】
次に、再びプログラム53Fを起動して対象物の本来の計測箇所に対して前記と同様にして計測条件の入力を行う。この計測条件の入力終了によって、その時のステージ21Bの座標、画面上に表示されるキャリパ(エッジ検出の中心位置、そのエッジの法線方向、その位置近傍のエッジ検出の対象となる範囲を示すマーク)の設定情報(エッジ検出の初期設定)と、対物レンズ21Fの倍率、照明条件(照明方法、明るさなど)等の対象物27の撮像を行ったときのデータとがティーチングデータとして構成され、測定手順ファイル51Fとしてハードディスク41Pに保存される。この時、位置に関するデータはワーク座標系の値として保存される。以上の作業をティーチングという。
【0056】
ここで、ステージ21Bは、ステージ上に複数の対象物が設置されている場合や、対象物が極めて大きく、一画像内に収める事が困難である場合に、所定の対象物又は対象物の所定の箇所を画像内に収めるために移動させる。この移動した位置が座標系として保存される。
【0057】
そして、次に、マイクロプロセッサ41Bにより計測制御のためのプログラム53Hが起動される。このプログラム53Hによって、測定手順ファイル51Fに記録された前記諸条件に従って第1の画像データを用いてエッジ検出が行われ、対象物の輪郭が検出される。この結果は、ディスプレイ43の画面の所定の領域に表示される。そして、この画面上に表示された結果に修正すべき点がなければ、操作を終了し、修正すべき点があれば、再ティーチングの入力をして計測条件入力のためのプログラム53Fでの操作に戻り、計測条件を再度入力して上述した操作を繰り返す。保存されたティーチングデータは、再測定時のデータに更新される。
【0058】
ステージ21Bを移動させることが必要な場合は、ステージ21Bを移動させ、その時の第2の画像に対して計測条件の入力を行う。
【0059】
上記のように、対象物の基準設置位置を設定するための計測箇所の指示のための表示も、データ量の小さな第2の画像データ51Dを用いて処理が行われるので、処理速度が速くなる。
【0060】
図4には、2番目以降の対象物に対する計測処理(エッジ検出)が行われる場合の流れが概略的に示されている。以下、この図4を用いて2番目以降の対象物に対する計測処理の一例について説明する。
【0061】
オペレータがホストコンピュータ40の入力デバイスを操作しアライメント補正の指令を入力すると、まず、測定手順ファイル51Fが読み込まれ、これに記録された測定手順に従って対物レンズ21Fの倍率、ステージ21Bの位置決めが自動的に行われた後に、2番目の対象物(以下、便宜上「対象物27’」と言う)の6000×6000画素の像43B’が第1の画像データ(以下、便宜上「第1の画像データ51B’」と言う)として取り込まれる。次いで、表示データ作成のためのプログラム53Bによって、36000000(6000×6000)画素の第1の画像データ51B’に間引きなどの画素数減少処理が施され、360000(600×600)画素の画像43D’の第2の画像データ(以下、便宜上「第2の画像データ51D’」言う)が作成され、画像43D’がディスプレイ43の表示画面上に表示される。
【0062】
次いで、マイクロプロセッサ41Bによって計測条件入力のためのプログラム53Fが起動され、それによってオペレータが、画面上に表示された第2の画像データ51D’による第2の画像43D’を見ながらコンピュータ40のマウス42bを操作して前記ティーチング時にアライメント設定のために計測した対象物の所定の箇所に対する計測位置の指示等の計測条件入力を行う。
【0063】
この計測条件の入力が終わると、マイクロプロセッサ41Bにより計測制御のためのプログラム53Hが起動され、前記入力された計測条件に従って、前記所定箇所の第1の画像データを用いて前記所定の箇所が計測される。そして、この計測結果に基づいて前記アライメント設定時と同様のワーク座標系が求められる。前記アライメント設定時に設定したワーク座標系と、ここで求めたワーク座標系とのズレ量が、対象物の基準設置位置に対する2番目の対象物の設置位置のズレ量に相当する。
【0064】
次いで、プログラム53Hにより上記のアライメント補正結果に基づいて先に作成した測定手順ファイル51Fを補正(より具体的には、上記で求めた2つのワーク座標系のズレ量に従い測定手順ファイル51F内の第2の画像データ51Dの座標に平行移動、回転を与える)した測定手順ファイル51F’が作成されハードディスク41Pに保存される。
【0065】
次いで、プログラム53Hにより測定手順ファイル51F’に記録された補正された測定手順に従ってエッジ検出の開始の設定に基づきキャリパの位置、方向が補正され、第1の画像データを用いてエッジ検出が行われ、2番目の対象物27’の輪郭が検出される。この結果は、ディスプレイ43の画面の所定の領域に表示される。
【0066】
上記の図4では、アライメント補正を撮像後にマウス42bを用いて行う場合について説明したが、前記アライメント設定時の計測条件を測定手順ファイル51Fの一部として保存すると共に、ステージ21B上の決められた位置に対象物を置くための位置当て治具を使用することで対象物の位置ずれを小さく抑え、アライメント補正の計測を自動的に行う処理を選択することも可能である。図5には、その場合の処理の流れが概念的に示されている。
【0067】
この図5の場合、まず、ステージ21B上に2番目の対象物27’を載せる際に、位置当て治具を用いて、その位置が最初の対象物27とほぼ同じ位置になるようにする。
【0068】
オペレータによりコンピュータ40に計測開始が指令されると、予め作成した測定手順ファイル51Fが読み込まれ、測定手順の内容に従った投影レンズ21Fの倍率やステージ21Bの位置決めの設定が自動的に行われた後に、2番目の対象物27’の6000×6000画素の像43B’が第1の画像データ51B’として取り込まれる。そして、表示データ作成のためのプログラム53Bによって、36000000(6000×6000)画素の第1の画像データ51B’に間引き等の画素数減少処理が施され360000(600×600)画素の第2の画像データ51D’が作成され、これに対応する画像43D’がディスプレイ43の表示画面上に表示される。
【0069】
次いで、アライメント補正が行われる。この場合、予め測定手順ファイルに記憶されているアライメントの為の計測位置(図5中の点線44参照)の指示、その他の計測条件が入力されるので、マウス等による入力は不要である。
【0070】
従って、画像43D’がディスプレイ43の表示画面上に表示された後、マイクロプロセッサ41Bにより計測制御のためのプログラム53Hが起動される。このプログラム53Hによって、前記測定手順ファイル51Fから読み込んだ計測条件による計測がなされる。これ以降は、図4の場合と同様である。
【0071】
さらに、対象物の画像中の図形(又はパターン)と同じパターンを予めメモリ41D内に記憶し、このパターンによる検索を行うことでアライメント補正を自動的に行うように測定条件を設定することも可能である。図6には、その設定の場合の処理の流れが概念的に示されている。
【0072】
この場合はティーチングデータの作成において、対象物27の36000000(6000×6000)画素の像43Bを取り込んだ第1の画像データ51Bから表示データ作成のためのプログラム53Bによって、間引きなどの画素数減少処理が施され、360000(600×600)画素の画像43Dの第2の画像データ51Dが作成され、前記画像43Dがディスプレイ43の表示画面上に表示される。
【0073】
そこで、表示された画像43Dを見ながらコンピュータ40のマウス42bを操作して、対象物の基準設置位置を設定するために対象物の所定の範囲を指定する。前記所定の範囲は必要に応じて複数箇所としても良い。この指定された範囲に該当する第2の画像データがパターン比較用画像データ43Hとして測定手順ファイル51Fの一部としてメモリ41Dに記憶される。図6では、前記所定の範囲として対象物27の全体を含む一つの範囲が指定されている。
【0074】
前記第2の画像データは、所定の箇所の外形を示したCADデータ等とすることもできる。
【0075】
次に、ステージ21Bに2番目の対象物27’を載せる。上述したように測定手順ファイル51Fを読み込んで測定手順の内容にしたがった設定が自動的に行われた後に、2番目の対象物27’の6000×6000画素の画像43B’が第1の画像データ51B’として取り込まれる。そして、表示データ作成のためのプログラム53Bによって、36000000(6000×6000)画素の第1の画像データ51B’に間引きなどの画素数減少処理が施され、360000(600×600)画素の第2の画像データ51D’が作成され、これに対応する画像43D’がディスプレイ43の表示画面上に表示される。
【0076】
次いで、アライメント補正の設定に基づき、計測制御のためのプログラム53Hによって、所定のパターン比較用の画像データ43Hと2番目の対象物27’の第2の画像データ51D’とが比較され、パターンマッチング処理が行われ、パターンが一致するときの平行移動量、回転角度が求められる。これが前記ワーク座標系のズレ量に該当する。次いで、計測制御のためのプログラム53Hによって、上記ズレ量(平行移動量、回転角度)を用いて予め作成した測定手順ファイル51Fを補正をした測定手順ファイル51F’が作成されハードディスク41Pに保存される。
【0077】
その後、プログラム53Hによって補正された測定手順ファイル51F’の測定手順に従ってエッジ検出の開始の設定によりキャリパの位置を補正して第1の画像データを用いてエッジ検出が行われ、2番目の対象物27’の輪郭が検出される。この結果は、ディスプレイ43の画面の所定の領域に表示される。
【0078】
なお、パターンマッチングによるアライメント補正を行った後に、更に図3、図4で説明したようなアライメント補正を行うようにしても良い。2番目以降の対象物の設置位置・姿勢が、基準設置位置から大きく異なっていても正確なアライメント補正をすることができる。
【0079】
この他、データ量の少ない第2の画像データを使い、ラベリング等の画像処理を行い、概略の図形を認識するという処理を選択することも可能である。
【0080】
第2の画像データによる画像が表示されているときに、マウス42bを操作して計測条件入力のためのプログラム53Fを用いて、計測すべき幾何形状の指示を入力すると、計測制御のためのプログラム53Hによって第2の画像データを用いてラベリング(画像中の閉ループ、例えば矩形、円等を構成する画素を検出し、その各画素の画像データに別々の識別符号を割り当てる)などの計測処理によって形状抽出が行われ、入力された計測条件に応じて前記画素に対応する第1の画像データを用いてその形状の寸法や位置・姿勢の計測が行われる。
【0081】
例えば、計測すべき幾何形状として「円」を指示し、この形状の計測を行う場合、第2の画像データ51Dを用いてラベリングされた閉ループの周長や面積等が計算される。そして、求めた周長や面積から各閉ループの真円度を求め、求めた真円度が所定値以下の閉ループを選択することにより、円を画像から抽出することができる。この時、円の直径も求めることができるので、計測すべき幾何形状の指示に直径の範囲を含めることによって所定の直径範囲の円のみを抽出することもできる。そして、抽出された閉ループ(円)の識別符号とその識別符号が付された各画素の座標を参照しながら第1の画像データを用いて以下のような計測処理を行うことによって精度の高い計測結果が得られる。
【0082】
図7には、第2の画像データ51Dによる画像(a)と第1の画像データ51Bによる画像(b)の一例が示されている。
【0083】
第2の画像データ51Dによる画像に対してマウス42bにより「円」の形状を指示し、この指示内容をラベリング及び計測条件として計測条件入力のためのプログラム53Fを介して入力したとき、計測制御のためのプログラム53Hにより、画素数の少ない第2の画像データを用いて図7(a)のような10個の円が抽出され、各円を構成する画素に例えば1、2、……、10の識別符号が付される。なお、図7(a)においては便宜上それぞれの円を構成する各画素に付される識別符号がそれぞれの円に付随して示されている。
【0084】
そして、その円の位置及び大きさを参照して予め定めた計測方法に従い、前記円を計測するためのキャリパの位置を算出する。そして、表示制御のためのプログラム53Dを介して画素数の多い第1の画像データによる画像と共に前記キャリパ(同図(b)の矢印参照)をディスプレイ43の表示画面上に表示する。この場合、特定の円の識別符号例えば6を入力すると、この識別符号に該当する円のみにキャリパが設定されるようにしても良い。
【0085】
このような場合にも、本実施形態では、画素数を減らした第2の画像データを用いてラベリング、キャリパ設定位置の計算を行うことにより、処理速度を速くすることができる。そして、第1の画像データを用いて第1の画像の前記キャリパ位置におけるエッジ座標を検出し、さらに該検出した座標によって円の直径、中心座標を求める。このように、計測場所の略指示といった精度が要求されない場合は、第2の画像データを使うとともに画素数の大きな第1の画像データを使って高精度で計測することで効率的で迅速な処理を行っている。
【0086】
また、ラベリングにより略形状を迅速に認識して得た図形の位置・形状を用いることにより、形状のモーメントや重心、周長、面積等が迅速に求まる。そのため、回転を含んだパターンマッチング、パターンサーチ、輪郭形状の誤差評価におけるベストフィット処理等にも、計測の目安として利用できる。
【0087】
なお、上記実施形態では、計測条件入力ためマウスを用いる場合について説明したが、キーボードでも良く、トラックボール、ライトペンといった様々なポインティングデバイスを用いても良いことは勿論である。
【0088】
また、上記実施形態では、大きな画素数の撮像・画像の取り込みの例として、ラインセンサを用いる場合について説明したが、これに限らず、ハイビジョン用など画素数の多い2次元CCDを用いるようにしても良い。
【0089】
さらに、上記実施形態ではステージ21Bの移動によりラインセンサ21Hと対象物27の相対移動を行う場合について説明したが、これに限らず、ステージ21Bに代えて対象物を載置するための固定のステージを設け、ラインセンサの方を移動可能に構成してラインセンサと対象物の相対移動を行うようにしても良く、あるいはステージとラインセンサの双方を移動させるようにしても良い。また、上記実施形態のように、対象物とラインセンサとを直線的に相対移動させる場合に限らず、いずれか一方を回転させることにより相対移動を実現しても良い。かかる場合には、エンコーダをロータリーエンコーダとし、その角度を計測することによって位置を計測する必要がある。
【0090】
また、上記実施形態では、画素数減少処理は、ソフトウェアによる場合を説明したが、これに限らずデジタルシグナルプロセッサ41Tやその他ほかのハードウェアを用いて第2の画像データを作成するようにしてもよい。また、第1の画像データを画像入力ボード41Rからメモリ41Dへ転送するのに並行して第2の画像データを作成するようにしても良い。
【0091】
【発明の効果】
以上説明したように、本発明の第1の画像計測装置によれば、表示データ作成手段によりメモリ内に記憶された第1の画像データに一定画素数毎に所定の画素数減少処理を施して表示画面に表示可能な画素数の第2の画像データが作成され、この作成された第2の画像データによる画像が表示制御手段によって表示画面に表示されることから、計測条件入力手段により、表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力することが容易になる。従って、表示装置の表示分解能を越えるような大きなデータ量の画像データを取り扱う場合でも、対象物の画像に対する計測などの指示を容易行うことができるという従来にない優れた効果がある。
【0095】
また、本発明の第2の画像計測装置によれば、計測条件入力手段により計測すべき形状を指示するだけで、その形状を自動的に抽出し、その形状の計測条件を自動的に設定することができるという効果ある。
【0096】
本発明の画像計測装置の画像計測方法によれば、表示画面に表示された対象物全体の画像に対して計測すべき領域の指示が容易になるという優れた効果がある。
【図面の簡単な説明】
【図1】一実施形態に係る画像計測装置の全体構成を概略的に示す図である。
【図2】ラインセンサで対象物の像を読み取って得た第1のデータが画像入力ボードを経て、コンピュータのメモリ41へ格納されるまでの様子を示す図である。
【図3】最初の対象物に対するティーチングデータの作成とエッジ検出処理を行う際の流れを概略的に示す図である。
【図4】2番目以降の対象物に対する計測処理の流れを概略的に示す図である。
【図5】位置当て治具を使用し位置合わせを自動的に行う処理を選択した場合の処理の流れを概略的に示す図である。
【図6】パターンマッチングにより位置合わせを自動的に行うようにした場合の処理の流れを概略的に示す図である。
【図7】第2の画像データによる画像(a)と第1の画像データによる画像(b)との一例を示す図である。
【符号の説明】
25 画像取り込み部
27 対象物
41D メモリ
42a キーボード(計測条件入力手段の一部)
42b マウス(計測条件入力手段の一部)
43 ディスプレイ(表示装置)
51B 第1の画像データ
51D 第2の画像データ
53B 表示データ作成のためのプログラム(表示データ作成手段)
53D 表示制御のためのプログラム(表示制御手段)
53F 計測条件入力のためのプログラム(計測条件入力手段の一部)
53H 計測制御のためのプログラム(計測制御手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image measuring apparatus and an image display method thereof, and more specifically, an image of an object is captured and displayed on a display screen of the image display apparatus, and two-dimensional image data obtained by imaging is used. An image measuring apparatus that performs object shape recognition, contour detection, and other predetermined measurement processes, and an image is displayed on the display screen for instructing measurement of the image of the object when the image data exceeds the number of display pixels in the image measuring apparatus. The present invention relates to an image display method to be displayed.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in an image measurement system used in the industrial and medical fields, a dedicated image measurement device is connected to a personal computer (hereinafter referred to as “PC” as appropriate), and an image of an object obtained by imaging on this dedicated device. Data was captured, image processing and measurement processing were performed, and only the results were transferred to the personal computer for display.
[0003]
In recent years, with the improvement of the performance of personal computers, it has become possible to directly capture image data on a personal computer and perform image processing and measurement processing on the personal computer. For example, an image input device using a two-dimensional CCD as an imaging device can be used. In this case, image data of 600 × 400 pixels, that is, about 240000 pixels is handled. A display of a current personal computer can display up to about 1024 × 1280 pixels, and image data input by the image input device can be displayed on the display over the entire area.
[0004]
However, if measurement processing with a higher-accuracy image is to be performed, the image data having the number of pixels of about 240000 pixels may not always be sufficient, so that it is possible to capture image data having a larger number of pixels. Recently, an image input device using a two-dimensional CCD (that is, a line sensor) has been developed, and such a device can handle image data with a very large data amount of about 6000 × 6000 = 36000000 pixels.
[0005]
[Problems to be solved by the invention]
In an image measuring apparatus that handles image data with a very large amount of data as described above, the number of pixels of the image data exceeds the display limit of the display, so that the entire area of the image to be measured cannot be displayed at once. . In such a case, conventionally, there is no method other than switching the screen for each part of the image and displaying it on the display, and the entire shape of the object cannot be displayed.
[0006]
However, since a measurement instruction for an image to be measured is performed by designating a desired position on the image displayed on the display with the mouse, only a part of the image is displayed on the display as described above. In this case, the remaining portion that is not displayed cannot be designated with the mouse, and it is necessary to switch the screen sequentially to display the region portion to be measured on the display and to give a measurement instruction. For this reason, there is a disadvantage that the measurement instruction is troublesome. In this case, it is also essential to always consider the relationship between each part of the image and the whole.
[0007]
The present invention has been made under such circumstances, and its purpose is to easily give instructions such as measurement to an image of an object even in the case of image data having a large amount of data exceeding the display limit of a display device. An object of the present invention is to provide an image measurement apparatus and an image display method thereof that can be performed.
[0008]
[Means for Solving the Problems]
  From a first viewpoint, the present invention provides:An image measurement device that performs a predetermined measurement process using an image displayed on the display screen of the display device (43), and captures an image of the object (27) and is larger than the number of pixels that can be displayed on the display screen. An image capturing unit (25) that captures the first image data (51B) of the number of pixels; a memory (41D) in which the first image data (51B) is stored; and a first stored in the memory (41D) Display data generating means (53B) for generating a second image data (51D) having a number of pixels that can be displayed on the display screen by subjecting the image data (51B) to a predetermined number of pixels for every predetermined number of pixels. Display control means (53D) for displaying the second image based on the second image data (51D) created by the display data creation means (53B) on the display screen; at least for the image displayed on the display screen; Area to measure Measurement condition input means for inputting measurement conditions including the indication (42a, 42b, 53F) and;HaveAnd a first image measurement device that performs measurement using the first image data stored in the memory, based on the measurement condition input during display of the second image..
[0009]
  According to this, when an image of the object is captured by the image capturing unit and the first image data having a number of pixels larger than the number of pixels that can be displayed on the display screen is captured, the first image data is stored in the memory. Is done. Next, in the display data creation means, the second image data having the number of pixels that can be displayed on the display screen by subjecting the first image data stored in the memory to a predetermined pixel number reduction process for each predetermined number of pixels. And a second image based on the created second image data is displayed on the display screen by the display control means. For this reason, it becomes possible to display the whole shape of a target object. Therefore, it becomes easy to input measurement conditions including at least an instruction of a region to be measured for the image displayed on the display screen by the measurement condition input means.Further, measurement using the first image data stored in the memory is performed based on the measurement condition input while displaying the second image. As a result, more accurate measurement processing is quickly performed using the first image data (raw image data) including more information stored in the memory.
[0010]
  In this case, since it is possible to instruct an area to be measured with respect to the image based on the second image data displayed on the display screen, the first image data (raw image data) is not necessarily displayed on the display screen. There is no need to display it,For exampleThe display control means (53D) displays a part of the first image based on the first image data (51B) on the display screen simultaneously or separately with the second image according to the measurement condition, The measurement condition input means (42a, 42b, 53F) may be used to input measurement conditions for the first image displayed on the display screen. In this way, even when the object has a fine structure and the image based on the second image data having a small number of pixels cannot accurately indicate the measurement position, the object is based on the first image data displayed on the display screen. It is possible to specify an accurate measurement position for the image.
[0014]
  From a second viewpoint, the present invention is an image measurement device that performs a predetermined measurement process using an image displayed on the display screen of the display device (43), and captures an image of the object (27). An image capturing unit (25) that captures the first image data (51B) having a larger number of pixels than can be displayed on the display screen; and a memory (41D) that stores the first image data (51B); Second image data (51D) having the number of pixels that can be displayed on the display screen by subjecting the first image data (51B) stored in the memory (41D) to a predetermined pixel number reduction process for each predetermined number of pixels. Display data creation means (53B) for creating a display; and display control means (53D) for displaying a second image based on the second image data (51D) created by the display data creation means (53B) on a display screen; The image displayed on the display screen Measurement condition input means for inputting measurement conditions including an indication of a region to be at least measured relative (42a, 42b, 53F) and;When the shape to be measured is instructed by the measurement condition input means (42a, 42b, 53F),in frontThe image processing for shape extraction is performed using the second image data (51D), the corresponding shape is extracted, and the measurement condition is set according to the measurement method stored in advance for the shape to be measured.And a measurement control means (53H).
[0015]
  According to this, only by designating the shape to be measured by the measurement condition input means, the shape is automatically extracted, and the measurement condition for the shape is automatically set. Also in this case, the processing speed can be increased by performing image processing for shape extraction and setting of measurement conditions using the second image data having a small data amount..
[0016]
  From a third viewpoint, the present invention provides:An image display method for an image measurement device for displaying an image having a larger number of pixels than the number of pixels that can be displayed on the display screen of the display device (43) for a measurement instruction, wherein the pixels are larger than the number of pixels that can be displayed on the display screen. Capture first image data (51B)In memory (41D)A first step of storing; second image data (51D) having a number of pixels that can be displayed on a display screen by performing a predetermined pixel number reduction process for each pixel of a fixed number of pixels of the first image data (51B); For creating and measuring instructionsA second image based on the second image data;The second step of displaying on the display screen;A third step of performing measurement using the first image data stored in the memory based on a measurement condition input while displaying the second image;includingIt is an image display method of an image measuring device.
[0017]
  According to this, the first image data having a number of pixels larger than the number of pixels that can be displayed on the display screen is captured and stored, and a predetermined pixel number reduction process is performed for each pixel of a certain number of pixels of the first image data. Second image data of the number of pixels that can be displayed on the display screen is created and used for measurement instructionsThe second image by the second image data isDisplayed on the display screen. For this reason, even if the first image data has a large amount of data that exceeds the display limit of the display device, an instruction to measure an image of the entire object by the second image data in which the data is subjected to the pixel number reduction process is given. Therefore, it can be displayed on the display screen. Therefore, it is possible to easily give a measurement instruction to the entire image of the object based on the second image data displayed on the display screen.Further, measurement using the first image data stored in the memory is performed based on the measurement condition input while displaying the second image. As a result, more accurate measurement processing is quickly performed using the first image data (raw image data) including more information stored in the memory.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
[0019]
FIG. 1 schematically shows the overall configuration of an image measurement apparatus according to an embodiment. The image measuring apparatus in FIG. 1 includes an image capturing unit 25 including an imaging unit 21, a light source unit 21J, and an interface unit 23, and a host computer 40.
[0020]
The imaging unit 21 includes an object 27 (for example, a semiconductor chip, a liquid crystal display panel, etc.) and a one-dimensional photoelectric conversion element (line sensor) 21H in the X direction that is an arrangement direction of light receiving elements constituting the line sensor 21H (see FIG. 1 is a component that captures the image of the object 27 line by line by the line sensor 21H while relatively moving in the Y direction (right and left direction in the sheet in FIG. 1) orthogonal to the sheet 1 orthogonal direction in FIG. The imaging unit 21 is held by a stage 21B on which an object 27 is placed and movable in the Y direction on the base 21D, and a support 28 that is disposed above the stage 21B and is implanted on the base 21D. The optical system unit 21C, a holding member 21E fixed above the optical system unit 21C, and a line that is held by the holding member 21E and disposed on the imaging surface of the objective lens 21F in the optical system unit 21C. And a sensor 21H. The line sensor 21H has 6000 pixels and outputs an image signal of 6000 pixels for one line in the X direction in the image of the object 27 as a unit. In addition to the objective lens 21F, a half mirror for epi-illumination is accommodated in the optical system unit 21C.
[0021]
The stage 21B is fixed on the base 21D in the Y direction orthogonal to the element arrangement direction of the line sensor 13 via a drive system including a linear actuator (not shown) controlled by a control unit 23B in the interface unit 23 described later. Accordingly, the object 27 and the line sensor 21H are relatively moved in a direction orthogonal to the element arrangement direction of the line sensor 21H. The amount of movement of the stage 21B in the Y direction is measured by an encoder 21L provided between the base 21D and the stage 21B.
[0022]
Here, as the encoder 21L, an optical linear encoder including an encoder scale having an optical lattice pattern with a predetermined pitch similar to a normal one is used. The encoder 21L moves the stage 21B by one scale pitch in the Y direction. Output a phase A signal (pseudo sine wave) whose phase changes 360 degrees each time and a phase B signal (pseudo sine wave) that is 90 degrees out of phase with this, and from this phase change of A phase and B phase, The amount of movement of the stage 21B in the Y direction, that is, the distance of relative movement between the line sensor 21H and the object 27 is detected.
[0023]
In the imaging unit 21, the object 27 is illuminated with epi-illumination (or transmitted illumination from below) from above in FIG. 1 by light from a light source (not shown) in the light source unit 21 </ b> J described later, and an image of the object 27. Is imaged on the imaging plane by the objective lens 21F in the optical system unit 21C, and this image is picked up by the line sensor 21H arranged on the imaging plane.
[0024]
The light source unit 21J outputs incident or transmitted illumination light to the image pickup unit 21 through an optical fiber or the like. The light source unit 21J includes a light source that includes a light source and can adjust the amount of light, and the light from the light control device. And an optical system for guiding to an optical fiber. Selection of epi-illumination and transmission illumination and adjustment of the amount of light of these lights are controlled by a control unit 23B in the interface unit 23 described later.
[0025]
The interface unit 23 includes a control unit 23B, an imaging synchronization circuit 23D, and a line sensor imaging control unit 23F.
[0026]
The control unit 23B receives a control signal from the host computer 40 and controls the linear actuator of the stage 21B to move the stage 21B at a constant speed, select epi-illumination and transmission illumination, or output from the light source unit 21J. This is a component for controlling the amount of light to be emitted, and is composed of a microprocessor and its firmware.
[0027]
The imaging synchronization circuit 23D is a circuit that outputs an imaging synchronization signal to the imaging control unit 23F when the two-phase pseudo sine waves of phase A and phase B, which are detection outputs of the encoder 21L, have a predetermined phase angle.
[0028]
The imaging control unit 23F receives an imaging synchronization signal from the imaging synchronization circuit 23D, sends a predetermined imaging control signal to the line sensor 21H to control the imaging timing, and A / D converts the image signal from the line sensor 21H. This is a circuit for outputting an image data signal to the host computer 40. In addition, the imaging control unit 23F also performs control such as an imaging enabled state and an imaging stopped state of the line sensor 21H based on a control signal from the host computer 40.
[0029]
According to the image capturing unit 25 configured as described above, an imaging synchronization signal is output from the imaging synchronization circuit 23D each time the relative movement between the object 27 and the line sensor 21H advances by a predetermined distance, and the imaging control unit 23F performs control. Thus, an image of the object 27 is taken line by line by the line sensor 21H. The image signal for one line is A / D converted by the imaging control unit 23F and sent to the host computer 40 as image data. By moving the stage 21B and sequentially capturing one line of the image of the object 27, a two-dimensional image of the object 27 is imaged and the image data of the two-dimensional image (first image data). Is obtained. Here, a two-dimensional image of the object 27 is composed of 1 byte (monochrome 256 gradations) and 6000 lines per pixel. In this way, the first image data having a large number of pixels of 6000 × 6000 is captured by the image capturing unit 25 and stored in the memory of the host computer 40 described later.
[0030]
In the present embodiment, the host computer (hereinafter referred to as “computer” as appropriate) 40 is configured by using a personal computer that operates on a predetermined operating system (for example, Windows 95), and a keyboard that is an input device in the computer main body 41. 42a, a mouse 42b and a display 43 as a display device are connected. The computer main body 41 includes a microprocessor 41B, a memory 41D, and a PCI bus 41F. A keyboard interface (keyboard controller) 41H for connecting a keyboard 42a and a mouse 42b via the PCI bus 41F and a display 43 are connected to the computer main body 41. A video interface 41J, a serial interface 41L, a hard disk 41P, and an image input board 41R are connected. In addition, a digital signal processor board 41T can be connected to the computer 40 as necessary, and a part of image processing performed by the microprocessor 41B can also be performed by this board 41T.
[0031]
An imaging control unit 23F of the interface unit 23 is connected to the serial interface (RS422) of the image input board 41R, and the host computer 40 controls the imaging enabled state and imaging stopped state of the line sensor 21H, and the imaging control unit. First image data obtained by A / D conversion at 23F is temporarily stored in the buffer memory (2 MB × 2) of the image input board 41R and transferred to the memory 41D (this will be further described later).
[0032]
In this embodiment, by loading a control program stored in the hard disk 41P into the memory 41D and starting the program, a control signal is sent to the control unit 23B of the interface unit 23 via the serial interface (RS232C), and the stage 21B The linear actuator control, optical system magnification control, light amount control, and the like can be performed, and these settings can be stored in the hard disk 41P. The hard disk 41P stores various programs for performing various image processing / measurement processes on the image data of the measurement object such as edge (contour) detection and pitch measurement, and other control programs. Image processing / measurement processing can be performed by loading the program into the memory 41D and starting the program.
[0033]
The memory 41D stores not only the first image data 51B (data amount 36 MB) but also the second image data 51D, a control program, a program for performing image processing / measurement processing, and the like, and therefore has a sufficiently large capacity. is there. Specifically, the program for performing the image processing / measurement processing includes an alignment setting / correction program 53A, a display data creation program 53B, a display control program 53D, and a measurement condition input program 53F. In addition, a program 53H for measurement control and the like are included. Of course, each of the above programs can be composed of one execution module (or execution file), but any number of programs can be composed of one execution module, or all can be composed of a single execution module. Is possible. What kind of configuration is to be determined may be determined based on an operating system, a development language, or the like.
[0034]
The alignment setting / correction program 53A is a program for correcting a shift in the installation position of the object as will be described later.
[0035]
The display data creation program 53B can display the first image data 51B stored in the memory 41D on the display screen of the display 43 by subjecting the first image data 51B to a predetermined number-of-pixels reduction process for each pixel. This is a program for creating the second image data 51D of the number of pixels and storing it in the memory 41D, thereby realizing display data creation means. Here, a multi-scan display capable of displaying VGA (640 × 480), SVGA (1024 × 768), and XGA (1280 × 1024) is used as the display 43. The display data creation program 53B, by default, performs a predetermined pixel number reduction process such as a thinning process for every 10 × 10 pixels (ie, 100 pixels) in the first image data 51B of 6000 × 6000 pixels, or The second image data 51D (360 KB) of 600 × 600 pixels that can be displayed on the display screen of the display 43 by performing the averaging process of the gradation of the 100 pixels is generated. It can be changed according to the display mode of the display 43.
[0036]
The display control program 53D transfers the image data on the memory 41D to the video interface 41J and sends a control command to the video interface 41J to display an image based on the second image data 51D after the pixel number reduction processing on the display 43. And an image formed by a part of the first image data 51B is displayed in a predetermined region on the display screen simultaneously with or separately from the image formed by the second image data 51D. The display control means is constituted by this program.
[0037]
The program 53F for inputting measurement conditions is displayed in a state where a measurement condition menu (displayed by a task bar, a tool bar, a tool box, etc.) and an image of the image data in the memory 41D are displayed on the display screen of the display 43. In order to input a measurement condition, a position and a region on an image displayed on the display screen of the display 43, etc. by detecting the position of the mouse cursor (or graphic cursor or cursor) by operating the mouse 42b (or keyboard 42a). It is a program. In the present embodiment, measurement conditions including at least an indication of an area to be measured with respect to the image displayed on the display screen of the display 43 are determined by the mouse 42b (and the keyboard 42a) and the program 53F for inputting measurement conditions. A measurement condition input means for inputting is realized, and the measurement condition input means inputs a measurement condition including an instruction of a region to be measured for an image based on the first image data 51B displayed on the display screen of the display 43. It is also used for
[0038]
The measurement control program 53H is a program for performing measurement processing in accordance with the measurement condition input for the region designated by the measurement condition after the measurement condition is input by the measurement condition input means. The contents of processing include edge detection (contour detection), shape recognition, length measurement, area measurement, error detection, and the like. In addition to the case where the displayed image is based on a part of the first image data and the case where the displayed image is based on the second image data, in response to the input of the measurement condition, the first region of the area designated by the measurement condition is displayed. Measurement processing is performed using one image data. As a result, a measurement control unit that performs measurement processing according to the measurement condition using the first image data 51B in the region instructed by the measurement condition is realized. In the measurement control program 53H, after recognizing the schematic shape of the object 27 based on the second image data 51D, the first image of the area instructed by the measurement condition according to the measurement condition is measured. This can be performed using the data 51B.
[0039]
Next, the overall operation of the image measuring apparatus according to the present embodiment configured as described above will be described.
[0040]
First, the object 27 is placed on the stage 21 </ b> B, the input device of the computer 40 is operated, and imaging of the object 27 is started. At this time, the line sensor 21H is ready for imaging by the control signal from the computer 40, and the stage 21B moves at a constant speed. The imaging position of the line sensor 21H moves within the imaging range, and an image for one line of the object 27 is taken by the line sensor 21H at every predetermined distance interval of the movement. The image signal for one line is A / D converted by the imaging control unit 23F, output to the host computer 40 as image data, and stored in the memory of the computer main body 41. When the position of the line sensor 21H reaches the opposite end from the start, the scanning imaging of the object 27 is completed, and the first image data 51D corresponding to the two-dimensional image of the object 21 is stored in the memory 41D of the computer main body 41. Is remembered.
[0041]
FIG. 2 shows a state until the first image data 51B obtained by reading the image of the object 27 with the line sensor 21H is stored in the memory 41D of the computer 40 via the image input board 41R. . The image input board 41R includes two 2 megabyte buffer memories 41S, for a total of 4 megabytes, and one line of image data 51B obtained by imaging with the line sensor 21H is one of the buffer memories 41S (for example, the buffer memory (1 )). When this one buffer memory 41S is filled with 2 megabytes of the first image data, the image data 51B is stored in the other (for example, buffer memory (2)) of the buffer memory 41S. The full image data 51B of the buffer memory 41S is block-transferred to the memory 41D via the PCI bus 41F. At this time, the transfer speed is 30 MHz or higher, and in order to secure this speed, the microprocessor 41B does not perform other jobs other than the transfer.
[0042]
With this high transfer rate, the transfer to the memory 41D is completed before the other buffer memory for storing the image data 51B for one line obtained by imaging with the line sensor 21H becomes full. When it is full, the buffer memory for storing the image data 51B is switched. By repeating the switching of the buffer memory, that is, by interleaving the buffer memory 41S, the transfer of 36 megabytes of image data 51B obtained by imaging with the line sensor 21 is completed. As a result, the transfer to the memory 41D is performed almost simultaneously with the reading of the image of the object 27 by the line sensor 21H, and the transfer to the memory 41D is completed in the time required to complete the reading of the image of the object 27 (about 2.5 seconds). Also finish.
[0043]
When the transfer of the image data 51B to the memory 41D is completed, the number of pixels is reduced by the program 53B for creating display data with respect to the first image data 51B of 6000 × 6000 pixels stored in the memory 41D. The second image data 51D that can be displayed on the display 43 is created and stored in the memory 41D, and the second image data 51D on the memory 41D is stored in the video interface 41J by the program 53D for display control. And an image based on the second image data 51D is displayed in a predetermined area (window) of the display screen of the display 43.
[0044]
Then, while viewing the entire image of the object based on the second image data 51D, it is possible to substantially indicate the location where the object image should be measured. In accordance with the measurement condition menu, the instructed position is replaced with a measurement location in the first image data 51B which is a raw image, and image processing and measurement processing are performed on the first image data 51B.
[0045]
In addition, when the object 27 has a fine structure and the measurement position cannot be accurately indicated in the second image having a small number of pixels, the vicinity of the place where the second image is to be measured is indicated by the mouse 42b. The first image based on the first image data of the object 27 corresponding to the portion in the vicinity of the designated location is enlarged and displayed in a predetermined area (window) 43A by the display control program 53D. In this case, if a plurality of locations are indicated, the first image of the object 27 in the vicinity of the specified location is enlarged and displayed in a separate window. For this reason, the mouse 42b, the keyboard 42a, and the program 53F for inputting the measurement conditions are used to specify the position (or region) on the image displayed on the display screen, and to input / specify the measurement conditions such as the measurement contents. This can be performed on the image of the object 27 displayed enlarged on 43A or the like. Then, in accordance with the input measurement condition, the measurement condition input by using the first image data corresponding to the image displayed on the window is instructed by the program 53H for measurement control. Measurement processing corresponding to the area is performed.
[0046]
Thus, in the present embodiment, when an image having a larger number of pixels than the number of pixels that can be displayed on the display screen of the display 43 is handled, the first image data 51B having a larger number of pixels than the number of pixels that can be displayed on the display screen. The second image data 51D having the number of pixels that can be displayed on the display screen is generated by subjecting the first image data 51D to a predetermined number of pixels for each pixel having a certain number of pixels, and generating a measurement instruction. Therefore, the image display method of displaying on the display screen is adopted. Therefore, the entire image of the object 27 can be displayed on the display screen by the second image data 51D, and the entire image of the object 27 can be easily grasped.
[0047]
In addition, for inputting the measurement conditions, the entire image of the object 27 displayed on the display screen is input with the measurement conditions including the instruction of the area to be measured by operating the input device (mouse 42b) of the computer 40. This program 53F can be easily performed.
[0048]
Furthermore, since the amount of data handled becomes small, the operation becomes very fast. For example, if the first image data of a raw image of 6000 × 60000 = 36000000 (36 MB) is subjected to pixel number reduction processing to generate second image data of 600 × 600 = 360000 (360 KB), the amount of data handled Is reduced to 1/100, and the processing time is reduced to one hundredth.
[0049]
By the way, when there are multiple objects of the same shape to be measured and the same measurement is repeated, in order to improve operability and measurement efficiency, the first object is imaged and then teaching is performed on the first object. It is desirable to create data (measurement procedure file) and perform measurement processing such as edge detection using the teaching data when measuring the second and subsequent objects.
[0050]
FIG. 3 shows a schematic flow when teaching data is created and an edge is detected for the first object 27. Hereinafter, teaching data creation and the like will be briefly described with reference to FIG.
[0051]
First, when the image 43B of 6000 × 6000 pixels of the object 27 is captured as the first image data 51B as described above, the first of 36000000 (6000 × 6000) pixels is obtained by the program 53B for creating display data. The image data 51 </ b> B is subjected to pixel number reduction processing such as thinning (sampling), and second image data 51 </ b> D of an image 43 </ b> D having 360,000 (600 × 600) pixels is created. Is displayed.
[0052]
Therefore, first, a predetermined portion of the object is measured in order to set the reference installation position of the object prior to the creation of teaching data. This is called alignment.
[0053]
More specifically, when an operator operates an input device of the computer 40 and inputs alignment settings via the alignment setting / correction program 53A, a program 53F for inputting measurement conditions is started by the microprocessor 41B. .
[0054]
By operating the mouse 42b of the computer 40 while viewing the second image 43D based on the second image data displayed on the screen, the measurement conditions for measuring the predetermined portion in an interactive manner with the display screen are input. To do. Next, the measurement control program 53H is activated and, as described above, the measurement result including the coordinate value of the predetermined location is obtained using the first image data. Then, information on the work coordinate system set on the object 27 based on the measurement result is stored as alignment data.
[0055]
Next, the program 53F is activated again, and measurement conditions are input to the original measurement location of the object in the same manner as described above. When the measurement condition input ends, the coordinates of the stage 21B at that time, the caliper displayed on the screen (the center position of edge detection, the normal direction of the edge, and the mark indicating the range of the edge detection target in the vicinity of the position) ) Setting information (initial setting of edge detection) and data when the object 27 is imaged such as the magnification of the objective lens 21F and illumination conditions (illumination method, brightness, etc.) are configured as teaching data, The measurement procedure file 51F is stored in the hard disk 41P. At this time, the data regarding the position is stored as a value in the work coordinate system. The above work is called teaching.
[0056]
Here, the stage 21B is a predetermined object or a predetermined object when a plurality of objects are installed on the stage or when the object is very large and difficult to fit in one image. Is moved to fit in the image. This moved position is stored as a coordinate system.
[0057]
Then, a program 53H for measurement control is started by the microprocessor 41B. By this program 53H, edge detection is performed using the first image data in accordance with the various conditions recorded in the measurement procedure file 51F, and the contour of the object is detected. This result is displayed in a predetermined area of the display 43 screen. If there is no point to be corrected in the result displayed on this screen, the operation is terminated. If there is a point to be corrected, re-teaching is input, and the operation in the program 53F for inputting measurement conditions is performed. Returning to the step, the measurement condition is input again and the above-described operation is repeated. The stored teaching data is updated to the data at the time of remeasurement.
[0058]
When it is necessary to move the stage 21B, the stage 21B is moved, and measurement conditions are input to the second image at that time.
[0059]
As described above, the display for instructing the measurement location for setting the reference installation position of the object is also processed using the second image data 51D with a small data amount, so the processing speed is increased. .
[0060]
FIG. 4 schematically shows a flow when measurement processing (edge detection) is performed on the second and subsequent objects. Hereinafter, an example of the measurement process for the second and subsequent objects will be described with reference to FIG.
[0061]
When the operator operates the input device of the host computer 40 and inputs an alignment correction command, first, the measurement procedure file 51F is read, and the magnification of the objective lens 21F and the positioning of the stage 21B are automatically determined according to the measurement procedure recorded therein. , The image 43B ′ of 6000 × 6000 pixels of the second object (hereinafter referred to as “object 27 ′” for convenience) is converted into the first image data (hereinafter referred to as “first image data 51B for convenience”). '). Subsequently, the first image data 51B ′ having 36000000 (6000 × 6000) pixels is subjected to pixel number reduction processing such as thinning by the program 53B for display data creation, and the image 43D ′ having 360000 (600 × 600) pixels. The second image data (hereinafter referred to as “second image data 51D ′” for convenience) is created, and the image 43D ′ is displayed on the display screen of the display 43.
[0062]
Next, a program 53F for inputting measurement conditions is started by the microprocessor 41B, whereby the operator sees the second image 43D ′ by the second image data 51D ′ displayed on the screen, and the mouse of the computer 40 42b is operated to input measurement conditions such as an indication of a measurement position for a predetermined portion of the object measured for alignment setting during the teaching.
[0063]
When the input of the measurement conditions is finished, the microprocessor 41B activates the program 53H for measurement control, and the predetermined location is measured using the first image data at the predetermined location according to the input measurement conditions. Is done. Based on the measurement result, a workpiece coordinate system similar to that at the time of the alignment setting is obtained. The amount of deviation between the workpiece coordinate system set at the time of the alignment setting and the workpiece coordinate system obtained here corresponds to the amount of deviation of the installation position of the second object relative to the reference installation position of the object.
[0064]
Next, the measurement procedure file 51F previously created based on the alignment correction result is corrected by the program 53H (more specifically, according to the deviation amount of the two workpiece coordinate systems obtained above, the measurement procedure file 51F in the measurement procedure file 51F is corrected. Measurement procedure file 51F ′, which is translated and rotated to the coordinates of the second image data 51D, is created and stored in the hard disk 41P.
[0065]
Next, the position and direction of the caliper are corrected based on the setting for starting edge detection according to the corrected measurement procedure recorded in the measurement procedure file 51F ′ by the program 53H, and edge detection is performed using the first image data. The contour of the second object 27 'is detected. This result is displayed in a predetermined area of the display 43 screen.
[0066]
In FIG. 4 described above, the alignment correction is performed using the mouse 42b after imaging, but the measurement conditions at the time of the alignment setting are stored as a part of the measurement procedure file 51F and determined on the stage 21B. By using a positioning jig for placing the target object at a position, it is possible to suppress the positional deviation of the target object and to select processing for automatically performing alignment correction measurement. FIG. 5 conceptually shows the flow of processing in that case.
[0067]
In the case of FIG. 5, first, when placing the second object 27 ′ on the stage 21 </ b> B, the position is set to be approximately the same as the first object 27 using a positioning jig.
[0068]
When the operator instructs the computer 40 to start measurement, a previously created measurement procedure file 51F is read, and the magnification of the projection lens 21F and the positioning of the stage 21B are automatically set according to the contents of the measurement procedure. Later, an image 43B ′ of 6000 × 6000 pixels of the second object 27 ′ is captured as the first image data 51B ′. Then, by the display data creation program 53B, the first image data 51B ′ having 36000000 (6000 × 6000) pixels is subjected to pixel number reduction processing such as thinning, and the second image having 360000 (600 × 600) pixels. Data 51D ′ is created, and an image 43D ′ corresponding to the data 51D ′ is displayed on the display screen of the display 43.
[0069]
Next, alignment correction is performed. In this case, an instruction of a measurement position for alignment (see dotted line 44 in FIG. 5) and other measurement conditions that are stored in advance in the measurement procedure file and other measurement conditions are input.
[0070]
Therefore, after the image 43D 'is displayed on the display screen of the display 43, the program 41H for measurement control is started by the microprocessor 41B. By this program 53H, measurement is performed under the measurement conditions read from the measurement procedure file 51F. The subsequent steps are the same as in FIG.
[0071]
Furthermore, the same pattern as the figure (or pattern) in the image of the object can be stored in the memory 41D in advance, and the measurement conditions can be set to automatically perform alignment correction by performing a search based on this pattern. It is. FIG. 6 conceptually shows a processing flow in the case of the setting.
[0072]
In this case, in the creation of teaching data, the pixel number reduction process such as thinning out is performed by the program 53B for creating display data from the first image data 51B obtained by capturing the 36000000 (6000 × 6000) pixel image 43B of the object 27. The second image data 51D of an image 43D having 360,000 (600 × 600) pixels is created, and the image 43D is displayed on the display screen of the display 43.
[0073]
Therefore, a predetermined range of the object is designated in order to set the reference installation position of the object by operating the mouse 42b of the computer 40 while viewing the displayed image 43D. The predetermined range may be a plurality of locations as necessary. The second image data corresponding to the designated range is stored in the memory 41D as part of the measurement procedure file 51F as the pattern comparison image data 43H. In FIG. 6, one range including the entire object 27 is designated as the predetermined range.
[0074]
The second image data may be CAD data indicating the outer shape of a predetermined location.
[0075]
Next, the second object 27 'is placed on the stage 21B. After the measurement procedure file 51F is read and the setting according to the content of the measurement procedure is automatically performed as described above, the 6000 × 6000 pixel image 43B ′ of the second object 27 ′ is the first image data. It is taken in as 51B ′. Then, by the display data creation program 53B, the first image data 51B ′ having 36000000 (6000 × 6000) pixels is subjected to pixel number reduction processing such as thinning, and the second image having 360000 (600 × 600) pixels. Image data 51D ′ is created, and an image 43D ′ corresponding thereto is displayed on the display screen of the display 43.
[0076]
Next, based on the alignment correction setting, the predetermined pattern comparison image data 43H is compared with the second image data 51D ′ of the second object 27 ′ by the measurement control program 53H, and pattern matching is performed. Processing is performed, and the amount of translation and the rotation angle when the patterns match are obtained. This corresponds to the shift amount of the workpiece coordinate system. Next, a measurement procedure file 51F ′ obtained by correcting the measurement procedure file 51F created in advance using the above-described deviation amount (parallel movement amount, rotation angle) is created by the measurement control program 53H and stored in the hard disk 41P. .
[0077]
Thereafter, according to the measurement procedure of the measurement procedure file 51F ′ corrected by the program 53H, the position of the caliper is corrected by the setting of the start of edge detection, the edge detection is performed using the first image data, and the second object. 27 'contour is detected. This result is displayed in a predetermined area of the display 43 screen.
[0078]
In addition, after performing the alignment correction by pattern matching, you may make it perform the alignment correction further demonstrated in FIG. 3, FIG. Even if the installation position / posture of the second and subsequent objects are greatly different from the reference installation position, accurate alignment correction can be performed.
[0079]
In addition, it is also possible to select a process of recognizing a rough figure by performing image processing such as labeling using second image data with a small data amount.
[0080]
When an image of the second image data is displayed, if an instruction for a geometric shape to be measured is input by operating the mouse 42b and using the measurement condition input program 53F, a program for measurement control Shape by measurement processing such as labeling using the second image data by 53H (detecting pixels constituting a closed loop such as a rectangle or a circle in the image and assigning different identification codes to the image data of each pixel). Extraction is performed, and the size, position, and orientation of the shape are measured using the first image data corresponding to the pixel according to the input measurement condition.
[0081]
For example, when “circle” is designated as the geometric shape to be measured and this shape is measured, the circumference, area, etc. of the closed loop labeled using the second image data 51D are calculated. Then, the roundness of each closed loop is obtained from the obtained circumference and area, and a circle can be extracted from the image by selecting a closed loop having the obtained roundness of a predetermined value or less. At this time, since the diameter of the circle can also be obtained, it is possible to extract only a circle having a predetermined diameter range by including the diameter range in the indication of the geometric shape to be measured. Then, a highly accurate measurement is performed by performing the following measurement process using the first image data while referring to the extracted closed loop (circle) identification code and the coordinates of each pixel to which the identification code is attached. Results are obtained.
[0082]
FIG. 7 shows an example of an image (a) based on the second image data 51D and an image (b) based on the first image data 51B.
[0083]
When an image of the second image data 51D is instructed by the mouse 42b with the shape of a “circle”, and this instruction content is input as a labeling and measurement condition via the measurement condition input program 53F, measurement control is performed. 10 circles as shown in FIG. 7A are extracted using the second image data with a small number of pixels by the program 53H for the purpose, and for example, 1, 2,... The identification code is attached. In FIG. 7 (a), for convenience, identification codes given to the respective pixels constituting each circle are shown accompanying the respective circles.
[0084]
Then, according to a predetermined measurement method with reference to the position and size of the circle, the position of the caliper for measuring the circle is calculated. Then, the caliper (see the arrow in FIG. 5B) is displayed on the display screen of the display 43 together with the image based on the first image data having a large number of pixels via the display control program 53D. In this case, when a specific circle identification code, for example, 6 is input, a caliper may be set only for the circle corresponding to this identification code.
[0085]
Even in such a case, in the present embodiment, the processing speed can be increased by calculating the labeling and caliper setting positions using the second image data with a reduced number of pixels. Then, the edge coordinates at the caliper position of the first image are detected using the first image data, and the diameter and center coordinates of the circle are obtained from the detected coordinates. As described above, when accuracy such as a rough indication of the measurement location is not required, efficient and quick processing is performed by using the second image data and measuring with high accuracy using the first image data having a large number of pixels. It is carried out.
[0086]
Further, by using the position / shape of the figure obtained by quickly recognizing the approximate shape by labeling, the moment, the center of gravity, the circumference, the area, etc. of the shape can be quickly obtained. Therefore, it can also be used as a measure of measurement in pattern matching including rotation, pattern search, best fit processing in error evaluation of contour shape, and the like.
[0087]
In the above embodiment, the case of using a mouse for inputting measurement conditions has been described. However, it is needless to say that a keyboard may be used, and various pointing devices such as a trackball and a light pen may be used.
[0088]
In the above-described embodiment, the case of using a line sensor has been described as an example of capturing and capturing an image with a large number of pixels. However, the present invention is not limited to this, and a two-dimensional CCD having a large number of pixels such as for high-definition is used. Also good.
[0089]
Furthermore, although the case where the line sensor 21H and the object 27 are moved relative to each other by the movement of the stage 21B has been described in the above embodiment, the present invention is not limited to this, and a fixed stage for placing the object instead of the stage 21B. The line sensor may be configured to be movable so that the line sensor and the object are moved relative to each other, or both the stage and the line sensor may be moved. In addition, as in the above-described embodiment, the relative movement may be realized by rotating either one of the object and the line sensor in a linear manner without rotating the object. In such a case, it is necessary to measure the position by measuring the angle of the rotary encoder as the encoder.
[0090]
In the above embodiment, the case where the pixel number reduction process is performed by software has been described. However, the present invention is not limited to this, and the second image data may be generated using the digital signal processor 41T or other hardware. Good. Further, the second image data may be created in parallel with the transfer of the first image data from the image input board 41R to the memory 41D.
[0091]
【The invention's effect】
  As explained above,First image measuring apparatus of the present inventionAccording to the above, the second image data having the number of pixels that can be displayed on the display screen by subjecting the first image data stored in the memory by the display data creating means to a predetermined pixel number reduction process for each predetermined number of pixels. Since the created second image data is displayed on the display screen by the display control means, at least the region to be measured with respect to the image displayed on the display screen by the measurement condition input means. It becomes easy to input measurement conditions including instructions. Therefore, even when handling a large amount of image data exceeding the display resolution of the display device, there is an unprecedented advantage that it is possible to easily instruct measurement of the image of the object.
[0095]
  Also,Second image measuring apparatus of the present inventionAccording to, TotalThe effect that it is possible to automatically extract the shape and automatically set the measurement condition of the shape simply by specifying the shape to be measured by the measurement condition input meansButis there.
[0096]
  Image measuring method of image measuring apparatus of the present inventionAccording to the present invention, it is easy to specify the area to be measured for the entire image of the object displayed on the display screen.effective.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing an overall configuration of an image measurement apparatus according to an embodiment.
FIG. 2 is a diagram illustrating a state in which first data obtained by reading an image of an object with a line sensor is stored in a memory 41 of a computer via an image input board.
FIG. 3 is a diagram schematically showing a flow when creating teaching data and performing edge detection processing on the first object.
FIG. 4 is a diagram schematically showing a flow of measurement processing for second and subsequent objects.
FIG. 5 is a diagram schematically showing a process flow when a process for automatically performing alignment using a positioning jig is selected.
FIG. 6 is a diagram schematically showing a flow of processing in a case where alignment is automatically performed by pattern matching.
FIG. 7 is a diagram illustrating an example of an image (a) based on second image data and an image (b) based on first image data.
[Explanation of symbols]
25 Image capture unit
27 Object
41D memory
42a Keyboard (part of measurement condition input means)
42b Mouse (part of measurement condition input means)
43 Display (display device)
51B First image data
51D second image data
53B Display data creation program (display data creation means)
53D Display control program (display control means)
53F Measurement condition input program (part of measurement condition input means)
53H Program for measurement control (measurement control means)

Claims (4)

表示装置の表示画面に表示された画像を用いて所定の計測処理を行う画像計測装置であって、
対象物の像を撮像し、前記表示画面に表示可能な画素数より大きな画素数の第1の画像データを取り込む画像取り込み部と;
前記第1の画像データが記憶されるメモリと;
前記メモリ内に記憶された前記第1の画像データに対し一定画素数の画素毎に所定の画素数減少処理を施して前記表示画面に表示可能な画素数の第2の画像データを作成する表示データ作成手段と;
前記表示データ作成手段で作成された第2の画像データによる第2の画像を前記表示画面に表示する表示制御手段と;
前記表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力するための計測条件入力手段とを有し、
前記第2の画像を表示中に入力された前記計測条件に基づいて、前記メモリに記憶された前記第1の画像データを用いた計測を行う画像計測装置。
An image measurement device that performs a predetermined measurement process using an image displayed on a display screen of a display device,
An image capturing unit that captures an image of an object and captures first image data having a number of pixels larger than the number of pixels that can be displayed on the display screen;
A memory for storing the first image data;
A display that generates a second image data having a number of pixels that can be displayed on the display screen by subjecting the first image data stored in the memory to a predetermined pixel number reduction process for each pixel having a certain number of pixels. Data creation means;
Display control means for displaying on the display screen a second image based on the second image data created by the display data creating means;
Have a; a measurement condition input means for inputting measurement conditions including an indication of a region to be at least measured against the image displayed on the display screen
An image measurement device that performs measurement using the first image data stored in the memory, based on the measurement condition input during display of the second image .
前記表示制御手段は、前記計測条件に応じて、前記第1の画像データによる第1の画像の一部を、前記第2の画像と同時又は別々に前記表示画面上に表示するとともに、前記計測条件入力手段は、前記表示画面に表示された前記第1の画像に対して前記計測条件を入力するためにも用いられることを特徴とする請求項1に記載の画像計測装置。  The display control means displays a part of the first image based on the first image data on the display screen simultaneously with or separately from the second image according to the measurement condition, and The image measurement apparatus according to claim 1, wherein the condition input unit is also used to input the measurement condition for the first image displayed on the display screen. 表示装置の表示画面に表示された画像を用いて所定の計測処理を行う画像計測装置であって、
対象物の像を撮像し、前記表示画面に表示可能な画素数より大きな画素数の第1の画像データを取り込む画像取り込み部と;
前記第1の画像データが記憶されるメモリと;
前記メモリ内に記憶された前記第1の画像データに対し一定画素数の画素毎に所定の画素数減少処理を施して前記表示画面に表示可能な画素数の第2の画像データを作成する表示データ作成手段と;
前記表示データ作成手段で作成された第2の画像データによる第2の画像を前記表示画面に表示する表示制御手段と;
前記表示画面に表示された画像に対して少なくとも計測すべき領域の指示を含む計測条件を入力するための計測条件入力手段と;
前記計測条件入力手段により計測すべき形状が指示されると、前記第2の画像データを用いて形状抽出のための画像処理を行って該当する形状を抽出し、計測すべき形状に対して予め記憶してある計測方法に従って計測条件を設定する計測制御手段と;を有する画像計測装置。
An image measurement device that performs a predetermined measurement process using an image displayed on a display screen of a display device,
An image capturing unit that captures an image of an object and captures first image data having a number of pixels larger than the number of pixels that can be displayed on the display screen;
A memory for storing the first image data;
A display that generates a second image data having a number of pixels that can be displayed on the display screen by subjecting the first image data stored in the memory to a predetermined pixel number reduction process for each pixel having a certain number of pixels. Data creation means;
Display control means for displaying on the display screen a second image based on the second image data created by the display data creating means;
Measurement condition input means for inputting measurement conditions including at least an instruction of a region to be measured with respect to the image displayed on the display screen;
When the shape to be measured by the measuring condition input unit is instructed, for the previous SL by using the second image data to extract the appropriate shape by performing image processing for shape extraction, to be measured shape a measurement control unit for setting the measurement conditions according to the measurement method is previously stored; images measuring device with a.
表示装置の表示画面に表示可能な画素数より大きな画素数の画像を取扱う画像計測装置の画像表示方法であって、
前記表示画面に表示可能な画素数より大きな画素数の第1の画像データを取り込みメモリに記憶する第1工程と;
前記第1の画像データに対し一定画素数の画素毎に所定の画素数減少処理を施して前記表示画面に表示可能な画素数の第2の画像データを作成し、計測指示のため前記第2の画像データによる第2の画像を前記表示画面に表示する第2工程と
前記第2の画像を表示中に入力された計測条件に基づいて、前記メモリに記憶された前記第1の画像データを用いた計測を行う第3工程と;を含む画像計測装置の画像表示方法。
An image display method for an image measurement device that handles an image having a larger number of pixels than the number of pixels that can be displayed on a display screen of a display device,
A first step of capturing first image data having a larger number of pixels than the number of pixels that can be displayed on the display screen and storing the first image data in a memory ;
The first image data is subjected to a predetermined pixel number reduction process for each pixel having a certain number of pixels to generate second image data having the number of pixels that can be displayed on the display screen, and the second image data for measurement instructions . A second step of displaying a second image based on the image data on the display screen ;
An image display method for an image measurement apparatus, comprising : a third step of performing measurement using the first image data stored in the memory based on a measurement condition input during display of the second image. .
JP24046397A 1997-08-21 1997-08-21 Image measuring apparatus and image display method thereof Expired - Lifetime JP3900319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24046397A JP3900319B2 (en) 1997-08-21 1997-08-21 Image measuring apparatus and image display method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24046397A JP3900319B2 (en) 1997-08-21 1997-08-21 Image measuring apparatus and image display method thereof

Publications (2)

Publication Number Publication Date
JPH1163953A JPH1163953A (en) 1999-03-05
JP3900319B2 true JP3900319B2 (en) 2007-04-04

Family

ID=17059888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24046397A Expired - Lifetime JP3900319B2 (en) 1997-08-21 1997-08-21 Image measuring apparatus and image display method thereof

Country Status (1)

Country Link
JP (1) JP3900319B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365026A (en) * 2001-06-07 2002-12-18 Sigma Technos Kk Substrate inspection apparatus
US7400415B2 (en) * 2005-03-15 2008-07-15 Mitutoyo Corporation Operator interface apparatus and method for displacement transducer with selectable detector area
JP5255099B2 (en) * 2011-07-22 2013-08-07 Geヘルスケア・ジャパン株式会社 Image handling method and apparatus
JP2014197004A (en) * 2014-04-21 2014-10-16 株式会社キーエンス Image measurement device

Also Published As

Publication number Publication date
JPH1163953A (en) 1999-03-05

Similar Documents

Publication Publication Date Title
US6349245B1 (en) Method of and apparatus for registration of a robot
US6031941A (en) Three-dimensional model data forming apparatus
US5798750A (en) Image display apparatus
JP5923824B2 (en) Image processing device
US6490048B1 (en) Tomographic reconstruction of electronic components from shadow image sensor data
EP1986154A1 (en) Model-based camera pose estimation
CN109556510B (en) Position detection device and computer-readable storage medium
CN111225143B (en) Image processing apparatus, control method thereof, and program storage medium
JP3900319B2 (en) Image measuring apparatus and image display method thereof
JP4041042B2 (en) Defect confirmation device and defect confirmation method
JP5445064B2 (en) Image processing apparatus and image processing program
JP2002204342A (en) Image input apparatus and recording medium, and image compositing method
JP2003244531A (en) Image input apparatus
JP2019016843A (en) Document reading device, control method of document reading device, and program
JP3528461B2 (en) Surface shape measurement drawing device
JP6624861B2 (en) Image processing apparatus, control method, and program
JP2003203216A (en) Image measuring device part program generating device and image forming device part program generating program
JPH09250909A (en) Method and system for measuring image without contact
CN107948497A (en) For optimizing system, the method and apparatus of visual field
JP3697780B2 (en) Image measuring device
JP3650205B2 (en) Non-contact image measurement system and edge tracking measurement method
JP7188481B2 (en) Position detection device and program
JP3350244B2 (en) Method and apparatus for measuring transmission strain
JP2000121337A (en) Method and device for image correction
JP3853500B2 (en) Edge detection method and image measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100112

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140112

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term