JP6300692B2 - measuring device - Google Patents

measuring device Download PDF

Info

Publication number
JP6300692B2
JP6300692B2 JP2014200053A JP2014200053A JP6300692B2 JP 6300692 B2 JP6300692 B2 JP 6300692B2 JP 2014200053 A JP2014200053 A JP 2014200053A JP 2014200053 A JP2014200053 A JP 2014200053A JP 6300692 B2 JP6300692 B2 JP 6300692B2
Authority
JP
Japan
Prior art keywords
image
measurement
edge detection
display
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014200053A
Other languages
Japanese (ja)
Other versions
JP2016070779A (en
Inventor
直也 北田
直也 北田
原口 直士
直士 原口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014200053A priority Critical patent/JP6300692B2/en
Publication of JP2016070779A publication Critical patent/JP2016070779A/en
Application granted granted Critical
Publication of JP6300692B2 publication Critical patent/JP6300692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、測定対象物を撮像して得た画像に基づいて測定対象物の形状等を測定する測定装置に関する。   The present invention relates to a measuring apparatus that measures the shape or the like of a measurement object based on an image obtained by imaging the measurement object.

従来、CCD(Charge Coupled Device)カメラ等の撮像装置により測定対象物を撮像して得た画像に基づいて測定対象物の形状等を測定する測定装置がある。
このような測定装置では、その測定の際に、例えば、モニタ等の表示装置に表示された測定対象物の画像を用いてエッジ検出が行われている。例えば、特許文献1に記載の画像測定装置では、測定対象物を撮像した画像上にエッジ検出の処理を行う範囲を示す円形ツールを表示し、この円形ツールによって指定された範囲内の画像情報を当該円形ツールの中心を通る複数の方向から探索して、それぞれの探索方向について画像のエッジ点を検出した後、これら検出されたエッジ点からエッジを推定し、円形ツールの中心を通り且つ推定されたエッジに対して直交する方向に探索して得られたエッジ点を最終的に検出されたエッジ点とするようにしている。
2. Description of the Related Art Conventionally, there is a measuring apparatus that measures the shape or the like of a measurement object based on an image obtained by imaging the measurement object with an imaging apparatus such as a CCD (Charge Coupled Device) camera.
In such a measuring apparatus, at the time of the measurement, for example, edge detection is performed using an image of a measurement object displayed on a display device such as a monitor. For example, in the image measuring apparatus described in Patent Document 1, a circular tool indicating a range in which edge detection processing is performed is displayed on an image obtained by capturing an object to be measured, and image information within the range specified by the circular tool is displayed. After searching from a plurality of directions passing through the center of the circular tool and detecting the edge point of the image in each search direction, the edge is estimated from the detected edge point, and the center of the circular tool is estimated. The edge point obtained by searching in the direction orthogonal to the detected edge is set as the finally detected edge point.

特開平11−201724号公報JP-A-11-201724

上述のように表示装置に表示された測定対象物の画像を用いてエッジ検出等を行う測定装置において、そのエッジ検出を行う際に、撮像装置により撮像された測定対象物の画像をサイズ縮小(例えば低解像度化や画素間引き等)して表示装置に表示させるようにした場合には、それをサイズ変更することなく表示装置に表示させるようにした場合に比べて、表示装置の限られた表示エリアに測定対象物の画像全体を表示することができたり、表示装置に表示する測定対象物のライブ画像の追従性を向上させることができたり、等といったユーザの操作性が向上するものの、サイズ縮小された画像を用いてエッジ検出が行われることからエッジ検出精度が低下する、という問題があった。また、そのようにして検出されたエッジ位置に基づいて測定対象物の形状等を測定した場合には、その測定精度が低下するという問題もあった。   In the measurement apparatus that performs edge detection or the like using the image of the measurement object displayed on the display device as described above, the size of the measurement object image captured by the imaging apparatus is reduced when the edge detection is performed ( For example, when the display is displayed on the display device with lower resolution or pixel thinning, the display on the display device is limited compared to the display on the display device without changing the size. Although it is possible to display the entire image of the measurement object in the area, improve the followability of the live image of the measurement object displayed on the display device, etc. Since edge detection is performed using a reduced image, there is a problem that the edge detection accuracy is lowered. In addition, when the shape of the measurement object is measured based on the edge position thus detected, there is a problem that the measurement accuracy is lowered.

以上のような実情を踏まえ、本発明は、エッジ検出を行う際に、ユーザの操作性を向上させつつエッジ検出精度を低下させない測定装置を提供することを目的とする。   In light of the above circumstances, an object of the present invention is to provide a measurement apparatus that improves user operability and does not reduce edge detection accuracy when performing edge detection.

本発明の第1の態様は、測定用画像に対して少なくとも画像サイズを縮小するための処理を行って表示用画像を生成する表示用画像生成部と、前記表示用画像生成部により生成された表示用画像を表示する表示部と、前記表示部により表示された表示用画像上に指定されたエッジ検出範囲の座標を、前記測定用画像上の座標に変換する座標変換部と、前記座標変換部により変換された前記測定用画像上の座標に基づいて、前記表示用画像上に指定されたエッジ検出範囲に対応する前記測定用画像上のエッジ検出範囲においてエッジ検出を行うエッジ検出部と、を備える測定装置を提供する。   According to a first aspect of the present invention, a display image generation unit that generates a display image by performing processing for reducing at least the image size of a measurement image, and the display image generation unit A display unit for displaying a display image; a coordinate conversion unit for converting coordinates of an edge detection range designated on the display image displayed by the display unit into coordinates on the measurement image; and the coordinate conversion An edge detection unit that performs edge detection in the edge detection range on the measurement image corresponding to the edge detection range specified on the display image based on the coordinates on the measurement image converted by the unit; A measuring apparatus is provided.

本発明の第2の態様は、第1の態様において、前記座標変換部は、更に、前記エッジ検出部により行われたエッジ検出により求められた前記測定用画像上のエッジ位置の座標を、前記表示用画像上の座標に変換し、前記表示部は、更に、前記座標変換部により変換された前記表示用画像上の座標の位置を、検出されたエッジ位置として表示する、測定装置を提供する。   According to a second aspect of the present invention, in the first aspect, the coordinate conversion unit further includes the coordinates of the edge position on the measurement image obtained by the edge detection performed by the edge detection unit. Provided is a measuring device that converts coordinates on a display image, and the display unit further displays the position of the coordinates on the display image converted by the coordinate conversion unit as a detected edge position. .

本発明の第3の態様は、第1又は2の態様において、前記測定用画像は、撮像装置からの入力画像、又は、前記撮像装置からの複数の入力画像に基づいて生成した高階調画像である、測定装置を提供する。   According to a third aspect of the present invention, in the first or second aspect, the measurement image is an input image from an imaging device or a high gradation image generated based on a plurality of input images from the imaging device. A measuring device is provided.

本発明の第4の態様は、第3の態様において、前記入力画像は、前記撮像装置により複数の撮像画像に基づいて生成された高精細画像又は高階調画像である、測定装置を提供する。   A fourth aspect of the present invention provides the measurement apparatus according to the third aspect, wherein the input image is a high-definition image or a high gradation image generated based on a plurality of captured images by the imaging device.

本発明の第5の態様は、第4の態様において、前記高精細画像は、前記撮像装置によりピクセルシフト機能を用いて撮像された複数の撮像画像が合成されることにより生成された画像である、測定装置を提供する。   According to a fifth aspect of the present invention, in the fourth aspect, the high-definition image is an image generated by combining a plurality of picked-up images picked up by the image pickup device using a pixel shift function. Provide a measuring device.

本発明の第6の態様は、第3乃至5の何れか一つの態様において、前記高階調画像は、露出が異なる前記複数の入力画像をHDR(High Dynamic Range)合成することにより生成した画像、又は、露出が異なる前記複数の撮像画像がHDR合成されることにより生成された画像である、測定装置を提供する。   According to a sixth aspect of the present invention, in any one of the third to fifth aspects, the high gradation image is an image generated by HDR (High Dynamic Range) composition of the plurality of input images having different exposures, Alternatively, a measurement apparatus is provided that is an image generated by HDR combining the plurality of captured images with different exposures.

本発明の第7の態様は、第1乃至6の何れか一つの態様において、前記表示用画像生成部は、前記測定用画像に対して画像サイズを縮小するための処理を行うと共に所定の画像処理を行って前記表示用画像を生成する、測定装置を提供する。   According to a seventh aspect of the present invention, in any one of the first to sixth aspects, the display image generation unit performs a process for reducing the image size on the measurement image and a predetermined image. Provided is a measurement device that performs processing to generate the display image.

本発明の第8の態様は、第7の態様において、前記所定の画像処理は、エッジ強調をするための画像処理である、測定装置を提供する。
本発明の第9の態様は、第1乃至8の何れか一つの態様において、前記測定用画像は、移動可能なステージに載置された測定対象物の画像であり、前記ステージの移動を伴う前記測定対象物の測定を行う場合に、前記ステージの位置の座標を取得、記憶し、前記測定対象物の測定時に使用する、測定装置を提供する。
An eighth aspect of the present invention provides the measurement apparatus according to the seventh aspect, wherein the predetermined image processing is image processing for edge enhancement.
According to a ninth aspect of the present invention, in any one of the first to eighth aspects, the measurement image is an image of a measurement object placed on a movable stage, and the stage is moved. When measuring the measurement object, a measurement apparatus is provided that acquires and stores the coordinates of the position of the stage and uses it when measuring the measurement object.

本発明によれば、エッジ検出を行う際に、ユーザの操作性を向上させつつエッジ検出精度を低下させない測定装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when performing edge detection, the measurement apparatus which does not reduce edge detection accuracy, improving a user's operativity can be provided.

第1の実施形態に係る測定装置である測定顕微鏡システムの構成例を示す図である。It is a figure which shows the structural example of the measurement microscope system which is a measuring apparatus which concerns on 1st Embodiment. 制御部の内部構成例を示す図である。It is a figure which shows the internal structural example of a control part. 第1の実施形態に係る、測定対象物のエッジ検出動作の一例を示すフローチャートである。It is a flowchart which shows an example of the edge detection operation | movement of a measuring object based on 1st Embodiment. 図3に示したフローチャートに従ってエッジ検出が行われるときの具体例を説明する図である。It is a figure explaining the specific example when edge detection is performed according to the flowchart shown in FIG. 図4に示した具体例に従ってエッジ検出が行われたときのモニタのエッジ検出結果の表示例を示す図である。It is a figure which shows the example of a display of the edge detection result of a monitor when edge detection is performed according to the specific example shown in FIG. 第2の実施形態に係る測定装置である測定顕微鏡システムにおいて行われる、測定対象物のエッジ検出動作の一例を示すフローチャートである。It is a flowchart which shows an example of the edge detection operation | movement of a measuring object performed in the measurement microscope system which is a measuring apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る測定装置である測定顕微鏡システムにおいて行われる、測定対象物のエッジ検出動作の一例を示すフローチャートである。It is a flowchart which shows an example of the edge detection operation | movement of a measuring object performed in the measurement microscope system which is a measuring device which concerns on 3rd Embodiment. 変形例に係る測定顕微鏡システムの構成例を示す図である。It is a figure which shows the structural example of the measurement microscope system which concerns on a modification. エッジ検出方法として円ツールが選択されてエッジ検出動作が行われたときのモニタのエッジ検出結果の表示例を示す図である。It is a figure which shows the example of a display of the edge detection result of a monitor when a circle tool is selected as an edge detection method and edge detection operation is performed. エッジ検出方法として矩形ツールが選択されてエッジ検出動作が行われたときのモニタのエッジ検出結果の表示例を示す図である。It is a figure which shows the example of a display of the edge detection result of a monitor when a rectangular tool is selected as an edge detection method, and edge detection operation is performed.

以下、図面を参照しながら、本発明の実施の形態について説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る測定装置である測定顕微鏡システムの構成例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of a measurement microscope system that is a measurement apparatus according to a first embodiment of the present invention.

図1に示したように、本実施形態に係る測定顕微鏡システムは、顕微鏡本体1、CCDカメラ2、顕微鏡コントローラ3、制御部4、モニタ5、キーボード6、マウス7、及びフットスイッチ8を含む。   As shown in FIG. 1, the measurement microscope system according to the present embodiment includes a microscope main body 1, a CCD camera 2, a microscope controller 3, a control unit 4, a monitor 5, a keyboard 6, a mouse 7, and a foot switch 8.

顕微鏡本体1は、測定対象物9が載置されるステージ10、X方向移動用ハンドル11、Y方向移動用ハンドル12、対物レンズ13、及び鏡筒14を含む。
ステージ10は、X方向、Y方向、及びZ方向に移動可能なステージである。なお、X方向及びY方向は、対物レンズ13の光軸方向に対して垂直な方向であり、Z方向は、対物レンズ13の光軸方向に対して平行な方向である。
The microscope main body 1 includes a stage 10 on which a measurement object 9 is placed, an X direction moving handle 11, a Y direction moving handle 12, an objective lens 13, and a lens barrel 14.
The stage 10 is a stage that can move in the X direction, the Y direction, and the Z direction. The X direction and the Y direction are directions perpendicular to the optical axis direction of the objective lens 13, and the Z direction is a direction parallel to the optical axis direction of the objective lens 13.

X方向移動用ハンドル11は、ステージ10をX方向に移動させる手動ハンドルである。Y方向移動用ハンドル12は、ステージ10をY方向に移動させる手動ハンドルである。なお、図示はしないが、顕微鏡本体1は、ステージ10をZ方向に移動させる手動ハンドルも含む。   The X-direction moving handle 11 is a manual handle for moving the stage 10 in the X direction. The Y-direction moving handle 12 is a manual handle for moving the stage 10 in the Y direction. Although not shown, the microscope main body 1 also includes a manual handle for moving the stage 10 in the Z direction.

対物レンズ13は、ステージ10に載置された測定対象物9からの光(反射光又は透過光)を、鏡筒14を介してCCDカメラ2の撮像面に結像する。なお、ステージ10に載置された測定対象物9は、図示しない照明部により上方又は下方から照明光が照射される。鏡筒14は、対物レンズ13からの光(測定対象物9からの光)をCCDカメラ2の撮像面へ導く。   The objective lens 13 focuses light (reflected light or transmitted light) from the measurement object 9 placed on the stage 10 on the imaging surface of the CCD camera 2 via the lens barrel 14. The measurement object 9 placed on the stage 10 is irradiated with illumination light from above or below by an illumination unit (not shown). The lens barrel 14 guides light from the objective lens 13 (light from the measurement object 9) to the imaging surface of the CCD camera 2.

CCDカメラ2は、制御部4の制御の下に、撮像面に結像された光(測定対象物9からの光)を撮像して得た画像(測定対象物9の画像)を制御部4へ出力する。
顕微鏡コントローラ3は、制御部4の制御の下に、顕微鏡本体1を制御する。また、顕微鏡コントローラ3は、ステージ10のX方向、Y方向、及びZ方向の移動量をカウントしてステージ10のXYZ座標を検出し、それを制御部4に出力すること等も行う。
Under the control of the control unit 4, the CCD camera 2 controls the control unit 4 to obtain an image (image of the measurement target 9) obtained by imaging the light imaged on the imaging surface (light from the measurement target 9). Output to.
The microscope controller 3 controls the microscope main body 1 under the control of the control unit 4. In addition, the microscope controller 3 detects the XYZ coordinates of the stage 10 by counting the movement amounts of the stage 10 in the X direction, Y direction, and Z direction, and outputs the detected values to the control unit 4.

制御部4は、測定対象物9のエッジ検出動作や測定対象物9の形状測定動作等を含む当該測定顕微鏡システムの全体動作を制御する。なお、測定対象物9のエッジ検出動作は、CCDカメラ2により撮像された測定対象物9の画像に基づいて測定対象物9のエッジを検出する動作である。また、測定対象物9の形状測定動作は、例えば、そのエッジ検出動作により検出されたエッジの位置に基づいて測定対象物9の形状を測定する動作である。   The control unit 4 controls the entire operation of the measurement microscope system including the edge detection operation of the measurement object 9 and the shape measurement operation of the measurement object 9. The edge detection operation of the measurement object 9 is an operation for detecting the edge of the measurement object 9 based on the image of the measurement object 9 captured by the CCD camera 2. The shape measurement operation of the measurement object 9 is an operation for measuring the shape of the measurement object 9 based on the edge position detected by the edge detection operation, for example.

モニタ5は、制御部4の制御の下に、画像、ツールボックス、操作メニュー、及び各種情報等を表示する。キーボード6、マウス7、及びフットスイッチ8は、ユーザの操作入力を検出し、制御部4に出力する。   The monitor 5 displays an image, a tool box, an operation menu, various information, and the like under the control of the control unit 4. The keyboard 6, the mouse 7, and the foot switch 8 detect user operation inputs and output them to the control unit 4.

図2は、制御部4の内部構成例を示す図である。
図2に示したように、制御部4は、入力画像メモリ41、プログラムメモリ42、ワークメモリ43、表示画像メモリ44、シリアルポート45、及びCPU(Central Processing Unit)46を含む。
FIG. 2 is a diagram illustrating an internal configuration example of the control unit 4.
As shown in FIG. 2, the control unit 4 includes an input image memory 41, a program memory 42, a work memory 43, a display image memory 44, a serial port 45, and a CPU (Central Processing Unit) 46.

入力画像メモリ41は、CCDカメラ2からの入力画像(CCDカメラ2により撮像された測定対象物9の画像)を格納する。
プログラムメモリ42は、CPU46により実行されるプログラムを格納する。
The input image memory 41 stores an input image from the CCD camera 2 (an image of the measurement object 9 captured by the CCD camera 2).
The program memory 42 stores a program executed by the CPU 46.

ワークメモリ43は、CPU46のワークエリアとして使用され、その一部は、測定用画像を格納する測定画像エリアとして使用される。
表示画像メモリ44は、CPU46によって生成され、モニタ5によって表示される、表示用画像を格納する。
The work memory 43 is used as a work area for the CPU 46, and a part of the work memory 43 is used as a measurement image area for storing measurement images.
The display image memory 44 stores a display image generated by the CPU 46 and displayed on the monitor 5.

なお、入力画像メモリ41、ワークメモリ43、及び表示画像メモリ44は、揮発性メモリであり、プログラムメモリ42は、不揮発性メモリである。
シリアルポート45は、CPU46と顕微鏡コントローラ3との間でシリアル通信を行うための接続インターフェースである。
The input image memory 41, the work memory 43, and the display image memory 44 are volatile memories, and the program memory 42 is a nonvolatile memory.
The serial port 45 is a connection interface for performing serial communication between the CPU 46 and the microscope controller 3.

CPU46は、プログラムメモリ42に格納されているプログラムを実行することにより、上述のエッジ検出動作や形状測定動作等を含む当該顕微鏡システムの全体動作を制御するための処理を行う。例えば、CPU46は、エッジ検出動作を制御する際には、次のような処理を行う。CPU46は、CCDカメラ2からの入力画像を、入力画像メモリ41を介して取得し、測定用画像としてワークメモリ43の測定画像エリアに格納する。また、CPU46は、ワークメモリ43の測定画像エリアから読み出した測定用画像に対して少なくとも画像サイズを縮小するための処理(例えば低解像度化や画素間引き等の処理)を行って表示用画像を生成し、その表示用画像を表示画像メモリ44に格納し、モニタ5に表示する。また、CPU46は、ユーザによるマウス等の操作入力に応じて、モニタ5に表示されている表示用画像上にエッジ検出範囲を指定する。また、CPU46は、その表示用画像上に指定されたエッジ検出範囲の座標を、ワークメモリ43の測定画像エリアに格納されている測定用画像上の座標に変換する。また、CPU46は、その測定用画像上の座標に基づいて、表示用画像上に指定されたエッジ検出範囲に対応する測定用画像上のエッジ検出範囲においてエッジ検出を行う。また、CPU46は、そのエッジ検出により求められた測定用画像上のエッジ位置の座標を、モニタ5に表示されている表示用画像上の座標に変換し、その表示用画像上の座標の位置を、検出されたエッジ位置として、モニタ5に表示する。   The CPU 46 executes a program stored in the program memory 42 to perform processing for controlling the entire operation of the microscope system including the edge detection operation and the shape measurement operation described above. For example, the CPU 46 performs the following process when controlling the edge detection operation. The CPU 46 acquires an input image from the CCD camera 2 via the input image memory 41 and stores it in the measurement image area of the work memory 43 as a measurement image. Further, the CPU 46 generates a display image by performing at least processing for reducing the image size (for example, processing such as reduction in resolution and pixel thinning) on the measurement image read from the measurement image area of the work memory 43. The display image is stored in the display image memory 44 and displayed on the monitor 5. Further, the CPU 46 designates an edge detection range on the display image displayed on the monitor 5 in response to an operation input of the mouse or the like by the user. Further, the CPU 46 converts the coordinates of the edge detection range designated on the display image into coordinates on the measurement image stored in the measurement image area of the work memory 43. Further, the CPU 46 performs edge detection in the edge detection range on the measurement image corresponding to the edge detection range specified on the display image based on the coordinates on the measurement image. Further, the CPU 46 converts the coordinates of the edge position on the measurement image obtained by the edge detection into the coordinates on the display image displayed on the monitor 5, and sets the position of the coordinates on the display image. The detected edge position is displayed on the monitor 5.

上述のように構成された本実施形態に係る測定顕微鏡システムにおいて、制御部4(又はCPU46)の一部の機能は、測定用画像に対して少なくとも画像サイズを縮小するための処理を行って表示用画像を生成する表示用画像生成部の一例である。モニタ5は、表示用画像生成部により生成された表示用画像を表示する表示部の一例である。制御部4(又はCPU46)の他の一部の機能は、表示部により表示された表示用画像上に指定されたエッジ検出範囲の座標を、測定用画像上の座標に変換する座標変換部の一例である。制御部4(又はCPU46)の更に他の一部の機能は、座標変換部により変換された測定用画像上の座標に基づいて、表示用画像上に指定されたエッジ検出範囲に対応する測定用画像上のエッジ検出範囲においてエッジ検出を行うエッジ検出部の一例である。   In the measurement microscope system according to the present embodiment configured as described above, a part of the function of the control unit 4 (or the CPU 46) performs processing for reducing at least the image size on the measurement image and displays it. It is an example of the display image generation part which produces | generates for image. The monitor 5 is an example of a display unit that displays the display image generated by the display image generation unit. Another part of the function of the control unit 4 (or CPU 46) is a coordinate conversion unit that converts the coordinates of the edge detection range designated on the display image displayed by the display unit into coordinates on the measurement image. It is an example. Still another part of the function of the control unit 4 (or the CPU 46) is for measurement corresponding to the edge detection range specified on the display image based on the coordinates on the measurement image converted by the coordinate conversion unit. It is an example of the edge detection part which performs edge detection in the edge detection range on an image.

次に、本実施形態に係る測定顕微鏡システムの動作について説明する。
ここでは、その動作の一例として、上述の測定対象物9のエッジ検出動作について、図3乃至図5を用いて、詳細に説明する。
Next, the operation of the measurement microscope system according to this embodiment will be described.
Here, as an example of the operation, the edge detection operation of the measurement object 9 will be described in detail with reference to FIGS. 3 to 5.

図3は、そのエッジ検出動作の一例を示すフローチャートである。
図3に示したように、本動作が開始すると、まず、CPU46は、CCDカメラ2からの入力画像を、入力画像メモリ41を介して取得し、測定用画像としてワークメモリ43の測定画像エリアに格納する(S11)。
FIG. 3 is a flowchart showing an example of the edge detection operation.
As shown in FIG. 3, when this operation is started, the CPU 46 first acquires an input image from the CCD camera 2 via the input image memory 41 and stores it in the measurement image area of the work memory 43 as a measurement image. Store (S11).

続いて、CPU46は、ワークメモリ43の測定画像エリアから読み出した測定用画像に対して少なくとも画像サイズを縮小するための処理を行って表示用画像を生成し、その表示用画像を表示画像メモリ44に格納し、モニタ5に表示する(S12)。   Subsequently, the CPU 46 generates a display image by performing at least processing for reducing the image size on the measurement image read from the measurement image area of the work memory 43, and displays the display image as the display image memory 44. And displayed on the monitor 5 (S12).

なお、このときに、表示用画像と共にエッジ検出用のツールボックスを一緒にモニタ5に表示するようにしてもよい。ユーザは、このツールボックスから、例えば、エッジ検出方法として、線ツール、円ツール、又は多点ツール等を選択することができる。ここで、線ツールとは、画像上に指定された2点間の直線上を一方の点から他方の点へ向け探索してエッジ検出する方法である。円ツールとは、画像上に指定された、中心が一致する2つの円の各々の外周の間の領域上を、一方の円の外周から他方の円の外周へ向け探索してエッジ検出する方法である。多点ツールとは、画像上に指定された矩形領域上を、その矩形の一つの辺からその辺に対向する辺へ向け探索してエッジ検出する方法である。   At this time, a toolbox for edge detection may be displayed on the monitor 5 together with the display image. From this tool box, the user can select, for example, a line tool, a circle tool, a multipoint tool, or the like as an edge detection method. Here, the line tool is a method of detecting an edge by searching from one point to the other point on a straight line between two points designated on the image. The circle tool is a method for detecting an edge by searching from the outer periphery of one circle to the outer periphery of the other circle on the area between the outer periphery of each of the two circles whose centers coincide with each other designated on the image. It is. The multi-point tool is a method of detecting an edge by searching a rectangular area designated on an image from one side of the rectangle toward a side opposite to the side.

続いて、CPU46は、ユーザによるマウス7等の操作入力に応じて、モニタ5に表示されている表示用画像上にエッジ検出範囲を指定する(S13)。
続いて、CPU46は、その表示用画像上に指定されたエッジ検出範囲の座標を、ワークメモリ43の測定画像エリアに格納されている測定用画像上の座標に変換する(S14)。
Subsequently, the CPU 46 designates an edge detection range on the display image displayed on the monitor 5 in response to an operation input of the mouse 7 or the like by the user (S13).
Subsequently, the CPU 46 converts the coordinates of the edge detection range designated on the display image into coordinates on the measurement image stored in the measurement image area of the work memory 43 (S14).

続いて、CPU46は、その変換された測定用画像上の座標に基づいて、表示用画像上に指定されたエッジ検出範囲に対応する測定用画像上のエッジ検出範囲においてエッジ検出を行う(S15)。   Subsequently, the CPU 46 performs edge detection in the edge detection range on the measurement image corresponding to the edge detection range specified on the display image based on the converted coordinates on the measurement image (S15). .

続いて、CPU46は、そのエッジ検出により求められた測定用画像上のエッジ位置の座標を、モニタ5に表示されている表示用画像上の座標に変換し、その表示用画像上の座標の位置を、検出されたエッジ位置として、モニタ5に表示し(S16)、本動作が終了する。   Subsequently, the CPU 46 converts the coordinates of the edge position on the measurement image obtained by the edge detection into the coordinates on the display image displayed on the monitor 5, and the position of the coordinates on the display image. Is displayed on the monitor 5 as the detected edge position (S16), and this operation ends.

図4は、図3に示したフローチャートに従ってエッジ検出が行われるときの具体例を説明する図である。なお、図4において、左側は表示用画像に対する処理を模式的に示し、右側は測定用画像に対する処理を模式的に示している。   FIG. 4 is a diagram for explaining a specific example when edge detection is performed according to the flowchart shown in FIG. In FIG. 4, the left side schematically illustrates processing for the display image, and the right side schematically illustrates processing for the measurement image.

この具体例では、測定用画像の画像サイズ(入力画像の画像サイズでもある)を1920*1440(横が1920、縦が1440)とし、表示用画像の画像サイズを1200*900(横が1200、縦が900)とする。すなわち、画像サイズの比は、測定用画像(入力画像):表示用画像=8:5である。また、この具体例では、エッジ検出方法として、線ツールが選択されたものとする。   In this specific example, the image size of the measurement image (also the image size of the input image) is 1920 * 1440 (horizontal 1920, vertical 1440), and the image size of the display image is 1200 * 900 (horizontal 1200, The vertical is 900). That is, the ratio of the image sizes is measurement image (input image): display image = 8: 5. In this specific example, it is assumed that the line tool is selected as the edge detection method.

この場合、図3のS13では、例えば、図4のS101に示したように、ユーザによるマウス7のクリック操作により、モニタ5に表示されている表示用画像上に探索開始点と探索終了点が指定されると、エッジ検出範囲として、探索開始点座標(A,B)と探索終了点座標(C,D)とを結ぶ直線が指定される。   In this case, in S13 of FIG. 3, for example, as shown in S101 of FIG. 4, the search start point and the search end point are displayed on the display image displayed on the monitor 5 by the click operation of the mouse 7 by the user. When specified, a straight line connecting the search start point coordinates (A, B) and the search end point coordinates (C, D) is specified as the edge detection range.

その後、図3のS14では、図4のS102に示したように、表示用画像上に指定されたエッジ検出範囲の座標である探索開始点座標(A,B)及び探索終了点座標(C,D)が、測定用画像上の対応する探索開始点座標(A´,B´)及び探索終了点座標(C´,D´)に変換される。なお、測定用画像と表示用画像の画像サイズの比は8:5であることから、A´、B´、C´、D´は、A´=A*1.6、B´=B*1.6、C´=C*1.6、D´=D*1.6により、求めることができる。   Thereafter, in S14 of FIG. 3, as shown in S102 of FIG. 4, the search start point coordinates (A, B) and the search end point coordinates (C, C), which are the coordinates of the edge detection range designated on the display image, are displayed. D) is converted into corresponding search start point coordinates (A ′, B ′) and search end point coordinates (C ′, D ′) on the measurement image. Since the ratio of the image size of the measurement image to the display image is 8: 5, A ′, B ′, C ′, and D ′ are A ′ = A * 1.6 and B ′ = B *. 1.6, C ′ = C * 1.6, and D ′ = D * 1.6.

その後、図3のS15では、図4のS103に示したように、測定用画像上の対応するエッジ検出範囲においてエッジ検出が行われ、エッジ位置座標が求められる。すなわち、探索開始点座標(A´,B´)と探索終了点座標(C´,D´)とを結ぶ直線上を探索開始点から探索終了点へ向け探索してエッジ検出が行われ、エッジ位置座標(X´,Y´)が求められる。なお、この例では、そのエッジ検出範囲において、輝度値が所定の閾値Vthを横切る位置が、エッジ位置として検出される。   Thereafter, in S15 of FIG. 3, as shown in S103 of FIG. 4, edge detection is performed in the corresponding edge detection range on the measurement image, and the edge position coordinates are obtained. That is, edge detection is performed by searching from the search start point to the search end point on a straight line connecting the search start point coordinates (A ′, B ′) and the search end point coordinates (C ′, D ′). The position coordinates (X ′, Y ′) are obtained. In this example, the position where the luminance value crosses the predetermined threshold value Vth in the edge detection range is detected as the edge position.

その後、図3のS16では、図4のS104に示したように、その測定用画像上のエッジ位置の座標(X´,Y´)が、表示用画像上の対応する座標(X,Y)に変換され、その表示用画像上の座標(X,Y)の位置が、検出されたエッジ位置として、モニタ5に表示される。なお、測定用画像と表示用画像の画像サイズの比は8:5であることから、X、Yは、X=X´*0.625、Y=Y´*0.625により、求めることができる。   Thereafter, in S16 of FIG. 3, as shown in S104 of FIG. 4, the coordinates (X ′, Y ′) of the edge position on the measurement image correspond to the corresponding coordinates (X, Y) on the display image. The position of the coordinates (X, Y) on the display image is displayed on the monitor 5 as the detected edge position. Since the ratio of the image size of the measurement image to the display image is 8: 5, X and Y can be obtained by X = X ′ * 0.625 and Y = Y ′ * 0.625. it can.

図5は、図4に示した具体例に従ってエッジ検出が行われたときのモニタ5のエッジ検出結果の表示例を示す図である。
図5に示したように、モニタ5には、測定対象物9の表示用画像上に、探索開始点、探索終了点、及び検出されたエッジ位置が重畳されて表示される。
FIG. 5 is a diagram showing a display example of the edge detection result of the monitor 5 when the edge detection is performed according to the specific example shown in FIG.
As shown in FIG. 5, the monitor 5 displays the search start point, the search end point, and the detected edge position superimposed on the display image of the measurement object 9.

以上、本実施形態に係る測定顕微鏡システムによれば、モニタ5に表示される画像は、サイズ縮小後の画像(表示用画像)となり、エッジ検出に用いられる画像は、サイズ縮小前の画像(測定用画像)となる。そのため、ユーザの操作性が損なわれる虞が無いことは勿論のこと、サイズ縮小後の画像を用いてエッジ検出を行っていた従来の装置に比べて、エッジ検出精度を向上させることもできる。なお、ここで、ユーザの操作性とは、例えば、モニタ5の限られた表示エリアに測定対象物9の画像全体を表示することができたり、モニタ5に表示する測定対象物9のライブ画像の追従性を向上させることができたり、等といったことである。   As described above, according to the measurement microscope system according to the present embodiment, the image displayed on the monitor 5 is an image after size reduction (display image), and the image used for edge detection is an image before size reduction (measurement). Image). Therefore, the user's operability is not likely to be impaired, and the edge detection accuracy can be improved as compared with the conventional apparatus that performs the edge detection using the image after the size reduction. Here, the user operability means that, for example, the entire image of the measurement object 9 can be displayed in a limited display area of the monitor 5 or a live image of the measurement object 9 displayed on the monitor 5. It is possible to improve the follow-up performance.

また、このようにしてサイズ縮小前の画像(測定用画像)を用いて検出したエッジ位置に基づいて測定対象物9の形状等を測定することによって、サイズ縮小後の画像を用いて測定を行っていた従来の装置に比べて、測定精度を向上させることもできる。   Further, by measuring the shape or the like of the measurement object 9 based on the edge position detected using the image before size reduction (measurement image) in this way, measurement is performed using the image after size reduction. Compared with the conventional apparatus which has been used, the measurement accuracy can be improved.

<第2の実施形態>
本発明の第2の実施形態に係る測定装置である測定顕微鏡システムは、第1の実施形態に係る測定顕微鏡システムに対して、動作の一部が異なる。そこで、ここでは、その異なる点を中心に、本実施形態に係る測定顕微鏡システムの説明を行う。
<Second Embodiment>
The measurement microscope system, which is a measurement apparatus according to the second embodiment of the present invention, is partially different in operation from the measurement microscope system according to the first embodiment. Therefore, here, the measurement microscope system according to the present embodiment will be described focusing on the different points.

図6は、本実施形態に係る測定顕微鏡システムにおいて行われるエッジ検出動作の一例を示すフローチャートである。
なお、図6に示すフローチャートは、図3に示したフローチャートに対応し、図3に示したS11が、図6に示したS21及びS22に置き換えられたものである。従って、図6に示したS23乃至S27は、図3に示したS12乃至S16と同じものである。
FIG. 6 is a flowchart illustrating an example of an edge detection operation performed in the measurement microscope system according to the present embodiment.
6 corresponds to the flowchart shown in FIG. 3, and S11 shown in FIG. 3 is replaced with S21 and S22 shown in FIG. Therefore, S23 to S27 shown in FIG. 6 are the same as S12 to S16 shown in FIG.

図6に示したように、本動作が開始すると、まず、CPU46は、CCDカメラ2からの、露出が異なる複数の入力画像を、入力画像メモリ41を介して取得する(S21)。なお、露出が異なる複数の入力画像は、CCDカメラ2により異なる露出条件で測定対象物9が撮像された複数の撮像画像である。   As shown in FIG. 6, when this operation starts, the CPU 46 first acquires a plurality of input images with different exposures from the CCD camera 2 via the input image memory 41 (S21). Note that the plurality of input images with different exposures are a plurality of captured images obtained by capturing the measurement object 9 with the CCD camera 2 under different exposure conditions.

続いて、CPU46は、その露出が異なる複数の入力画像に基づいて一つの高階調画像を生成し、その高階調画像を測定用画像としてワークメモリ43の測定画像エリアに格納する(S22)。なお、その高階調画像は、例えば、その露出が異なる複数の入力画像をHDR(High Dynamic Range)合成することにより生成される。   Subsequently, the CPU 46 generates one high gradation image based on the plurality of input images having different exposures, and stores the high gradation image as a measurement image in the measurement image area of the work memory 43 (S22). The high gradation image is generated by, for example, HDR (High Dynamic Range) composition of a plurality of input images having different exposures.

続くS23乃至S27は、図3に示したS12乃至S16と同じであるので、説明を省略する。
以上、本実施形態に係る測定顕微鏡システムによれば、第1の実施形態に係る測定顕微鏡システムと同様の効果が得られると共に、測定用画像及び表示用画像を高階調化することもできる。
Subsequent S23 to S27 are the same as S12 to S16 shown in FIG.
As described above, according to the measurement microscope system according to the present embodiment, the same effect as that of the measurement microscope system according to the first embodiment can be obtained, and the measurement image and the display image can be increased in gradation.

<第3の実施形態>
本発明の第3の実施形態に係る測定装置である測定顕微鏡システムは、第1の実施形態に係る測定顕微鏡システムに対して、動作の一部が異なる。そこで、ここでは、その異なる点を中心に、本実施形態に係る測定顕微鏡システムの説明を行う。
<Third Embodiment>
The measurement microscope system, which is a measurement apparatus according to the third embodiment of the present invention, is partially different in operation from the measurement microscope system according to the first embodiment. Therefore, here, the measurement microscope system according to the present embodiment will be described focusing on the different points.

図7は、本実施形態に係る測定顕微鏡システムにおいて行われるエッジ検出動作の一例を示すフローチャートである。
なお、図7に示すフローチャートは、図3に示したフローチャートに対応し、図3に示したS12が、図7に示したS32に置き換えられたものである。従って、図7に示したS31及びS33乃至S36は、図3に示したS11及びS13乃至S16と同じものである。
FIG. 7 is a flowchart illustrating an example of an edge detection operation performed in the measurement microscope system according to the present embodiment.
7 corresponds to the flowchart shown in FIG. 3, and S12 shown in FIG. 3 is replaced with S32 shown in FIG. Therefore, S31 and S33 to S36 shown in FIG. 7 are the same as S11 and S13 to S16 shown in FIG.

図7に示したように、本動作が開始すると、まず、CPU46は、図3のS11と同様に、CCDカメラ2からの入力画像を、入力画像メモリ41を介して取得し、測定用画像としてワークメモリ43の測定画像エリアに格納する(S31)。   As shown in FIG. 7, when this operation is started, first, the CPU 46 acquires the input image from the CCD camera 2 through the input image memory 41 as S11 in FIG. Stored in the measurement image area of the work memory 43 (S31).

続いて、CPU46は、ワークメモリ43の測定画像エリアから読み出した測定用画像に対して画像サイズを縮小するための処理を行うと共に所定の画像処理を行って表示用画像を生成し、その表示用画像を表示画像メモリ44に格納し、モニタ5に表示する(S32)。なお、画像サイズを縮小するための処理と所定の画像処理は何れが先に行われても良い。また、所定の画像処理は、例えば、エッジ強調をするための画像処理である。   Subsequently, the CPU 46 performs processing for reducing the image size on the measurement image read from the measurement image area of the work memory 43 and performs predetermined image processing to generate a display image. The image is stored in the display image memory 44 and displayed on the monitor 5 (S32). Note that either the process for reducing the image size or the predetermined image process may be performed first. The predetermined image processing is, for example, image processing for edge enhancement.

続くS33乃至S36は、図3に示したS13乃至S16と同じであるので、説明を省略する。
以上、本実施形態に係る測定顕微鏡システムによれば、第1の実施形態に係る測定顕微鏡システムと同様の効果が得られると共に、例えば、サイズ縮小の処理後及びエッジ強調等の画像処理後の画像を用いてエッジ検出を行っていた従来の装置に比べて、エッジ検出精度を向上させることもできる。
Subsequent S33 to S36 are the same as S13 to S16 shown in FIG.
As described above, according to the measurement microscope system according to the present embodiment, the same effects as those of the measurement microscope system according to the first embodiment can be obtained. For example, the image after the size reduction process and the image process such as edge enhancement The edge detection accuracy can also be improved as compared with the conventional apparatus that performs edge detection using the.

以上、第1乃至第3の実施形態に係る測定装置である測定顕微鏡システムについて説明したが、各実施形態に係る測定顕微鏡システムにおいては各種の変形が可能である。
例えば、第1及び第3の実施形態に係る測定顕微鏡システムにおいて、CCDカメラ2からの入力画像は、CCDカメラ2により複数の撮像画像に基づいて生成された高精細画像又は高階調画像としてもよい。例えば、その高精細画像は、CCDカメラ2により当該CCDカメラ2のピクセルシフト機能を用いて撮像された複数の撮像画像が合成されることによって生成された画像である。また、例えば、その高階調画像は、CCDカメラ2により露出が異なる複数の撮像画像がHDR合成されることによって生成された画像である。このように、CCDカメラ2からの入力画像を高精細画像とした場合には、それを一つの撮像画像としていた場合に比べて、よりエッジ検出精度を向上させることができる。また、CCDカメラ2からの入力画像を高階調画像とした場合には、第2の実施形態に係る測定顕微鏡システムと同様に、測定用画像及び表示用画像を高階調画像とすることができる。なお、この場合は、第2の実施形態に係る測定顕微鏡システムにおいてCPU46で行われていた高階調画像の生成をCCDカメラ2で行うように構成した場合でもあり、このように構成した場合には、CPU46の負荷を軽減することもできる。
The measurement microscope system as the measurement apparatus according to the first to third embodiments has been described above, but various modifications can be made in the measurement microscope system according to each embodiment.
For example, in the measurement microscope systems according to the first and third embodiments, the input image from the CCD camera 2 may be a high-definition image or a high gradation image generated by the CCD camera 2 based on a plurality of captured images. . For example, the high-definition image is an image generated by combining a plurality of captured images captured by the CCD camera 2 using the pixel shift function of the CCD camera 2. For example, the high gradation image is an image generated by HDR combining a plurality of captured images with different exposures by the CCD camera 2. As described above, when the input image from the CCD camera 2 is a high-definition image, the edge detection accuracy can be further improved as compared with a case where the input image is a single captured image. When the input image from the CCD camera 2 is a high gradation image, the measurement image and the display image can be a high gradation image as in the measurement microscope system according to the second embodiment. In this case, the high-tone image generation performed by the CPU 46 in the measurement microscope system according to the second embodiment may be performed by the CCD camera 2. The load on the CPU 46 can also be reduced.

また、例えば、第1乃至第3の実施形態に係る測定顕微鏡システムにおいて、ステージ10の移動を伴う、測定対象物9の形状等を測定する動作(上述のエッジ検出動作も含む)を行う場合に、CPU46は、顕微鏡コントローラ3からステージ10のXYZ座標を取得、記憶して、測定対象物9の形状等を測定する際に使用するようにしてもよい。   Further, for example, in the measurement microscope system according to the first to third embodiments, when an operation (including the above-described edge detection operation) for measuring the shape or the like of the measurement object 9 accompanying the movement of the stage 10 is performed. The CPU 46 may acquire and store the XYZ coordinates of the stage 10 from the microscope controller 3, and may be used when measuring the shape or the like of the measurement object 9.

また、例えば、第1乃至第3の実施形態に係る測定顕微鏡システムにおいて、ステージ10は、手動ではなく電動により駆動(移動)するように構成してもよい。
図8は、そのように構成した場合の、変形例に係る測定顕微鏡システムの構成例を示す図である。図8に示したように、この場合は、X方向移動用ハンドル11、Y方向移動用ハンドル12、及び図示しないZ方向移動用ハンドルを備えない代わりに、X方向移動用モータ101、Y方向移動用モータ102、及び図示しないZ方向移動用モータを備える。また、ステージ10をXY方向へ移動指示するためのジョイスティック103、及びステージ10をZ方向へ移動指示するための図示しない操作部も備える。これにより、ユーザは、例えば、ジョイスティック103の操作により、X方向移動用モータ101及びY方向移動用モータ102の一方又は両方を駆動させてステージ10を電動駆動させることができる。なお、その他の構成については、図1に示した構成と同様である。
In addition, for example, in the measurement microscope system according to the first to third embodiments, the stage 10 may be configured to be driven (moved) electrically instead of manually.
FIG. 8 is a diagram illustrating a configuration example of a measurement microscope system according to a modified example when configured as described above. As shown in FIG. 8, in this case, the X-direction movement motor 101, the Y-direction movement are provided in place of the X-direction movement handle 11, the Y-direction movement handle 12, and the Z-direction movement handle (not shown). Motor 102 and a Z-direction moving motor (not shown). In addition, a joystick 103 for instructing movement of the stage 10 in the XY directions and an operation unit (not shown) for instructing movement of the stage 10 in the Z direction are provided. Thereby, the user can drive the stage 10 by driving one or both of the X-direction moving motor 101 and the Y-direction moving motor 102 by operating the joystick 103, for example. Other configurations are the same as those shown in FIG.

また、第1乃至第3の実施形態に係る測定顕微鏡システムにおいては、エッジ検出方法として、図4及び図5を用いて説明した線ツール以外にも、例えば、円ツールや多点ツール等、他のエッジ検出方法が選択されてもよいことは勿論のことである。   In the measurement microscope system according to the first to third embodiments, as an edge detection method, other than the line tool described with reference to FIGS. 4 and 5, for example, a circle tool, a multipoint tool, and the like. Of course, the edge detection method may be selected.

図9は、エッジ検出方法として円ツールが選択されてエッジ検出動作が行われたときのモニタ5のエッジ検出結果の表示例を示す図である。図9に示したように、この例は、測定対象物9の表示用画像上に、エッジ検出範囲を規定するために指定された2つの円111、112の各々の外周と、内側円111の外周から外側円112の外周へ向け探索して検出されたエッジ位置としての円113の外周とが重畳されて表示された例である。   FIG. 9 is a diagram illustrating a display example of the edge detection result of the monitor 5 when the circle tool is selected as the edge detection method and the edge detection operation is performed. As shown in FIG. 9, in this example, on the display image of the measurement object 9, the outer circumference of each of the two circles 111 and 112 designated to define the edge detection range, and the inner circle 111 This is an example in which the outer periphery of the circle 113 as the edge position detected by searching from the outer periphery toward the outer periphery of the outer circle 112 is superimposed and displayed.

図10は、エッジ検出方法として矩形ツールが選択されてエッジ検出動作が行われたときのモニタ5のエッジ検出結果の表示例を示す図である。図10に示したように、この例は、測定対象物9の表示用画像上に、エッジ検出範囲を規定するために指定された矩形121と、その矩形121の一つの辺121aからその辺121aに対向する辺121bへ向け探索して検出されたエッジ位置としての線122が重畳されて表示された例である。   FIG. 10 is a diagram illustrating a display example of the edge detection result of the monitor 5 when the rectangular tool is selected as the edge detection method and the edge detection operation is performed. As shown in FIG. 10, in this example, on the display image of the measurement object 9, a rectangle 121 designated for defining the edge detection range, and one side 121a of the rectangle 121 to the side 121a. This is an example in which the line 122 as the edge position detected by searching toward the side 121b opposite to the line 121 is superimposed and displayed.

以上、上述した各実施形態は、発明の理解を容易にするために本発明の具体例を示したものであり、本発明は上述の実施形態に限定されるものではない。本発明は、特許請求の範囲に規定された本発明の思想を逸脱しない範囲において、さまざまな変形、変更が可能である。   As mentioned above, each embodiment mentioned above shows the example of this invention, in order to make an understanding of invention easy, and this invention is not limited to the above-mentioned embodiment. The present invention can be variously modified and changed without departing from the concept of the present invention defined in the claims.

1 顕微鏡本体
2 CCDカメラ
3 顕微鏡コントローラ
4 制御部
5 モニタ
6 キーボード
7 マウス
8 フットスイッチ
9 測定対象物
10 ステージ
11 X方向移動用ハンドル
12 Y方向移動用ハンドル
13 対物レンズ
14 鏡筒
41 入力画像メモリ
42 プログラムメモリ
43 ワークメモリ
44 表示画像メモリ
45 シリアルポート
46 CPU
101 X方向移動用モータ
102 Y方向移動用モータ
103 ジョイスティック
111、112、113 円
121 矩形
121a、121b 辺
122 線
DESCRIPTION OF SYMBOLS 1 Microscope main body 2 CCD camera 3 Microscope controller 4 Control part 5 Monitor 6 Keyboard 7 Mouse 8 Foot switch 9 Measurement object 10 Stage 11 X direction movement handle 12 Y direction movement handle 13 Objective lens 14 Lens barrel 41 Input image memory 42 Program memory 43 Work memory 44 Display image memory 45 Serial port 46 CPU
101 motor for X direction movement 102 motor for Y direction movement 103 joystick 111, 112, 113 circle 121 rectangle 121a, 121b side 122 line

Claims (9)

測定用画像に対して少なくとも画像サイズを縮小するための処理を行って表示用画像を生成する表示用画像生成部と、
前記表示用画像生成部により生成された表示用画像を表示する表示部と、
前記表示部により表示された表示用画像上に指定されたエッジ検出範囲の座標を、前記測定用画像上の座標に変換する座標変換部と、
前記座標変換部により変換された前記測定用画像上の座標に基づいて、前記表示用画像上に指定されたエッジ検出範囲に対応する前記測定用画像上のエッジ検出範囲においてエッジ検出を行うエッジ検出部と、
を備えることを特徴とする測定装置。
A display image generating unit that generates a display image by performing a process for reducing at least the image size of the measurement image;
A display unit for displaying the display image generated by the display image generation unit;
A coordinate conversion unit that converts the coordinates of the edge detection range specified on the display image displayed by the display unit into coordinates on the measurement image;
Edge detection for performing edge detection in the edge detection range on the measurement image corresponding to the edge detection range specified on the display image based on the coordinates on the measurement image converted by the coordinate conversion unit And
A measuring apparatus comprising:
前記座標変換部は、更に、前記エッジ検出部により行われたエッジ検出により求められた前記測定用画像上のエッジ位置の座標を、前記表示用画像上の座標に変換し、
前記表示部は、更に、前記座標変換部により変換された前記表示用画像上の座標の位置を、検出されたエッジ位置として表示する、
ことを特徴とする請求項1記載の測定装置。
The coordinate conversion unit further converts the coordinates of the edge position on the measurement image obtained by the edge detection performed by the edge detection unit into coordinates on the display image,
The display unit further displays the position of the coordinate on the display image converted by the coordinate conversion unit as the detected edge position.
The measuring apparatus according to claim 1.
前記測定用画像は、撮像装置からの入力画像、又は、前記撮像装置からの複数の入力画像に基づいて生成した高階調画像である、
ことを特徴とする請求項1又は2記載の測定装置。
The measurement image is an input image from an imaging device or a high gradation image generated based on a plurality of input images from the imaging device.
The measuring apparatus according to claim 1 or 2, wherein
前記入力画像は、前記撮像装置により複数の撮像画像に基づいて生成された高精細画像又は高階調画像である、
ことを特徴とする請求項3記載の測定装置。
The input image is a high-definition image or a high-gradation image generated based on a plurality of captured images by the imaging device.
The measuring apparatus according to claim 3.
前記高精細画像は、前記撮像装置によりピクセルシフト機能を用いて撮像された複数の撮像画像が合成されることにより生成された画像である、
ことを特徴とする請求項4記載の測定装置。
The high-definition image is an image generated by synthesizing a plurality of captured images captured using the pixel shift function by the imaging device.
The measuring apparatus according to claim 4.
前記高階調画像は、露出が異なる前記複数の入力画像をHDR(High Dynamic Range)合成することにより生成した画像、又は、露出が異なる前記複数の撮像画像がHDR合成されることにより生成された画像である、
ことを特徴とする請求項3乃至5の何れか一項に記載の測定装置。
The high gradation image is an image generated by HDR (High Dynamic Range) synthesis of the plurality of input images with different exposures, or an image generated by HDR synthesis of the plurality of captured images with different exposures. Is,
The measuring apparatus according to claim 3, wherein
前記表示用画像生成部は、前記測定用画像に対して画像サイズを縮小するための処理を行うと共に所定の画像処理を行って前記表示用画像を生成する、
ことを特徴とする請求項1乃至6の何れか一項に記載の測定装置。
The display image generation unit performs processing for reducing the image size on the measurement image and performs predetermined image processing to generate the display image.
The measuring apparatus according to any one of claims 1 to 6, wherein
前記所定の画像処理は、エッジ強調をするための画像処理である、
ことを特徴とする請求項7記載の測定装置。
The predetermined image processing is image processing for edge enhancement.
The measuring apparatus according to claim 7.
前記測定用画像は、移動可能なステージに載置された測定対象物の画像であり、
前記ステージの移動を伴う前記測定対象物の測定を行う場合に、前記ステージの位置の座標を取得、記憶し、前記測定対象物の測定時に使用する、
ことを特徴とする請求項1乃至8の何れか一項に記載の測定装置。
The measurement image is an image of a measurement object placed on a movable stage,
When measuring the measurement object accompanied by the movement of the stage, the coordinates of the position of the stage are acquired and stored, and used when measuring the measurement object.
The measuring apparatus according to claim 1, wherein
JP2014200053A 2014-09-30 2014-09-30 measuring device Active JP6300692B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014200053A JP6300692B2 (en) 2014-09-30 2014-09-30 measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014200053A JP6300692B2 (en) 2014-09-30 2014-09-30 measuring device

Publications (2)

Publication Number Publication Date
JP2016070779A JP2016070779A (en) 2016-05-09
JP6300692B2 true JP6300692B2 (en) 2018-03-28

Family

ID=55866511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014200053A Active JP6300692B2 (en) 2014-09-30 2014-09-30 measuring device

Country Status (1)

Country Link
JP (1) JP6300692B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608932B2 (en) * 1998-02-24 2005-01-12 株式会社ミツトヨ Image measuring method and apparatus
JP4074020B2 (en) * 1999-01-14 2008-04-09 株式会社キーエンス Shape measuring instrument
JP3333148B2 (en) * 1999-05-31 2002-10-07 オリンパス光学工業株式会社 Appearance inspection device
JP3132315U (en) * 2007-03-19 2007-06-07 株式会社ミツトヨ Image measuring device
JP2013228267A (en) * 2012-04-25 2013-11-07 Panasonic Corp Display device, display method, and program
JP5997989B2 (en) * 2012-09-13 2016-09-28 株式会社キーエンス Image measuring apparatus, control method thereof, and program for image measuring apparatus
JP6150532B2 (en) * 2013-01-22 2017-06-21 オリンパス株式会社 Measuring device and program

Also Published As

Publication number Publication date
JP2016070779A (en) 2016-05-09

Similar Documents

Publication Publication Date Title
JP5547105B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP2017527137A (en) Remote visual inspection image capture system and method
JP5311143B2 (en) Measuring apparatus and method, and program
JP2015507262A (en) Focusing operation using multiple lighting settings in machine vision system
US9798129B2 (en) Microscope system and method for deciding stitched area
JP6274794B2 (en) Information processing apparatus, information processing method, program, and image measurement apparatus
JP2013068617A (en) Machine vision inspection system and method for determining position measurement result of the system
JP2009181024A (en) Focusing device and optical equipment
JP6563486B2 (en) Microscope observation system, microscope observation method, and microscope observation program
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2018194780A (en) Microscope system, control method and program
JP2017049947A (en) Image processing apparatus and image processing method
JP6300692B2 (en) measuring device
JP5996462B2 (en) Image processing apparatus, microscope system, and image processing method
US9648224B2 (en) Apparatus and method of processing image
JP6422761B2 (en) Microscope system and method for calculating relationship between Z position and set value of correction device
JP2014085599A (en) Microscope
JP6312410B2 (en) Alignment apparatus, microscope system, alignment method, and alignment program
JP6423261B2 (en) Microscope system, function calculation method, and program
JP2012083621A (en) Scan laser microscope
JP2007171455A (en) Imaging apparatus
JP2015210396A (en) Aligment device, microscope system, alignment method and alignment program
US11880991B2 (en) Imaging apparatus including depth information at first or second spatial resolution at different regions in the image
JP2012150335A (en) Confocal microscope system, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180227

R151 Written notification of patent or utility model registration

Ref document number: 6300692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250