JP2010032330A - Image measuring device and computer program - Google Patents

Image measuring device and computer program Download PDF

Info

Publication number
JP2010032330A
JP2010032330A JP2008194058A JP2008194058A JP2010032330A JP 2010032330 A JP2010032330 A JP 2010032330A JP 2008194058 A JP2008194058 A JP 2008194058A JP 2008194058 A JP2008194058 A JP 2008194058A JP 2010032330 A JP2010032330 A JP 2010032330A
Authority
JP
Japan
Prior art keywords
measurement
image
unit
image showing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008194058A
Other languages
Japanese (ja)
Other versions
JP2010032330A5 (en
Inventor
Takashi Naruse
崇志 成瀬
Yasutaka Kawa
泰孝 川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2008194058A priority Critical patent/JP2010032330A/en
Publication of JP2010032330A publication Critical patent/JP2010032330A/en
Publication of JP2010032330A5 publication Critical patent/JP2010032330A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image measuring device and a computer program by which measurement is easily performed by an intuitive operation on an image as if size of a measurement object is measured by an actual measuring instrument. <P>SOLUTION: The image measuring device includes: a display means 332 for displaying image data of a measurement object and a measuring instrument including a detection part which includes a body part extending in a prescribed direction and two measurement parts capable of moving in a longitudinal direction of the body part and extending in the directions orthogonal to the body part and detects an edge of a measurement object part; a moving instruction receiving means 333 for receiving an instruction for moving at least one measurement part in the longitudinal direction of the body part; a position determination means 334 for determining whether coordinate values of the detection part and the edge agree with each other; a position receiving means 335 for receiving an instruction indicating that it is a measurement position of the measurement object when it is determined that they agree with each other; and a measured value calculation means 336 for measuring a measured value of the measurement object part on the basis of the coordinate value of the measurement position. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像された画像データに基づいて、計測対象物の寸法等を簡便に計測する画像計測装置及びコンピュータプログラムに関する   The present invention relates to an image measuring apparatus and a computer program for simply measuring a dimension or the like of a measurement object based on captured image data.

従来、計測対象物の形状を計測する装置として、計測対象物に光を照射し、照射した光の透過光又は反射光を受光レンズにより、CCD(Charge Coupled Device)、CMOS(Complementary Metal−Oxide Semiconductor)等の撮像素子に結像させて画像を取得し、取得した画像をコンピュータ処理することにより計測対象物の形状を計測する画像計測装置があった。   Conventionally, as a device for measuring the shape of a measurement object, the measurement object is irradiated with light, and the transmitted light or reflected light of the irradiated light is received by a light receiving lens, CCD (Charge Coupled Device), CMOS (Complementary Metal-Oxide Semiconductor) There is an image measurement device that obtains an image by forming an image on an image pickup device such as) and measures the shape of a measurement object by computer processing the obtained image.

計測対象物を示す画像は、受光レンズによって計測対象物に対して極めて正確な相似形とすることができる。画像上の寸法を受光レンズの倍率でキャリブレーションすることにより、画像上の寸法を実際の計測対象物の寸法と正確に関連付けることができる。したがって、画像上の計測対象物の形状を正確に特定することにより、正確な実物の計測対象物の形状を計測することができる。画像上の計測対象物の形状の特定は、計測対象物と背景画像との境界部分(以下、エッジ部分)を検出することにより行われる。エッジ部分は、計測対象物の画素と背景画像の画素との輝度値変化が激しい箇所となるので、エッジ付近の画素の輝度値変化の情報に基づいて、1ピクセルの数分の1から数十分の1の精度でエッジ部分を検出する。   The image showing the measurement object can be made into a very accurate similar shape to the measurement object by the light receiving lens. By calibrating the dimensions on the image with the magnification of the light receiving lens, the dimensions on the image can be accurately associated with the dimensions of the actual measurement object. Therefore, by accurately specifying the shape of the measurement object on the image, the accurate shape of the actual measurement object can be measured. The shape of the measurement object on the image is specified by detecting a boundary part (hereinafter referred to as an edge part) between the measurement object and the background image. The edge portion is a portion where the luminance value change between the pixel of the measurement object and the pixel of the background image is intense, and therefore, from a fraction of one pixel to several tens based on the information on the luminance value change of the pixel near the edge. Edge portions are detected with a precision of 1 /.

図20は、従来の計測対象物を計測する場合に指定する領域等の説明図である。図20(a)は矩形の計測対象物の幅を計測する場合に指定する領域等であり、図20(b)は円形の計測対象物の直径を計測する場合に指定する領域である。計測対象物の幅を計測する場合、操作者は図20(a)に示すように、横幅の両端のうち、一方の端のエッジ部分(直線部分a)を検出するための矩形領域bを指定し、もう一方の端にある点cを検出するためにスキャンラインdに沿ってマウス等によりカーソルを移動する。矩形領域b内では、画素の輝度値変化に基づいて、例えば隣接する画素間の輝度差が所定の値より大きい箇所(画素間)を直線部分aとして検出する。またスキャンラインd上にて隣接する画素間の輝度差が所定の値より大きい箇所を点cとして検出する。検出された点cから直線部分aまでの距離を幅の寸法として取得することができる。   FIG. 20 is an explanatory diagram of areas and the like that are specified when measuring a conventional measurement object. FIG. 20A shows an area specified when measuring the width of a rectangular measurement object, and FIG. 20B shows an area specified when measuring the diameter of a circular measurement object. When measuring the width of the measurement object, as shown in FIG. 20A, the operator designates a rectangular area b for detecting an edge portion (straight line portion a) at one end of both ends of the horizontal width. Then, the cursor is moved by the mouse or the like along the scan line d in order to detect the point c at the other end. In the rectangular area b, based on the change in the luminance value of the pixel, for example, a portion (between pixels) where the luminance difference between adjacent pixels is larger than a predetermined value is detected as the straight line portion a. Further, a point where the luminance difference between adjacent pixels on the scan line d is larger than a predetermined value is detected as a point c. The distance from the detected point c to the straight line portion a can be acquired as the width dimension.

円形の計測対象物の直径を計測する場合、操作者は図20(b)に示すように、円eを含む円領域fを指定する。円領域f内の画素の輝度値変化に基づいて円eを検出し、検出した円eの直径を算出する。   When measuring the diameter of a circular measuring object, the operator designates a circular region f including a circle e as shown in FIG. A circle e is detected based on the change in luminance value of the pixels in the circle region f, and the diameter of the detected circle e is calculated.

上述のように計測対象物の形状の寸法等を計測するためには、まず計測する部分の形状に応じて、幅の場合には直線及び点のように必要なエッジ部分を検出する必要がある。そして、エッジ部分を検出するためには、エッジ部分を含む領域、例えば直線部分として検出する場合には直線部分を含む矩形領域、点として検出する場合には直線部分(スキャンライン)を適切に指定する必要がある。領域は、始点クリック、終点クリック、ドラッグ等、種々のマウス操作を駆使して指定しなければならない。したがって、画像上の計測対象物の計測では、実体である計測対象物を計測器を用いて計測するように直感的に操作することができないという問題があった。   In order to measure the dimension of the shape of the measurement object as described above, first, it is necessary to detect necessary edge portions such as straight lines and points in the case of width according to the shape of the portion to be measured. . In order to detect an edge portion, an area including an edge portion, for example, a rectangular region including a straight line portion when detecting as a straight portion, or a straight line portion (scan line) when detecting as a point is appropriately specified. There is a need to. The area must be specified using various mouse operations such as start point click, end point click, and drag. Therefore, in the measurement of the measurement object on the image, there is a problem that it is not possible to intuitively operate to measure the measurement object that is a substance using a measuring instrument.

簡単な操作でエッジを検出するため、例えば特許文献1では、画像上のマウスで指示された点の最も近傍に存在するエッジ点の座標を求め、求めたエッジ点を中心とするエッジ位置検出領域を設定する画像計測装置が開示されている。特許文献1では、操作者はマウスで1つの点を指示するだけでエッジ部分を含む領域を設定することができ、容易にエッジ部分を検出することができる。
特開平11−132740号公報
In order to detect an edge by a simple operation, for example, in Patent Document 1, the coordinates of an edge point that is closest to a point designated by a mouse on an image are obtained, and an edge position detection region centered on the obtained edge point An image measuring apparatus for setting the value is disclosed. In Patent Document 1, an operator can set an area including an edge portion by simply pointing one point with a mouse, and can easily detect the edge portion.
Japanese Patent Laid-Open No. 11-132740

しかし、上述のように簡単な操作でエッジ部分を含む領域を指定することができる場合であっても、前提として計測する部分の形状に応じて計測対象として必要なエッジ部分がどれであるのか明確に把握していなければ、必要なエッジ部分を含む領域を指定することができない。すなわち操作者が必要なエッジ部分を意識する必要があり、直感的な操作でエッジ部分を検出することはできない。   However, even if it is possible to specify an area including an edge portion by a simple operation as described above, it is clear which edge portion is necessary as a measurement target according to the shape of the portion to be measured as a premise. If this is not known, it is impossible to specify a region including a necessary edge portion. That is, the operator needs to be aware of the necessary edge portion, and the edge portion cannot be detected by an intuitive operation.

本発明は斯かる事情に鑑みてなされたものであり、実物の計測対象物の寸法を計測器で計測するように、画像上での直感的な操作により簡便に計測することができる画像計測装置及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image measuring apparatus capable of easily measuring an actual measurement target with an intuitive operation on an image so as to measure the size of the actual measurement object with a measuring instrument. And to provide a computer program.

上記目的を達成するために第1発明に係る画像計測装置は、計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置において、前記撮像素子にて結像して得られた計測対象物を示す画像と、該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像とを表示する表示手段と、前記計測器を示す画像は、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、前記計測部を示す画像は、前記本体部の長手方向の一方側又は両側に、前記計測対象部分のエッジを検出する検出部を示す画像を含み、画面上で、少なくとも一の前記計測部を示す画像を前記本体部を示す画像の長手方向に移動させる指示を受け付ける移動指示受付手段と、前記検出部を示す画像に対応する画像データの画面上の座標値と、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値とが一致するか否かを判断する位置判断手段と、該位置判断手段にて一致すると判断した場合、前記計測対象物の計測位置である旨の指示を受け付ける位置受付手段と、指示を受け付けた計測位置での画面上の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段とを備えることを特徴とする。   In order to achieve the above object, the image measuring apparatus according to the first aspect of the present invention is based on an image obtained by forming an image of the transmitted light or reflected light of the light irradiated on the measurement object on the image sensor. In the image measuring device for measuring the image, the image showing the measurement object obtained by imaging with the image sensor and the image showing the measuring instrument for measuring the distance between the measurement object parts on the image showing the measurement object And an image showing the measuring instrument are movable on the screen in the longitudinal direction of the main body portion and orthogonal to the main body portion. And an image showing two measurement units extending in the direction, and the image showing the measurement unit shows a detection unit for detecting an edge of the measurement target portion on one side or both sides in the longitudinal direction of the main body unit. Contains the image and on the screen at least one before Movement instruction receiving means for receiving an instruction to move an image indicating the measurement unit in the longitudinal direction of the image indicating the main body, coordinate values on the screen of image data corresponding to the image indicating the detection unit, and the measurement target portion A position determination means for determining whether or not the coordinate values on the screen of the image data corresponding to the image indicating the edge of the image coincide with each other, and the measurement position of the measurement object when the position determination means determines that they match And a position receiving means for receiving an instruction to the effect, and an actual value calculation means for calculating an actual value of the measurement target portion based on a coordinate value on the screen at the measurement position where the instruction is received. .

また、第2発明に係る画像計測装置は、計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置において、前記撮像素子にて結像して得られた計測対象物を示す画像と、該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像とを表示する表示手段と、前記計測器を示す画像は、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、前記計測部を示す画像は、前記本体部の長手方向の一方側に、前記計測対象部分のエッジを検出する検出部を示す画像を含み、画面上で、少なくとも一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付ける移動指示受付手段と、受け付けた指示に応じて前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得する位置取得手段と、取得した計測位置の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段とを備えることを特徴とする。   The image measurement apparatus according to the second aspect of the invention is an image measurement that measures the shape of a measurement object based on an image obtained by forming an image of transmitted light or reflected light of the light irradiated on the measurement object on an image sensor. In the apparatus, a display for displaying an image showing a measurement object obtained by imaging with the image sensor and an image showing a measuring instrument for measuring the distance of the measurement target portion on the image showing the measurement object The image showing the means and the measuring instrument is an image showing the main body stretched in a predetermined direction, and is movable on the screen in the longitudinal direction of the main body, and extends in a direction orthogonal to the main body 2 An image showing one measurement unit, and the image showing the measurement unit includes an image showing a detection unit for detecting an edge of the measurement target part on one side in the longitudinal direction of the main body unit. , An image showing at least one measurement unit is A movement instruction receiving means for receiving an instruction to move the image indicating the body part in a direction in which the image indicating the detection part is opposed to and approaches the image indicating the edge of the measurement target part; and according to the received instruction Based on the acquired coordinate value of the measurement position, the position acquisition means for acquiring the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion as the coordinate value of the measurement position of the measurement target And an actual measurement value calculating means for calculating an actual measurement value of the measurement target portion.

また、第3発明に係る画像計測装置は、前記移動指示受付手段は、一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に所定の距離移動させる指示を受け付けるようにしてあり、受け付けた指示に応じて前記検出部を示す画像が前記所定の距離移動する始点と終点との間に、前記計測対象部分のエッジを示す画像が存在するか否かを判断する計測対象存否判断手段を備え、前記位置取得手段は、前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在しないと判断した場合、前記終点を新たな始点とし、前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在すると判断した場合、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得するようにしてあることを特徴とする。   In the image measurement device according to the third aspect of the invention, the movement instruction accepting unit may measure the image indicating the one measurement unit, and the image indicating the detection unit in the longitudinal direction of the image indicating the main body unit. An instruction to move a predetermined distance in a direction facing and approaching an image indicating the edge of the target portion is received, and an image indicating the detection unit according to the received instruction includes a start point and an end point at which the predetermined distance moves. A measurement target presence / absence determination unit that determines whether or not there is an image indicating an edge of the measurement target portion, and the position acquisition unit uses the measurement target presence / absence determination unit to detect the edge of the measurement target portion. If it is determined that there is no image indicating the measurement target, the measurement target presence / absence determining means determines that there is an image indicating the edge of the measurement target portion. Wherein the screen coordinates of the image data corresponding to an image showing a partial edge are be acquired as the coordinate values of the measurement positions of the measurement object.

また、第4発明に係る画像計測装置は、第1乃至第3発明のいずれか1つにおいて、前記計測部を示す画像のうち、前記本体部の長手方向のいずれか一方側を前記検出部を示す画像として設定する指示を受け付ける設定指示受付手段を備えることを特徴とする。   An image measurement apparatus according to a fourth invention is the image measurement device according to any one of the first to third inventions, wherein, in the image showing the measurement unit, one of the longitudinal directions of the main body is disposed on the detection unit. The apparatus includes a setting instruction receiving unit that receives an instruction to set as an image to be displayed.

また、第5発明に係る画像計測装置は、第1乃至第4発明のいずれか1つにおいて、前記計測部を示す画像の延伸方向の長さを変更する指示又は延伸方向の位置を変更する指示を受け付ける伸縮指示受付手段を備えることを特徴とする。   An image measurement device according to a fifth aspect of the present invention is the image measurement device according to any one of the first to fourth aspects of the present invention, an instruction to change the length in the stretching direction of the image indicating the measurement unit or an instruction to change the position in the stretching direction An expansion / contraction instruction accepting means for accepting is provided.

また、第6発明に係る画像計測装置は、第1乃至第5発明のいずれか1つにおいて、前記表示手段は、前記実測値算出手段にて算出された実測値を前記本体部を示す画像上に表示するようにしてあることを特徴とする。   The image measurement apparatus according to a sixth aspect of the present invention is the image measurement apparatus according to any one of the first to fifth aspects, wherein the display unit displays the actual measurement value calculated by the actual measurement value calculation unit on the image indicating the main body. It is characterized by being displayed on.

次に、上記目的を達成するために第7発明に係るコンピュータプログラムは、計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置で実行することが可能なコンピュータプログラムにおいて、前記画像計測装置を、前記撮像素子にて結像して得られた計測対象物を示す画像と、該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像であって、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、前記計測部を示す画像が、前記本体部の長手方向の一方側又は両側に、前記計測対象部分のエッジを検出する検出部を示す画像を含む計測器を示す画像とを表示する表示手段、画面上で、少なくとも一の前記計測部を示す画像を前記本体部を示す画像の長手方向に移動させる指示を受け付ける移動指示受付手段、前記検出部を示す画像に対応する画像データの画面上の座標値と、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値とが一致するか否かを判断する位置判断手段、該位置判断手段にて一致すると判断した場合、前記計測対象物の計測位置である旨の指示を受け付ける位置受付手段、及び指示を受け付けた計測位置での画面上の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段として機能させることを特徴とする。   Next, in order to achieve the above object, a computer program according to a seventh aspect of the present invention provides a measurement object based on an image obtained by forming an image of transmitted light or reflected light of light irradiated on the measurement object on an image sensor. In the computer program that can be executed by the image measurement device that measures the shape of the image, an image showing the measurement object obtained by imaging the image measurement device with the image sensor, and the measurement object An image showing a measuring instrument for measuring a distance of a measurement target part on an image to be displayed, an image showing a main body part stretched in a predetermined direction, and movable on the screen in the longitudinal direction of the main body part, It consists of an image showing two measurement parts extending in a direction orthogonal to the main body part, and the image showing the measurement part detects the edge of the measurement target part on one side or both sides in the longitudinal direction of the main body part To detect Display means for displaying an image showing a measuring instrument including an image, a movement instruction accepting means for accepting an instruction to move an image showing at least one measurement section on the screen in the longitudinal direction of the image showing the main body section, Position for determining whether or not the coordinate value on the screen of the image data corresponding to the image indicating the detection unit matches the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion When it is determined by the determining means and the position determining means that the positions are coincident, based on the position receiving means for receiving an instruction indicating the measurement position of the measurement object and the coordinate value on the screen at the measurement position where the instruction is received It is made to function as an actual value calculation means for calculating an actual value of the measurement target portion.

また、第8発明に係るコンピュータプログラムは、計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置で実行することが可能なコンピュータプログラムにおいて、前記画像計測装置を、前記撮像素子にて結像して得られた計測対象物を示す画像と、該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像であって、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、前記計測部を示す画像が、前記本体部の長手方向の一方側又は両側に、前記計測対象部分のエッジを検出する検出部を示す画像を含む計測器を示す画像とを表示する表示手段、画面上で、少なくとも一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付ける移動指示受付手段、受け付けた指示に応じて前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得する位置取得手段、及び取得した計測位置の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段として機能させることを特徴とする。   According to an eighth aspect of the present invention, there is provided a computer program for measuring a shape of a measurement object based on an image obtained by forming an image of transmitted light or reflected light of light irradiated on the measurement object on an image sensor. In the computer program that can be executed by the image measuring device, an image of the measurement target obtained by forming an image on the image sensor and an image of the measurement target portion on the image showing the measurement target An image showing a measuring instrument for measuring a distance, an image showing a main body stretched in a predetermined direction, and movable on the screen in the longitudinal direction of the main body, and stretched in a direction perpendicular to the main body The image showing the two measurement units includes the image showing the detection unit for detecting the edge of the measurement target part on one side or both sides in the longitudinal direction of the main body unit. Show instrument Display means for displaying an image, an image showing at least one measurement unit on the screen, and an image showing the detection unit in the longitudinal direction of the image showing the main body part showing an edge of the measurement target portion A movement instruction receiving means for receiving an instruction to move in a direction facing and facing the image, and in accordance with the received instruction, a coordinate value on the screen of image data corresponding to an image indicating an edge of the measurement target portion It is characterized by functioning as a position acquisition unit that acquires the coordinate value of the measurement position, and an actual measurement value calculation unit that calculates the actual measurement value of the measurement target portion based on the acquired coordinate value of the measurement position.

また、第9発明に係るコンピュータプログラムは、第8発明において、前記移動指示受付手段を、一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に所定の距離移動させる指示を受け付ける手段として機能させ、前記画像計測装置を、受け付けた指示に応じて前記検出部を示す画像が前記所定の距離移動する始点と終点との間に、前記計測対象部分のエッジを示す画像が存在するか否かを判断する計測対象存否判断手段として機能させ、前記位置取得手段を、前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在しないと判断した場合、前記終点を新たな始点とし、前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在すると判断した場合、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得する手段として機能させることを特徴とする。   The computer program according to a ninth aspect is the computer program according to the eighth aspect, wherein the movement instruction accepting means indicates the image indicating the one measurement unit, and indicates the detection unit in the longitudinal direction of the image indicating the main body. The image functions as a means for receiving an instruction to move a predetermined distance in a direction facing and approaches the image indicating the edge of the measurement target portion, and the image indicating the detection unit is displayed according to the received instruction. It functions as a measurement target presence / absence determination unit that determines whether an image showing an edge of the measurement target portion exists between a start point and an end point that move the predetermined distance, and the position acquisition unit When the presence / absence determining unit determines that there is no image indicating the edge of the measurement target portion, the end point is set as a new start point, and the measurement target presence / absence determining unit determines the measurement target. When it is determined that there is an image showing the edge of the minute, it functions as means for acquiring the coordinate value on the screen of the image data corresponding to the image showing the edge of the measurement target portion as the coordinate value of the measurement position of the measurement target object It is characterized by making it.

また、第10発明に係るコンピュータプログラムは、第7乃至第9発明のいずれか1つにおいて、前記画像計測装置を、前記計測部を示す画像のうち、前記本体部の長手方向のいずれか一方側を前記検出部を示す画像として設定する指示を受け付ける設定指示受付手段として機能させることを特徴とする。   A computer program according to a tenth aspect of the present invention is the computer program according to any one of the seventh to ninth aspects, wherein the image measuring device is connected to either one of the images indicating the measuring unit in the longitudinal direction of the main body. It is made to function as a setting instruction | indication reception means which receives the instruction | indication which sets this as an image which shows the said detection part.

また、第11発明に係るコンピュータプログラムは、第7乃至第10発明のいずれか1つにおいて、前記画像計測装置を、前記計測部を示す画像の延伸方向の長さを変更する指示又は延伸方向の位置を変更する指示を受け付ける伸縮指示受付手段として機能させることを特徴とする。   The computer program according to an eleventh aspect of the invention is the computer program according to any one of the seventh to tenth aspects of the invention, wherein the image measuring device is configured to change the length in the stretching direction of the image indicating the measuring unit or the stretching direction. It is made to function as an expansion / contraction instruction receiving means for receiving an instruction to change the position.

また、第12発明に係るコンピュータプログラムは、第7乃至第11発明のいずれか1つにおいて、前記表示手段を、前記実測値算出手段にて算出された実測値を前記本体部を示す画像上に表示する手段として機能させることを特徴とする。   A computer program according to a twelfth aspect of the present invention is the computer program according to any one of the seventh to eleventh aspects, wherein the display unit displays the actual measurement value calculated by the actual measurement value calculation unit on an image showing the main body. It functions as a means for displaying.

第1発明及び第7発明では、計測対象物を示す画像と計測部及び本体部で構成される計測器を示す画像とを表示し、少なくとも一の計測部を示す画像を本体部を示す画像の長手方向に移動させる指示を受け付ける。計測部における検出部を示す画像に対応する画像データの画面上の座標値と、計測対象物の計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値とが一致するか否かを判断する。一致する場合には計測対象物の計測位置である旨の指示を受け付け、指示を受け付けた計測位置の画面上の座標値に基づいて計測対象部分の実測値を算出する。したがって、検出部を示す画像を計測対象物のエッジを示す画像に接するように画面上で移動するだけで、計測対象物の寸法を計測器で実際に計測するような直感的な操作により計測対象物を計測することができる。   In the first invention and the seventh invention, an image showing a measurement object and an image showing a measuring instrument composed of a measurement part and a main part are displayed, and an image showing at least one measurement part is displayed as an image showing the main part. An instruction to move in the longitudinal direction is received. Whether the coordinate value on the screen of the image data corresponding to the image indicating the detection unit in the measurement unit matches the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion of the measurement target Determine whether. If they match, an instruction to the effect that it is the measurement position of the measurement object is received, and an actual measurement value of the measurement target part is calculated based on the coordinate value on the screen of the measurement position at which the instruction is received. Therefore, by simply moving the image showing the detection unit on the screen so that it touches the image showing the edge of the measurement object, the measurement object can be measured by an intuitive operation that actually measures the dimensions of the measurement object using a measuring instrument. Things can be measured.

第2発明及び第8発明では、計測対象物の画像データと計測部及び本体部で構成される計測器の画像データとを表示し、一の計測部を示す画像を本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付ける。受け付けた指示に応じて計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を計測対象物の計測位置の座標値として取得し、取得した座標値に基づいて計測対象部分の実測値を算出する。したがって、検出部を示す画像を計測対象物のエッジを示す画像に向けて移動するだけで、検出部を示す画像を計測対象物のエッジを示す画像に接するよう正確に操作することなく接するよう、画面上で微調整することなく表示することができ、計測対象物の寸法を実際の計測器で計測するように、画面上での直感的な操作により計測対象物を簡便かつ迅速に計測することができる。   In the second and eighth aspects of the invention, the image data of the measurement object and the image data of the measuring instrument composed of the measurement unit and the main body are displayed, and the image indicating one measurement unit is represented by the length of the image indicating the main body. An instruction to move the image in the direction and approaching the image indicating the detection unit to face the image indicating the edge of the measurement target portion is received. The coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target part is acquired as the coordinate value of the measurement position of the measurement target according to the received instruction, and the measurement target part of the measurement target part is acquired based on the acquired coordinate value. Calculate the measured value. Therefore, only by moving the image showing the detection unit toward the image showing the edge of the measurement object, the image showing the detection unit touches the image showing the edge of the measurement object without touching the image accurately. It can be displayed on the screen without fine adjustment, and the measurement object can be measured easily and quickly by intuitive operation on the screen so that the dimensions of the measurement object can be measured with an actual measuring instrument. Can do.

第3発明及び第9発明では、一の計測部を示す画像を、本体部を示す画像の長手方向であって、検出部を示す画像が計測対象部分のエッジを示す画像に対向して近づく方向に所定の距離移動させる指示を受け付け、計測部の検出部を示す画像が所定の距離移動する始点と終点との間に、計測対象部分のエッジを示す画像が存在するか否かを判断する。計測対象部分のエッジを示す画像が存在すると判断した場合、計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を計測対象物の計測位置の座標値として取得し、取得した座標値に基づいて計測対象部分の実測値を算出する。したがって、検出部を示す画像を計測対象物のエッジを示す画像に向けて所定の距離だけ数回移動すれば、検出部を示す画像を計測対象物のエッジを示す画像に接するように表示することができ、計測対象物の寸法をより実際の計測器で計測する場合と同じような感覚で計測対象物を計測することができる。   In the third and ninth inventions, an image showing one measurement unit is a longitudinal direction of an image showing a main body, and an image showing a detection unit is opposed to an image showing an edge of a measurement target portion. An instruction for moving a predetermined distance is received, and it is determined whether or not an image indicating the edge of the measurement target portion exists between the start point and the end point where the image indicating the detection unit of the measurement unit moves by a predetermined distance. When it is determined that there is an image showing the edge of the measurement target part, the coordinate value on the screen of the image data corresponding to the image showing the edge of the measurement target part is acquired as the coordinate value of the measurement position of the measurement target and acquired. Based on the coordinate value, an actual measurement value of the measurement target portion is calculated. Therefore, if the image indicating the detection unit is moved several times a predetermined distance toward the image indicating the edge of the measurement object, the image indicating the detection unit is displayed so as to be in contact with the image indicating the edge of the measurement object. It is possible to measure the measurement object with the same feeling as when measuring the dimensions of the measurement object with an actual measuring instrument.

第4発明及び第10発明では、計測部を示す画像のうち、本体部の長手方向のいずれか一方側を検出部を示す画像として設定する指示を受け付ける。画面上では、2つの計測部それぞれに検出部として2箇所、すなわち本体部の長手方向のいずれかに設定することができる。したがって、2つの計測部それぞれにいずれかを検出部として設定することにより、検出部が互いに対向する場合、互いに反対方向を向く場合、どちらも同じ方向を向く(左右)場合の4種類のバリエーションを設定することができる。したがって、計測対象物の形状に応じて適切に設定することで、実物の計測器では計測不可能な計測対象部分であっても確実に計測することができる。   In the fourth invention and the tenth invention, an instruction to set any one side in the longitudinal direction of the main body portion as an image showing the detection portion among images showing the measurement portion is accepted. On the screen, each of the two measurement units can be set as two detection units, that is, in any one of the longitudinal directions of the main body unit. Therefore, by setting one of the two measurement units as a detection unit, when the detection units face each other, when facing in opposite directions, both of them are facing the same direction (left and right), the four types of variations Can be set. Therefore, by appropriately setting according to the shape of the measurement object, even a measurement object portion that cannot be measured by a real measuring instrument can be reliably measured.

第5発明及び第11発明では、計測部を示す画像の延伸方向の長さを変更する指示又は延伸方向の位置を変更する指示を受け付けることにより、計測対象部分の形状に合わせて両方の計測部の長短を変更して、検出部をエッジに接しているか否かを目視でより確認しやすいように変形することができる。また、一方の計測部を他方の計測部より長くすることで、例えば階段状形状の各段の段差を計測する場合等には、各段を示す画像上に直接2つの計測部の各検出部を接するように計測部の長さを調整することで、各段ごとの段差を正確に計測することができる。したがって、実物の計測器では計測が困難な形状であっても直接かつ正確に計測することができる。   In 5th invention and 11th invention, by receiving the instruction | indication which changes the length of the extending | stretching direction of the image which shows a measuring part, or the instruction | indication which changes the position of an extending | stretching direction, both measuring parts are match | combined with the shape of a measurement object part. The length can be changed so that it is easier to visually confirm whether or not the detection unit is in contact with the edge. In addition, by making one measurement unit longer than the other measurement unit, for example, when measuring the step of each step in a stepped shape, each detection unit of the two measurement units directly on the image showing each step By adjusting the length of the measurement unit so as to touch, the step for each step can be accurately measured. Therefore, even if the shape is difficult to measure with a real measuring instrument, it can be directly and accurately measured.

第6発明及び第12発明では、算出された実測値を本体部を示す画像上に表示することにより、実物の計測対象物の寸法を計測器で計測する場合と同様、画面上で計測器を示す画像を用いて計測対象物を計測しながら、計測した距離を即座に把握することができる。   In the sixth invention and the twelfth invention, by displaying the calculated actual measurement value on the image showing the main body, the measuring instrument is displayed on the screen in the same manner as when measuring the dimensions of the actual measuring object with the measuring instrument. The measured distance can be immediately grasped while measuring the measurement object using the image shown.

上記構成によれば、計測器の検出部を示す画像を計測対象物のエッジを示す画像に接するよう操作するだけで、計測対象物の寸法を実際の計測器で計測するように、画像上で直感的な操作により簡便に計測することができる画像計測装置及びコンピュータプログラムを提供することが可能となる。   According to the above configuration, just by operating the image indicating the detection unit of the measuring instrument so as to touch the image indicating the edge of the measuring object, the dimension of the measuring object is measured on the image so as to be measured by the actual measuring instrument. It is possible to provide an image measurement device and a computer program that can be easily measured by an intuitive operation.

以下、本発明の実施の形態に係る画像計測装置について、図面に基づいて具体的に説明する。   Hereinafter, an image measuring device according to an embodiment of the present invention will be specifically described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像計測装置の構成を示す模式図である。図1に示すように本実施の形態1に係る画像計測装置1は、計測ユニット2と制御ユニット3とで構成されており、計測ユニット2にて撮像された画像データを制御ユニット3にて演算処理して、所望の形状の寸法等を計測する。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration of an image measurement apparatus according to Embodiment 1 of the present invention. As shown in FIG. 1, the image measurement apparatus 1 according to the first embodiment includes a measurement unit 2 and a control unit 3. The control unit 3 calculates image data captured by the measurement unit 2. Process and measure the dimensions of the desired shape.

計測ユニット2は、計測対象物20を計測対象部分へ移動させるステージ21を挟んで2組の照明装置が設置されている。まずステージ21上の計測対象物20を上方から照らすリング状の落射照明装置22が受光レンズユニット23に設置されている。落射照明装置22で照射された光は、計測対象物20の表面で反射して、受光レンズユニット23へ戻ってくる。これにより、計測対象物20の表面の凹凸、パターン等を撮像することができる。   In the measurement unit 2, two sets of illumination devices are installed with a stage 21 that moves the measurement object 20 to the measurement target portion. First, a ring-shaped epi-illumination device 22 that illuminates the measurement object 20 on the stage 21 from above is installed in the light receiving lens unit 23. The light irradiated by the epi-illumination device 22 is reflected by the surface of the measurement object 20 and returns to the light receiving lens unit 23. Thereby, the unevenness | corrugation of the surface of the measurement target object 20, a pattern, etc. can be imaged.

また、ステージ21の下方には、計測対象物20を下方から照らす透過照明装置24が設置されている。透過照明装置24は、少なくとも光源241、反射機構242及びレンズ243で構成されており、光源241から照射された光を反射機構242にてステージ21側へ反射させ、レンズ243にてステージ21に対して略直交する方向の平行光へと変換する。これにより、計測対象物20が存在しない位置の光のみ透過して撮像することができる。   A transmission illumination device 24 that illuminates the measurement target 20 from below is installed below the stage 21. The transmitted illumination device 24 includes at least a light source 241, a reflection mechanism 242, and a lens 243. The light emitted from the light source 241 is reflected by the reflection mechanism 242 toward the stage 21, and the lens 243 reflects the stage 21. To be converted into parallel light in a direction substantially perpendicular to each other. Thereby, only the light of the position where the measuring object 20 does not exist can be transmitted and imaged.

受光レンズユニット23は、少なくとも受光レンズ231、ビームスプリッタ232、高倍側結像レンズ部233、低倍側結像レンズ部236を備えている。高倍側結像レンズ部233は、結像するためのスリット234及び高倍側結像レンズ235で構成され、低倍側結像レンズ部236は、結像するためのスリット237及び低倍側結像レンズ238で構成されている。ビームスプリッタ232は、受光レンズ231からの光を二方向に分岐するプリズムである。例えばキューブ型、プレート型を使用することができる。キューブ型ビームスプリッタは、プレート型と比較して、ビームスプリッタを通過した光が屈折することがないので光軸がずれず、分岐角度のアライメント調整が容易なため好ましい。   The light receiving lens unit 23 includes at least a light receiving lens 231, a beam splitter 232, a high magnification side imaging lens unit 233, and a low magnification side imaging lens unit 236. The high-magnification side imaging lens unit 233 includes a slit 234 for imaging and a high-magnification side imaging lens 235, and the low-magnification side imaging lens unit 236 includes a slit 237 for imaging and a low-magnification side imaging. A lens 238 is used. The beam splitter 232 is a prism that branches light from the light receiving lens 231 in two directions. For example, a cube type or a plate type can be used. Compared with the plate type, the cube type beam splitter is preferable because the light passing through the beam splitter is not refracted, the optical axis is not shifted, and alignment adjustment of the branch angle is easy.

図1では、落射照明装置22から発光した光が計測対象物20で反射した光及び透過照明装置24から発光して計測対象物20を透過した光を、高倍側結像レンズ部233及び低倍側結像レンズ部236へ誘導する一例を示している。ビームスプリッタ232により分岐された二方向の光は、低倍側結像レンズ部236及び高倍側結像レンズ部233の双方へ誘導される。   In FIG. 1, the light emitted from the epi-illumination device 22 is reflected by the measurement object 20 and the light emitted from the transmission illumination device 24 and transmitted through the measurement object 20 is divided into the high-magnification imaging lens unit 233 and the low magnification. An example of guiding to the side imaging lens unit 236 is shown. The light in two directions branched by the beam splitter 232 is guided to both the low magnification side imaging lens unit 236 and the high magnification side imaging lens unit 233.

高倍側の撮像装置25は、高倍側結像レンズ部233へ誘導された光をCCD、CMOS等の撮像素子251で結像させ、高倍画像データとして制御ユニット3へ送信する。同様に低倍側の撮像装置26は、低倍側結像レンズ部236へ誘導された光をCCD、CMOS等の撮像素子261で結像させ、低倍画像データとして制御ユニット3へ送信する。上述の受光レンズ231及びビームスプリッタ232による二分岐光学系の構成により、光学系を機械的に切り替えることなく高倍画像データと低倍画像データとを同時に取得することができる。両画像データは電子的に切り替えて1つの画面上に表示することができ、また2つの画面上に別個に同時に表示することもできる。   The high-magnification side imaging device 25 causes the light guided to the high-magnification side imaging lens unit 233 to be imaged by an imaging element 251 such as a CCD or CMOS, and transmits the image to the control unit 3 as high-magnification image data. Similarly, the low-magnification side imaging device 26 causes the light guided to the low-magnification side imaging lens unit 236 to be imaged by an imaging element 261 such as a CCD or CMOS, and transmits it to the control unit 3 as low-magnification image data. With the above-described configuration of the two-branch optical system including the light receiving lens 231 and the beam splitter 232, high-magnification image data and low-magnification image data can be acquired simultaneously without mechanically switching the optical system. Both image data can be electronically switched and displayed on one screen, or can be displayed separately on two screens simultaneously.

図2は、本発明の実施の形態1に係る画像計測装置1の制御ユニット3の構成を示すブロック図である。図2に示すように本実施の形態1に係る画像計測装置1の制御ユニット3は、少なくともCPU(中央演算装置)33、メモリ等の記憶装置34、通信手段35及び上述したハードウェアを接続する内部バス36で構成されている。内部バス36を介して、入力装置であるマウス32、キーボード31、出力装置である表示装置27にも接続されている。   FIG. 2 is a block diagram showing the configuration of the control unit 3 of the image measurement apparatus 1 according to Embodiment 1 of the present invention. As shown in FIG. 2, the control unit 3 of the image measuring apparatus 1 according to the first embodiment connects at least a CPU (central processing unit) 33, a storage device 34 such as a memory, communication means 35, and the above-described hardware. An internal bus 36 is used. Via an internal bus 36, the input device is also connected to a mouse 32, a keyboard 31, and a display device 27, which is an output device.

CPU33は、内部バス36を介して制御ユニット3の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置34に記憶されているコンピュータプログラムに従って、種々のソフトウェア的機能を実行する。記憶装置34は、例えばSRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラムの実行時にロードモジュールが展開され、コンピュータプログラムの実行時に発生する一時的なデータ等を記憶する。   The CPU 33 is connected to the hardware units as described above of the control unit 3 through the internal bus 36, controls the operation of the hardware units described above, and according to the computer program stored in the storage device 34. Perform various software functions. The storage device 34 is composed of, for example, a volatile memory such as SRAM or SDRAM, and a load module is developed when the computer program is executed, and stores temporary data generated when the computer program is executed.

通信手段35は内部バス36に接続されており、通信線を介して撮像装置25、26に接続され、撮像装置25、26で撮像された画像データを受信する。また、インターネット、LAN、WAN等の外部のネットワークに接続されることにより、外部のコンピュータ等ともデータ送受信を行うことが可能となる。なお、記憶装置34に記憶されているコンピュータプログラムは、通信手段35を介して外部コンピュータからダウンロードされる。   The communication unit 35 is connected to the internal bus 36, is connected to the imaging devices 25 and 26 via a communication line, and receives image data captured by the imaging devices 25 and 26. Further, by being connected to an external network such as the Internet, a LAN, or a WAN, data can be transmitted / received to / from an external computer or the like. Note that the computer program stored in the storage device 34 is downloaded from an external computer via the communication means 35.

制御ユニット3のCPU33は、撮像装置25及び撮像装置26で撮像して得られた計測対象物20の画像データを記憶する記憶手段331、計測対象物20の画像データと計測器の画像データとを表示装置27に表示する表示手段332、画面上で計測器を示す画像を移動させる指示を受け付ける移動指示受付手段333、計測器の検出部の画面上の座標値と、計測対象物20の計測対象部分のエッジの画面上の座標値とが一致するか否かを判断する位置判断手段334、一致すると判断した場合、計測対象物の計測位置である旨の指示を受け付ける位置受付手段335、指示を受け付けた計測位置の画面上の座標値に基づいて計測対象部分の実測値を算出する実測値算出手段336として機能する。   The CPU 33 of the control unit 3 stores the image data of the measurement target 20 obtained by imaging with the imaging device 25 and the imaging device 26, and stores the image data of the measurement target 20 and the image data of the measuring instrument. Display means 332 displayed on the display device 27, movement instruction accepting means 333 for accepting an instruction to move the image showing the measuring instrument on the screen, the coordinate values on the screen of the detecting unit of the measuring instrument, and the measurement target of the measuring object 20 A position determination unit 334 that determines whether or not the coordinate values on the screen of the edge of the part match, a position reception unit 335 that receives an instruction indicating that the measurement object is a measurement position when it is determined to match, and an instruction It functions as an actual measurement value calculation means 336 that calculates an actual measurement value of the measurement target portion based on the coordinate value on the screen of the received measurement position.

またCPU33は、計測対象存否判断手段338、並びに計測対象存否判断手段338の判断に基づいて計測対象物20の計測位置の座標値を取得する位置取得手段339としても機能する。CPU33は、さらに計測器の計測部において検出部をいずれか一方側に設定する指示を受け付ける設定指示受付手段341及び計測器の計測部の長さを変更する指示を受け付ける伸縮指示受付手段342としても機能する。なお、計測対象存否判断手段338及び位置取得手段339の詳細については後述する。   The CPU 33 also functions as a measurement target presence / absence determination unit 338 and a position acquisition unit 339 that acquires the coordinate value of the measurement position of the measurement target 20 based on the determination by the measurement target presence / absence determination unit 338. The CPU 33 also serves as a setting instruction receiving unit 341 that receives an instruction to set the detection unit to one of the measurement units of the measuring instrument and an expansion / contraction instruction receiving unit 342 that receives an instruction to change the length of the measuring unit of the measuring instrument. Function. Details of the measurement target presence / absence determination unit 338 and the position acquisition unit 339 will be described later.

記憶手段331は、落射画像データ及び透過画像データを互いに位置合わせをした状態で記憶装置34に記憶する。ここで位置合わせとは、表示画面における座標位置を落射画像と透過画像との間で一致させることを意味する。位置合わせをした2種の画像データを記憶しておくことにより、指定を受け付けたエッジ検出領域に応じて、適切な画像データを選択することができる。計測対象物20の外形の形状を計測する場合、外形を示す輪郭線の部分の寸法等を計測するために最適な透過画像データを利用することができる。また、計測対象物20の表面の凹凸として形成された形状についても、透過画像データと同様に落射画像データを処理することにより計測することができる。   The storage unit 331 stores the incident image data and the transmission image data in the storage device 34 in a state where they are aligned with each other. Here, the alignment means that the coordinate position on the display screen is matched between the incident image and the transmission image. By storing the two types of image data that have been aligned, it is possible to select appropriate image data in accordance with the edge detection region for which the designation has been received. When measuring the shape of the outer shape of the measuring object 20, optimal transmission image data can be used to measure the dimension of the contour line portion indicating the outer shape. Further, the shape formed as the irregularities on the surface of the measurement object 20 can also be measured by processing the incident image data in the same manner as the transmission image data.

表示手段332は、通信手段35にて受信した透過画像データ又は落射画像データを、LCD、有機ELディスプレイ等の表示装置27で透過画像又は落射画像として表示させる。図3は、表示手段332が計測対象物20及び計測器28の画像データを表示する画面の一例を示す例示図である。図3(a)は計測前の表示状態を、図3(b)は計測中の表示状態を、それぞれ示している。図4は、計測のための操作状態を説明する模式図である。図3(a)に示すように、計測器28を示す画像は、所定の方向に延伸した本体部281を示す画像と、本体部281の長手方向に画面上で移動可能であり、本体部281と直交する方向に延伸する2つの計測部282を示す画像とで構成される。   The display unit 332 displays the transmission image data or the incident image data received by the communication unit 35 as a transmission image or an incident image on the display device 27 such as an LCD or an organic EL display. FIG. 3 is an exemplary diagram illustrating an example of a screen on which the display unit 332 displays the image data of the measurement target 20 and the measuring instrument 28. FIG. 3A shows a display state before measurement, and FIG. 3B shows a display state during measurement. FIG. 4 is a schematic diagram for explaining an operation state for measurement. As shown in FIG. 3A, the image showing the measuring instrument 28 is movable on the screen in the longitudinal direction of the main body 281 and the image showing the main body 281 stretched in a predetermined direction. And an image showing two measuring units 282 extending in a direction orthogonal to the direction.

移動指示受付手段333は、画像上で計測器28を移動させる指示を受け付ける。具体的には、図3(a)及び(b)に示すように、計測器28全体を移動させる指示だけでなく、少なくとも一の計測部282を示す画像を本体部281を示す画像の長手方向に移動させる指示を受け付ける。図3の例では計測部282Rが移動し、計測部282Lは本体部281に固定されている画像を表示しているが、両方の計測部282が移動可能な画像を表示するようにしても良い。   The movement instruction receiving unit 333 receives an instruction to move the measuring instrument 28 on the image. Specifically, as shown in FIGS. 3A and 3B, not only an instruction to move the entire measuring instrument 28 but also an image showing at least one measuring unit 282 is displayed in the longitudinal direction of the image showing the main body 281. An instruction to move to is accepted. In the example of FIG. 3, the measuring unit 282R moves and the measuring unit 282L displays an image fixed to the main body unit 281, but both measuring units 282 may display a movable image. .

図4(a)に示す状態から、例えばマウスのボタンを押下した状態で移動する(以下ドラッグという)ことにより、画像上で計測部282Rを示す画像を本体部281を示す画像の長手方向に移動させる指示を移動指示受付手段333が受け付ける。図4(b)に示すように、画面上で計測部282Rの検出部283を示す画像がエッジ285を示す画像に接する位置で、例えばドラッグを終了し、位置判断手段334が検出部283の画面上の座標値とエッジの画面上の座標値とが一致すると判断した場合、位置受付手段335が計測対象物20の計測位置である旨の指示を受け付ける。   From the state shown in FIG. 4A, for example, by moving with the mouse button pressed (hereinafter referred to as dragging), the image showing the measuring unit 282R is moved on the image in the longitudinal direction of the image showing the main body 281. The movement instruction receiving means 333 receives an instruction to do so. As shown in FIG. 4B, at the position where the image showing the detection unit 283 of the measurement unit 282R touches the image showing the edge 285 on the screen, for example, the drag ends, and the position determination unit 334 displays the screen of the detection unit 283. When it is determined that the upper coordinate value matches the coordinate value on the edge screen, the position receiving unit 335 receives an instruction indicating that the measurement target 20 is the measurement position.

同様に、計測部282Lを示す画像を移動させる指示を移動指示受付手段333が受け付け、図4(c)に示すように、計測部282Lの検出部283を示す画像がエッジ285を示す画像に接する位置で、位置判断手段334が検出部283の画面上の座標値とエッジの画面上の座標値とが一致すると判断した場合、位置受付手段335が計測対象物20の計測位置である旨の指示を受け付ける。そして、指示を受け付けた計測位置、即ち両方のエッジの画面上の座標値に基づいて実測値算出手段336が計測対象部分284の実測値を算出する。   Similarly, the movement instruction receiving means 333 receives an instruction to move the image showing the measurement unit 282L, and the image showing the detection unit 283 of the measurement unit 282L touches the image showing the edge 285 as shown in FIG. If the position determination unit 334 determines that the coordinate value on the screen of the detection unit 283 matches the coordinate value on the edge screen, the position reception unit 335 indicates that the measurement target 20 is the measurement position. Accept. Then, the actual measurement value calculation means 336 calculates the actual measurement value of the measurement target portion 284 based on the measurement position where the instruction is received, that is, the coordinate values on the screen of both edges.

なお、図3には計測器28の例としてノギスを示しているが、2点の位置から距離を計測する計測器28であればノギスに限定されず、マイクロメータ等であっても良い。また、図3(b)に示すように計測対象物20上に計測器28を重ねて表示する場合、計測対象物20を隠さないように計測器28を所定の透過率で表示するようにしても良い。   In FIG. 3, a caliper is shown as an example of the measuring device 28, but the measuring device 28 is not limited to the caliper and may be a micrometer or the like as long as the measuring device 28 measures the distance from two positions. In addition, when the measurement device 28 is displayed on the measurement object 20 as shown in FIG. 3B, the measurement device 28 is displayed with a predetermined transmittance so as not to hide the measurement object 20. Also good.

計測器28全体及び計測部282は、マウスでドラッグする他、マウスホイールの回転、キーボードからの入力に応じて移動させるようにしても良い。計測器28全体を移動させる場合、例えばマウスで本体部281をドラッグする。マウスホイールの回転によって計測部282を移動する場合、マウスを一方の計測部282上に置いてマウスホイールを例えば奥へ回すと他方の計測部282へ近づき、手前へ回すと遠ざかるように本体部281の長手方向に移動させる。また、マウスホイールの回転によって計測部282を区別することなく、マウスホイールを例えば奥へ回すと両方の計測部282が近づき、手前へ回すと遠ざかるようにしても良い。   The entire measuring device 28 and the measuring unit 282 may be moved in accordance with the rotation of the mouse wheel or the input from the keyboard, in addition to dragging with the mouse. When the entire measuring instrument 28 is moved, for example, the main body 281 is dragged with a mouse. When moving the measurement unit 282 by rotating the mouse wheel, the mouse unit is placed on one measurement unit 282 and the mouse wheel is turned to the back, for example, to approach the other measurement unit 282, and to the front to move away from the main body unit 281. Is moved in the longitudinal direction. Moreover, without distinguishing the measurement part 282 by rotation of a mouse wheel, when the mouse wheel is turned to the back, for example, both measurement parts 282 may approach, and when it turns to the front, it may be made to go away.

さらに計測器28全体及び計測部282の他の移動方法として、表示装置27に計測器28としてノギス等の画像が表示されている場合には、計測器28、計測部282等を示す画像をマウスでドラッグする必要がなく、マウスホイールを回転させることにより一方の計測部282を示す画像がエッジ285を示す画像に近づくように移動し、さらに継続してマウスホイールを回転させた場合には、一方の計測部282を示す画像がエッジ285を示す画像に接したまま、他方の計測部282を示す画像がエッジ285を示す画像に近づくように、画像の移動を制御しても良い。   Further, as another movement method of the entire measuring instrument 28 and the measuring unit 282, when an image such as a caliper is displayed as the measuring instrument 28 on the display device 27, an image showing the measuring instrument 28, the measuring unit 282, etc. is displayed as a mouse. When the mouse wheel is rotated, the image showing one measurement unit 282 moves so as to approach the image showing the edge 285, and when the mouse wheel is further rotated, The movement of the image may be controlled so that the image showing the other measurement unit 282 approaches the image showing the edge 285 while the image showing the measurement unit 282 is in contact with the image showing the edge 285.

上述のように、画面上でのマウス操作によって、計測部282を示す画像を本体部281を示す画像の長手方向に移動させ、検出部283を示す画像がエッジ285を示す画像に接するようにするだけで、実物の計測対象物の寸法を計測器で計測するように、画像上で直感的な操作によって計測対象物20を簡便に計測することができる。   As described above, the image showing the measurement unit 282 is moved in the longitudinal direction of the image showing the main body unit 281 by the mouse operation on the screen so that the image showing the detection unit 283 is in contact with the image showing the edge 285. Thus, the measurement object 20 can be easily measured by an intuitive operation on the image so that the dimension of the actual measurement object is measured by the measuring instrument.

なお、検出部283をエッジ285に接するようにする操作を簡便にするために、本実施の形態1では、検出部283の画像データを、計測部282において本体部281の長手方向の一方側に検出部283を有する画像データとし、移動指示受付手段333は、検出部283を示す画像を本体部281を示す画像の長手方向であって検出部283を示す画像が計測対象部分のエッジ285を示す画像に対向して近づく方向に所定の距離だけ移動させる指示を受け付ける。   In order to simplify the operation of bringing the detection unit 283 into contact with the edge 285, in the first embodiment, the image data of the detection unit 283 is transferred to one side in the longitudinal direction of the main body 281 in the measurement unit 282. The movement instruction receiving means 333 uses the image indicating the detection unit 283 as the image data including the detection unit 283, and the image indicating the detection unit 283 indicates the edge 285 of the measurement target portion. An instruction to move the image by a predetermined distance in a direction approaching the image is received.

所定の距離移動させる指示により、計測対象存否判断手段338が、検出部283を示す画像が所定の距離移動する始点と終点との間に、エッジ285が存在するか否かを判断する。すなわち、エッジ285が存在する場合には、検出部283を示す画像がエッジ285を示す画像を超えて移動すると判断することができ、エッジ285が存在しない場合には検出部283を示す画像がエッジ285を示す画像を超えて移動することがないと判断することができる。計測対象存否判断手段338にて計測対象部分のエッジ285が存在すると判断した場合、エッジ285を示す画像の画像データに基づいて、エッジ285の画面上の座標値を計測位置の座標値として取得する。   In response to an instruction to move a predetermined distance, the measurement target presence / absence determining unit 338 determines whether an edge 285 exists between the start point and the end point where the image indicating the detection unit 283 moves by a predetermined distance. That is, when the edge 285 exists, it can be determined that the image showing the detection unit 283 moves beyond the image showing the edge 285, and when the edge 285 does not exist, the image showing the detection unit 283 becomes an edge. It can be determined that the image does not move beyond the image indicating H.285. When the measurement target presence / absence determination unit 338 determines that the edge 285 of the measurement target portion exists, the coordinate value on the screen of the edge 285 is acquired as the coordinate value of the measurement position based on the image data of the image indicating the edge 285. .

計測対象存否判断手段338にて計測対象部分のエッジ285が存在しないと判断した場合には、検出部283の移動の終点を新たな始点とする。なお、所定の距離は、マウス等でドラッグする距離としても良いし、マウス等でドラッグした距離に関係なく、ドラッグしたことによって予め定めた所定の距離だけ移動する指示を受け付けるようにしても良い。   When the measurement target existence determination unit 338 determines that the edge 285 of the measurement target portion does not exist, the end point of the movement of the detection unit 283 is set as a new start point. The predetermined distance may be a distance dragged with a mouse or the like, or an instruction to move a predetermined distance by dragging may be accepted regardless of the distance dragged with the mouse or the like.

図5乃至図7は、画面上で計測器28を用いて計測対象物20を計測する過程の各状態を示す例示図である。図5(a)は計測対象物20に計測器28を近づけた状態を、図5(b)は計測対象部分284の寸法方向に本体部281の長手方向を合わせた状態を、図6(c)は計測対象部分284の寸法より広く2つの計測部282を広げた状態を、図6(d)は計測部282Rの検出部283をエッジ285に接するようにした状態を、図7(e)は計測部282Lの検出部283をエッジ285に接するようにしている状態を、図7(f)は2つの計測部282の検出部283が計測対象部分284の2つのエッジ285に接するようにした状態を、それぞれ示す。図8は、計測部282及び計測器28全体について回転方向及び移動距離の制約の説明図である。図8(a)は移動距離の制約を、図8(b)は回転方向の制約を、それぞれ示す。   FIGS. 5 to 7 are exemplary diagrams showing each state in the process of measuring the measurement target 20 using the measuring instrument 28 on the screen. 5A shows a state in which the measuring instrument 28 is brought close to the measurement object 20, and FIG. 5B shows a state in which the longitudinal direction of the main body 281 is aligned with the dimension direction of the measurement target portion 284. FIG. ) Shows a state in which the two measurement units 282 are expanded wider than the measurement target portion 284, and FIG. 6D shows a state in which the detection unit 283 of the measurement unit 282R is in contact with the edge 285. FIG. 7 shows a state in which the detection unit 283 of the measurement unit 282L is in contact with the edge 285, and in FIG. 7F, the detection unit 283 of the two measurement units 282 is in contact with the two edges 285 of the measurement target portion 284. Each state is shown. FIG. 8 is an explanatory diagram of restrictions on the rotation direction and the movement distance for the measuring unit 282 and the measuring instrument 28 as a whole. FIG. 8A shows the restriction on the movement distance, and FIG. 8B shows the restriction on the rotation direction.

図5(a)乃至図7(f)の例では、一方の計測部282Lは本体部281に固定され、2つの計測部282の各検出部283は本体部281の長手方向に対して互いに向き合う側に存在している。図5(a)に示すように計測器28全体を移動させることによって計測対象物20に計測器28を近づける。計測部282Lの検出部283は、計測対象部分284に重ならないように移動させる。図5(b)に示すように計測器28全体を画面上で回転させることによって計測対象部分284の寸法方向に本体部281の長手方向を合わせる。計測部282Lの検出部283は、計測対象部分284に重ならず対向している。   5A to 7F, one measurement unit 282L is fixed to the main body unit 281, and the detection units 283 of the two measurement units 282 face each other with respect to the longitudinal direction of the main body unit 281. Exists on the side. As shown in FIG. 5A, the measuring instrument 28 is moved closer to the measuring object 20 by moving the entire measuring instrument 28. The detection unit 283 of the measurement unit 282L is moved so as not to overlap the measurement target portion 284. As shown in FIG. 5B, the longitudinal direction of the main body 281 is aligned with the dimension direction of the measurement target portion 284 by rotating the entire measuring instrument 28 on the screen. The detection unit 283 of the measurement unit 282L faces the measurement target portion 284 without overlapping.

図6(c)に示すように2つの計測部282の間隔が計測対象部分284の寸法より広くなるように計測部282Rを広げる。図6(d)及び図8(a)に示すように、例えばマウスホイールの回転により、画面上で、計測部282Rを本体部281の長手方向であって検出部283を示す画像が計測対象部分のエッジ285を示す画像に対向して近づく方向に距離移動させる指示を移動指示受付手段333が受け付ける。移動指示受付手段333が受け付けた指示により、計測対象存否判断手段338が、検出部283を示す画像が所定の距離移動する始点と終点との間に、エッジ285を示す画像が存在するか否かを判断する。   As shown in FIG. 6C, the measurement unit 282R is expanded so that the interval between the two measurement units 282 is wider than the dimension of the measurement target portion 284. As shown in FIGS. 6D and 8A, for example, when the mouse wheel is rotated, an image showing the measurement unit 282R in the longitudinal direction of the main body 281 and the detection unit 283 is displayed on the screen. The movement instruction receiving means 333 receives an instruction to move the distance in a direction approaching and facing the image indicating the edge 285. In response to the instruction received by the movement instruction receiving unit 333, the measurement target presence / absence determination unit 338 determines whether there is an image indicating the edge 285 between the start point and the end point where the image indicating the detection unit 283 moves by a predetermined distance. Judging.

計測対象存否判断手段338にてエッジ285を示す画像が存在すると判断した場合、すなわち検出部283がエッジ285を超えて移動すると判断した場合、位置取得手段339がエッジ285を示す画像に対応する画像データの座標値を計測位置の座標値として取得する。画面上では、図6(d)に示すように、検出部283がエッジ285と接するまで移動するように計測部282Rを示す画像を表示する。検出部283がエッジ285に接するようにした後は、一時的に、例えば他方のエッジ285に検出部283が接するまで、計測部282Rの位置が移動しないようにしている。   When the measurement target existence determination unit 338 determines that an image indicating the edge 285 exists, that is, when the detection unit 283 determines to move beyond the edge 285, the position acquisition unit 339 corresponds to the image indicating the edge 285. The coordinate value of the data is acquired as the coordinate value of the measurement position. On the screen, as shown in FIG. 6D, an image showing the measurement unit 282R is displayed so that the detection unit 283 moves until it contacts the edge 285. After the detection unit 283 is in contact with the edge 285, the position of the measurement unit 282R is temporarily prevented from moving until, for example, the detection unit 283 is in contact with the other edge 285.

なお、計測対象存否判断手段338にてエッジ285を示す画像が存在しない、すなわち検出部283がエッジ285を超えて移動しないと判断した場合、位置取得手段339は終点を新たな始点とする。画面上では、指示を受け付けた所定の距離を移動するように計測部282を示す画像が表示される。 また検出部283は計測部282の両側に設けることも可能であるが、両側に設けた場合にはいずれの検出部283で検出するかを判断等する必要がある。検出部283が計測部282の一方側にのみ設けられていることによって検出部283がエッジ285に接することを容易に把握することができる。   When the measurement target presence / absence determination unit 338 determines that there is no image indicating the edge 285, that is, the detection unit 283 does not move beyond the edge 285, the position acquisition unit 339 sets the end point as a new start point. On the screen, an image showing the measurement unit 282 is displayed so as to move a predetermined distance for which the instruction has been accepted. The detection unit 283 can be provided on both sides of the measurement unit 282. However, when the detection unit 283 is provided on both sides, it is necessary to determine which detection unit 283 is used for detection. Since the detection unit 283 is provided only on one side of the measurement unit 282, it can be easily grasped that the detection unit 283 contacts the edge 285.

図7(e)に示すように、例えばマウスホイールの回転操作により、画面上で、本体部281及び計測部282Lを本体部281の長手方向であって検出部283を示す画像が計測対象部分のエッジ285を示す画像に対向して近づく方向に所定の距離移動させる指示を移動指示受付手段333が受け付ける。移動指示受付手段333が受け付けた指示により、計測対象存否判断手段338が、検出部283を示す画像が所定の距離移動する始点と終点との間に、エッジ285を示す画像が存在するか否かを判断する。   As shown in FIG. 7E, for example, by rotating the mouse wheel, the image of the main body 281 and the measurement unit 282L in the longitudinal direction of the main body 281 and the detection unit 283 is displayed on the screen. The movement instruction receiving means 333 receives an instruction to move a predetermined distance in a direction facing and approaching the image showing the edge 285. In response to the instruction received by the movement instruction receiving unit 333, the measurement target presence / absence determination unit 338 determines whether there is an image indicating the edge 285 between the start point and the end point where the image indicating the detection unit 283 moves by a predetermined distance. Judging.

計測対象存否判断手段338にてエッジ285を示す画像が存在すると判断した場合、位置取得手段339がエッジ285を示す画像に対応する画像データの座標値を計測位置の座標値として取得する。画面上では、図7(f)に示すように、検出部283がエッジ285と接するまで移動するように計測部282を示す画像を表示する。なお、計測対象存否判断手段338にてエッジ285を示す画像が存在しないと判断した場合、位置取得手段339は終点を新たな始点とする。画面上では、移動距離を制限することなく、指示を受け付けた所定の距離を移動するように計測部282を示す画像が表示される。   When the measurement target existence determination unit 338 determines that an image indicating the edge 285 exists, the position acquisition unit 339 acquires the coordinate value of the image data corresponding to the image indicating the edge 285 as the coordinate value of the measurement position. On the screen, as shown in FIG. 7F, an image showing the measurement unit 282 is displayed so that the detection unit 283 moves until it contacts the edge 285. Note that if the measurement target presence / absence determination unit 338 determines that there is no image indicating the edge 285, the position acquisition unit 339 sets the end point as a new start point. On the screen, an image showing the measurement unit 282 is displayed so as to move a predetermined distance for which an instruction has been received without limiting the movement distance.

図7(f)に示すように2つの計測部282の検出部283が計測対象部分284の2つのエッジ285に接すると、位置取得手段339が計測位置の座標値として取得したエッジ285の画面上の座標値に基づいて、実測値算出手段336が計測対象部分284の実測値を算出する。具体的には画面上の計測値を縮尺倍率及び受光レンズの倍率で換算することにより、計測対象部分284の実測値を算出する。実測値は本体部281を示す画像上に表示される。実測値は、本体部281以外の画面上に表示しても良いし、実測値データをファイルに入力しておきプリントアウトするようにしても良い。   As shown in FIG. 7F, when the detection units 283 of the two measurement units 282 are in contact with the two edges 285 of the measurement target portion 284, the position acquisition unit 339 displays the edge 285 acquired as the coordinate value of the measurement position. Based on these coordinate values, the actual measurement value calculation means 336 calculates the actual measurement value of the measurement target portion 284. Specifically, the actual measurement value of the measurement target portion 284 is calculated by converting the measurement value on the screen by the scale magnification and the magnification of the light receiving lens. The actual measurement value is displayed on an image showing the main body 281. The actual measurement value may be displayed on a screen other than the main body 281, or the actual measurement value data may be input to a file and printed out.

なお、図5(a)及び(b)で計測器28全体を移動させる場合、例えば図8(b)に示すように計測器28全体を回転移動する場合にも、図6(d)及び図7(e)で計測部282を移動する場合と同様、検出部283がエッジ285に接する位置までのみ計測部282が移動するようにしても良い。接する位置を超えて無駄な移動を行うことなく、そのまま検出部283をエッジ285に接するようにして計測位置として座標値を取得することができる。   5 (a) and 5 (b), when the entire measuring instrument 28 is moved, for example, when the entire measuring instrument 28 is rotated as shown in FIG. 8 (b), for example, FIG. 6 (d) and FIG. Similarly to the case where the measurement unit 282 is moved in 7 (e), the measurement unit 282 may be moved only to a position where the detection unit 283 is in contact with the edge 285. The coordinate value can be obtained as the measurement position by making the detection unit 283 contact the edge 285 without making unnecessary movement beyond the contact position.

予め画像データに基づいてすべてのエッジ285の画面上の座標値を算出しておき、算出したエッジ285の画面上の座標値に基づいて、検出部283が移動することができる範囲を定めておく。そして、検出部283の移動指示を受け付けた場合に、定めてある範囲内の移動であるか否かを判定して、検出部283の移動可能範囲を制約する方法であっても良い。   The coordinate values on the screen of all the edges 285 are calculated in advance based on the image data, and the range in which the detection unit 283 can move is determined based on the calculated coordinate values of the edges 285 on the screen. . And when the movement instruction | indication of the detection part 283 is received, the method of determining whether it is a movement within the defined range and restricting the movable range of the detection part 283 may be used.

図9は、矩形の計測対象物20を計測する場合の移動方向の制約の説明図である。図9に示すように、矩形の計測対象物20の幅を計測する場合、計測対象部分284の寸法方向(幅方向)と本体部281の長手方向とを完全に合わせることは困難であり、画面上で、検出部283の先端又は根本部分等に計測対象物20の一点が接する場合、斜めに計測することで正しい値を計測することができない。正しい値を計測するため、例えば検出部283の先端に計測対象物20が接している場合には、計測位置の座標値として取得することなく、次に計測部282又は計測器28を移動させる指示を受け付けたとき、計測対象部分284の両端の直線部分に検出部283が沿うように計測器28を回転させるようにする。   FIG. 9 is an explanatory diagram of movement direction restrictions when measuring a rectangular measurement object 20. As shown in FIG. 9, when measuring the width of the rectangular measurement object 20, it is difficult to perfectly match the dimension direction (width direction) of the measurement target portion 284 with the longitudinal direction of the main body 281. In the above, when one point of the measurement target 20 is in contact with the tip or the root of the detection unit 283, a correct value cannot be measured by measuring obliquely. In order to measure a correct value, for example, when the measurement object 20 is in contact with the tip of the detection unit 283, an instruction to move the measurement unit 282 or the measuring device 28 next without obtaining the coordinate value of the measurement position Is received, the measuring instrument 28 is rotated so that the detection unit 283 follows the straight line portions at both ends of the measurement target portion 284.

なお、計測対象物20を計測する際、上述のように計測器28を直線的に移動、回転等する場合に限らず、計測対象物20を直線的に移動、回転等するようにしても良い。また、計測器28及び/又は計測対象物20を画面上で拡大、縮小等しても良く、検出部283を示す画像をエッジ285を示す画像に接するようにし易い方法を選択し、計測し易くすることができる。   Note that when measuring the measurement object 20, the measurement object 20 is not limited to linearly moving and rotating as described above, and the measurement object 20 may be linearly moved and rotated. . Further, the measuring instrument 28 and / or the measurement object 20 may be enlarged or reduced on the screen, and a method that makes it easy to bring the image showing the detection unit 283 into contact with the image showing the edge 285 is easy to measure. can do.

本実施の形態1では、上述のように、計測部282を示す画像は、本体部281の長手方向の一方側に検出部283を有する。設定指示受付手段341は、計測部282のいずれか一方側を検出部283として設定する指示を受け付ける。図10は、画面上で2つの計測部282において各検出部283が本体部281の長手方向に存在する側のバリエーションを説明する例示図である。図10(a)〜(d)に示す計測部282Lはいずれも本体部281に固定されている。2つの計測部282において各検出部283は、本体部281の長手方向のいずれかに設定することができる。図10(a)に示すように、検出部283、283が互いに対向するように設定することもできるし、図10(b)に示すように互いに反対方向を向くように設定することもできる。また、図10(c)、(d)に示すように、どちらも左右いずれかの同じ方向を向くように設定しても良い。図10(a)〜(d)の計測部282R上に示す矢印は、例えばマウスホイールを奥へ回して移動する前進方向を示す。図10(a)〜(d)の計測部282L上に示す矢印は、図5及び図8に示したように、計測部282Rを計測対象部分284のエッジ285に接するようにして固定した後、計測部282Lをもう一方のエッジ285に接するようにするために計測部282Lを移動させる方向を示す。   In the first embodiment, as described above, the image showing the measurement unit 282 has the detection unit 283 on one side in the longitudinal direction of the main body unit 281. The setting instruction receiving unit 341 receives an instruction to set one side of the measuring unit 282 as the detecting unit 283. FIG. 10 is an exemplary diagram for explaining a variation on the side where each detection unit 283 exists in the longitudinal direction of the main body 281 in the two measurement units 282 on the screen. 10A to 10D are all fixed to the main body 281. In the two measurement units 282, each detection unit 283 can be set in any one of the longitudinal directions of the main body unit 281. As shown in FIG. 10 (a), the detection units 283 and 283 can be set to face each other, or can be set to face in opposite directions as shown in FIG. 10 (b). Also, as shown in FIGS. 10C and 10D, both may be set to face the same direction on either the left or right. The arrows shown on the measurement unit 282R in FIGS. 10A to 10D indicate the forward direction in which the mouse wheel is moved to the back, for example. The arrows shown on the measurement unit 282L in FIGS. 10A to 10D are fixed so that the measurement unit 282R is in contact with the edge 285 of the measurement target portion 284, as shown in FIGS. The direction in which the measurement unit 282L is moved to bring the measurement unit 282L into contact with the other edge 285 is shown.

図11は、検出部283を図10(a)に設定した場合の計測部282による計測処理の例示図である。図11(a)は円の外径の計測例を、図11(b)は円形の穴の径の計測例を、それぞれ示している。検出部283が互いに対向するよう内側に存在する計測部282、282を有する計測器28は、図11(a)に示すような円の外径と同様、図11(b)に示すような円形の穴の径を計測することができる。   FIG. 11 is an illustration of measurement processing by the measurement unit 282 when the detection unit 283 is set to FIG. FIG. 11A shows an example of measuring the outer diameter of a circle, and FIG. 11B shows an example of measuring the diameter of a circular hole. The measuring instrument 28 having measuring units 282 and 282 that are present inside so that the detecting unit 283 faces each other has a circular shape as shown in FIG. 11B as well as the outer diameter of the circle as shown in FIG. The diameter of the hole can be measured.

図12は、検出部283を図10(b)に設定した場合の計測部282による計測処理の例示図である。検出部283が互いに反対方向に存在する計測部282を有する計測器28は、図12に示すような2つの円の間の距離を計測することができる。   FIG. 12 is an exemplary diagram of a measurement process performed by the measurement unit 282 when the detection unit 283 is set to FIG. The measuring instrument 28 having the measuring unit 282 in which the detecting unit 283 exists in the opposite direction can measure the distance between two circles as shown in FIG.

図13は、検出部283を図10(d)に設定した場合の計測部282による計測処理の例示図である。検出部283が両方左側に設定された計測部282を有する計測器28は、図13に示すような大きな円と中にある小さな円との距離を計測することができる。   FIG. 13 is an exemplary diagram of a measurement process performed by the measurement unit 282 when the detection unit 283 is set to FIG. A measuring instrument 28 having a measuring unit 282 in which both detection units 283 are set on the left side can measure the distance between a large circle as shown in FIG. 13 and a small circle inside.

また本実施の形態1では、伸縮指示受付手段342が計測部282の延伸方向の長さを変更する指示を受け付ける。図14は、計測部282の長さを変更した状態を説明する例示図である。図14(a)は計測部282L全体の長さを変更し、計測部282Rの本体部281からの位置を変更して長さを変更する方法を説明するための例示図である。図14(b)は、計測部282Lの本体部281からの位置を変更して長さを変更し、計測部282R全体の長さを変更した状態を示す例示図である。図14(c)は、計測部282Lの本体部281からの位置を変更して長さを変更し、計測部282Rの本体部281からの位置を変更して長さを変更した状態を示す例示図である。   In the first embodiment, the expansion / contraction instruction receiving unit 342 receives an instruction to change the length of the measuring unit 282 in the extending direction. FIG. 14 is an exemplary diagram illustrating a state where the length of the measurement unit 282 is changed. FIG. 14A is an exemplary diagram for explaining a method of changing the length by changing the entire length of the measuring unit 282L and changing the position of the measuring unit 282R from the main body 281. FIG. 14B is an exemplary diagram illustrating a state in which the length of the measuring unit 282L is changed by changing the position of the measuring unit 282L from the main body 281 to change the entire length of the measuring unit 282R. FIG. 14C illustrates an example in which the length is changed by changing the position of the measuring unit 282L from the main body 281 and the length is changed by changing the position of the measuring unit 282R from the main body 281. FIG.

図14(a)に示すように、固定された計測部282Lについて、例えば計測部282Lをマウス操作で選択した場合、編集中を示す矩形領域gが表示される。さらに矩形領域gの周縁部をマウス操作でドラッグすることにより、矩形領域gの大きさを変更することができ、計測部282L全体の長さを変更することができる。移動可能な計測部282Rについても、例えば計測部282Rをマウス操作で選択した場合、編集中を示す矩形領域hが表示される。さらに矩形領域hの内部領域をマウス操作でドラッグすることにより、矩形領域hの位置、すなわち計測部282Rの本体部281からの位置を変更して長さを変更することができる。図14(b)では、計測部282Lについて本体部281からの位置を変更し、計測部282Rについて全体の長さを変更した結果を示している。また図14(c)では、計測部282L、282Rの両方について、計測部282L、282Rの本体部281からの位置を変更して長さを変更すた結果を示している。   As shown in FIG. 14A, for the fixed measurement unit 282L, for example, when the measurement unit 282L is selected by a mouse operation, a rectangular region g indicating that editing is in progress is displayed. Further, the size of the rectangular region g can be changed by dragging the peripheral portion of the rectangular region g with a mouse operation, and the entire length of the measuring unit 282L can be changed. For the movable measuring unit 282R, for example, when the measuring unit 282R is selected by a mouse operation, a rectangular area h indicating that editing is in progress is displayed. Furthermore, by dragging the internal area of the rectangular area h by a mouse operation, the length can be changed by changing the position of the rectangular area h, that is, the position of the measuring section 282R from the main body section 281. FIG. 14B shows the result of changing the position of the measuring unit 282L from the main body 281 and changing the overall length of the measuring unit 282R. FIG. 14C shows a result of changing the lengths of the measuring units 282L and 282R by changing the positions of the measuring units 282L and 282R from the main body 281.

図15は、移動可能な計測部282Rのみ位置を変更した場合の計測部282による計測処理の例示図である。図15に示すように、固定された計測部282Lの位置を変更することなく、移動可能な計測部282Rの本体部281からの位置を変更した計測部282Rによって、例えば階段状の段差を有する形状であっても、それぞれの段にて直接2つの計測部282の各検出部283を接するように移動して段差を計測することができる。また、計測対象部分284の形状に合わせて両方の計測部282の長短を変更して、検出部283をエッジ285に接するようにする画像が見易くなり、計測し易くすることができる。したがって、実物の計測器では計測が困難な形状でも直接かつ簡便に計測することができる。   FIG. 15 is an exemplary diagram of measurement processing by the measurement unit 282 when only the movable measurement unit 282R is changed in position. As shown in FIG. 15, a shape having a stepped step, for example, by a measuring unit 282R in which the position of the movable measuring unit 282R is changed from the main body 281 without changing the position of the fixed measuring unit 282L. Even so, the level difference can be measured by moving so that the detection units 283 of the two measurement units 282 are in direct contact with each other. In addition, by changing the length of both measurement units 282 in accordance with the shape of the measurement target portion 284, an image in which the detection unit 283 is in contact with the edge 285 can be easily seen and measured. Therefore, it is possible to directly and simply measure a shape that is difficult to measure with a real measuring instrument.

次に、上述した構成の画像計測装置1の動作について、フロ−チャートに基づいて詳細に説明する。図16は、本発明の実施の形態1に係る画像計測装置1の制御ユニット3のCPU33の処理手順を示すフローチャートである。   Next, the operation of the image measuring apparatus 1 having the above-described configuration will be described in detail based on a flowchart. FIG. 16 is a flowchart showing a processing procedure of the CPU 33 of the control unit 3 of the image measuring device 1 according to Embodiment 1 of the present invention.

図16に示すように制御ユニット3のCPU33は、記憶装置34に記憶されている計測対象物20の透過画像データ又は落射画像データからいずれかの画像データと、計測器28の画像データとを表示装置27に表示する(ステップS1601)。   As shown in FIG. 16, the CPU 33 of the control unit 3 displays any image data from the transmission image data or the incident image data of the measurement object 20 stored in the storage device 34 and the image data of the measuring instrument 28. The information is displayed on the device 27 (step S1601).

CPU33は、図5(a)に示すように計測器28を示す画像を移動させて計測対象物20を示す画像に近づける指示を受け付け、受け付けた指示に従って画像を表示する(ステップS1602)。CPU33は、図5(b)及び図6(c)に示すように、計測器28を示す画像を回転させて計測対象部分284の寸法方向に本体部281の長手方向を合わせ(ステップS1603)、2つの計測部282の間隔が計測対象部分284の寸法より広くなるように計測部282Rを広げておく。   As shown in FIG. 5A, the CPU 33 accepts an instruction to move the image showing the measuring instrument 28 to approach the image showing the measurement object 20, and displays the image according to the accepted instruction (step S1602). As shown in FIGS. 5B and 6C, the CPU 33 rotates the image showing the measuring instrument 28 to align the longitudinal direction of the main body 281 with the dimension direction of the measurement target portion 284 (step S1603). The measurement unit 282R is widened so that the interval between the two measurement units 282 is wider than the dimension of the measurement target portion 284.

CPU33は、図6(d)に示すように、表示された画像上で計測部282R(可動計測部)を示す画像を本体部281を示す画像の長手方向であって検出部283を示す画像が計測対象部分のエッジ285を示す画像に対向して近づく方向に所定の距離移動させる指示を受け付ける(ステップS1604)。具体的には、例えば計測部282Rをエッジ285方向へドラッグし、ドラッグの始点と終点との距離を所定の距離として受け付ける。   As shown in FIG. 6D, the CPU 33 displays an image showing the measurement unit 282R (movable measurement unit) on the displayed image as an image showing the detection unit 283 in the longitudinal direction of the image showing the main body unit 281. An instruction to move a predetermined distance in a direction approaching and facing the image indicating the edge 285 of the measurement target portion is received (step S1604). Specifically, for example, the measurement unit 282R is dragged in the direction of the edge 285, and the distance between the start point and the end point of the drag is received as a predetermined distance.

CPU33は、受け付けた指示により、検出部283を示す画像を所定の距離移動させて表示する。CPU33は、検出部283を示す画像が所定の距離移動を始めた始点と移動を終了した終点との間に、エッジ285を示す画像が存在するか否かを判断する(ステップS1605)。   In accordance with the received instruction, the CPU 33 moves and displays an image indicating the detection unit 283 by a predetermined distance. The CPU 33 determines whether or not there is an image showing the edge 285 between the start point where the image showing the detection unit 283 starts moving a predetermined distance and the end point where the movement is finished (step S1605).

CPU33が、エッジ285を示す画像が存在しないと判断した場合(ステップS1605:NO)、CPU33は、検出部283を示す画像が所定の距離移動した終点を新たな始点とし(ステップS1606)、処理をステップ1604へ戻し、上述した処理を繰り返す。   When the CPU 33 determines that there is no image indicating the edge 285 (step S1605: NO), the CPU 33 sets the end point where the image indicating the detection unit 283 has moved a predetermined distance as a new start point (step S1606), and performs processing. Returning to step 1604, the above-described processing is repeated.

CPU33が、エッジ285を示す画像が存在すると判断した場合(ステップS1605:YES)、CPU33は、エッジ285を示す画像に対応する画像データに基づいて座標値を求め、計測位置の座標値として取得する(ステップS1607)。計測部282Rは検出部283がエッジ285と接する位置で一時的に固定される。   When the CPU 33 determines that there is an image indicating the edge 285 (step S1605: YES), the CPU 33 obtains a coordinate value based on the image data corresponding to the image indicating the edge 285, and acquires it as the coordinate value of the measurement position. (Step S1607). The measurement unit 282R is temporarily fixed at a position where the detection unit 283 contacts the edge 285.

CPU33は、固定された計測部282Lについても上述したステップS1604〜ステップS1607の処理を繰り返す。即ち、図7(e)に示すように、表示された画像上で本体部281に固定された計測部282Lを示す画像を本体部281を示す画像の長手方向であって検出部283を示す画像が計測対象部分のエッジ285を示す画像に対向して近づく方向に所定の距離移動させる指示を受け付ける(ステップS1604)。具体的には、例えば計測部282L上でマウスのボタンを押下し、押下した状態でエッジ285に向かってドラッグし、押下したボタンを放すことにより、ボタンを押下した位置とボタンを放した位置との距離を所定の距離として受け付ける。   The CPU 33 repeats the above-described processing of steps S1604 to S1607 for the fixed measuring unit 282L. That is, as shown in FIG. 7E, an image showing the measurement unit 282L fixed to the main body 281 on the displayed image is an image showing the detection unit 283 in the longitudinal direction of the image showing the main body 281. Receives an instruction to move a predetermined distance in a direction facing and approaching the image showing the edge 285 of the measurement target portion (step S1604). Specifically, for example, by pressing the mouse button on the measurement unit 282L, dragging the mouse button toward the edge 285 in the pressed state, and releasing the pressed button, the position where the button is pressed and the position where the button is released. Is accepted as a predetermined distance.

CPU33は、受け付けた指示により、検出部283を示す画像を所定の距離移動させて表示する。CPU33は、検出部283を示す画像が所定の距離移動を始めた始点と移動を終了した終点との間に、エッジ285を示す画像が存在するか否かを判断する(ステップS1605)。   In accordance with the received instruction, the CPU 33 moves and displays an image indicating the detection unit 283 by a predetermined distance. The CPU 33 determines whether or not there is an image showing the edge 285 between the start point where the image showing the detection unit 283 starts moving a predetermined distance and the end point where the movement is finished (step S1605).

CPU33が、エッジ285を示す画像が存在しないと判断した場合(ステップS1605:NO)、CPU33は、検出部283を示す画像が所定の距離移動する終点を新たな始点とし(ステップS1606)、処理をステップ1604へ戻し、上述した処理を繰り返す。   When the CPU 33 determines that there is no image indicating the edge 285 (step S1605: NO), the CPU 33 sets the end point where the image indicating the detection unit 283 moves by a predetermined distance as a new start point (step S1606), and performs processing. Returning to step 1604, the above-described processing is repeated.

CPU33が、エッジ285を示す画像が存在すると判断した場合(ステップS1605:YES)、CPU33は、エッジ285を示す画像に対応する画像データに基づいて座標値を求め、計測位置の座標値として取得する(ステップS1607)。計測部282Lは検出部283がエッジ285と接する位置で一時的に固定される。   When the CPU 33 determines that there is an image indicating the edge 285 (step S1605: YES), the CPU 33 obtains a coordinate value based on the image data corresponding to the image indicating the edge 285, and acquires it as the coordinate value of the measurement position. (Step S1607). The measurement unit 282L is temporarily fixed at a position where the detection unit 283 contacts the edge 285.

CPU33は、可動及び固定の計測部によって取得した計測位置の座標値、即ちエッジの画面上の座標値に基づいて、計測対象部分284の実測値を算出する(ステップS1608)。   The CPU 33 calculates an actual measurement value of the measurement target portion 284 based on the coordinate value of the measurement position acquired by the movable and fixed measurement units, that is, the coordinate value on the screen of the edge (step S1608).

以上のように本実施の形態1によれば、検出部を示す画像を計測対象物のエッジを示す画像の方向に所定の距離を何回か移動するだけで、検出部を示す画像を計測対象物のエッジを示す画像に正確に接するよう操作しなくても、自動的に接するようにすることができ、計測対象物の寸法を実際の計測器で計測するのと同様、画面上での直感的な操作によって計測対象物を簡便に計測することができる。   As described above, according to the first embodiment, the image indicating the detection unit is moved to the measurement target by moving the image indicating the detection unit several times in the direction of the image indicating the edge of the measurement target. Even if you do not touch the image that shows the edge of the object accurately, you can automatically touch it, and the intuitive dimensions on the screen are the same as when measuring the dimensions of the measurement object with an actual measuring instrument. The measurement object can be easily measured by a typical operation.

(実施の形態2)
本発明の実施の形態2に係る画像計測装置1の構成は、実施の形態1と同様であることから、同一の符号を付することにより詳細な説明を省略する。図17は、本発明の実施の形態2に係る画像計測装置1の制御ユニット3の構成を示すブロック図である。図17に示すように本実施の形態2に係る画像計測装置1の制御ユニット3のハードウェア構成は、実施の形態1と同様であることから、同一の符号を付することにより、詳細な説明は省略する。
(Embodiment 2)
Since the configuration of the image measuring apparatus 1 according to the second embodiment of the present invention is the same as that of the first embodiment, detailed description thereof is omitted by attaching the same reference numerals. FIG. 17 is a block diagram showing the configuration of the control unit 3 of the image measuring device 1 according to the second embodiment of the present invention. As shown in FIG. 17, the hardware configuration of the control unit 3 of the image measurement apparatus 1 according to the second embodiment is the same as that of the first embodiment. Is omitted.

ただし本実施の形態2では、制御ユニット3のCPU33は、計測対象存否判断手段は備えず、位置取得手段339は、移動指示受付手段333から受け付けた指示により、計測対象部分284のエッジ285の画面上の座標値を計測対象物20の計測位置の座標値として取得する   However, in the second embodiment, the CPU 33 of the control unit 3 does not include the measurement target existence determination unit, and the position acquisition unit 339 displays the screen of the edge 285 of the measurement target portion 284 according to the instruction received from the movement instruction reception unit 333. The upper coordinate value is acquired as the coordinate value of the measurement position of the measurement object 20.

図18は、本発明の実施の形態2に係る画像計測装置1の制御ユニット3のCPU33の処理手順を示すフローチャートである。本実施の形態2の処理手順は、計測対象物の寸法方向に本体部の長手方向を合わせるまでは実施の形態1のステップS1603までと同じであることから、ステップ1603までの説明を省略する。   FIG. 18 is a flowchart showing a processing procedure of the CPU 33 of the control unit 3 of the image measuring apparatus 1 according to the second embodiment of the present invention. Since the processing procedure of the second embodiment is the same as that up to step S1603 of the first embodiment until the longitudinal direction of the main body is aligned with the dimension direction of the measurement object, the description up to step 1603 is omitted.

図18に示すように制御ユニット3のCPU33は、表示された画像上で可動計測部を示す画像を本体部を示す画像の長手方向であって検出部を示す画像が計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付け(ステップS1801)、受け付けた指示に応じてエッジの画面上の座標値を計測位置の座標値として取得する(ステップS1802)。画面上では、検出部がエッジと接するまで移動するように可動計測部を示す画像を表示し、可動計測部は検出部がエッジと接する位置で一時的に、例えば他方のエッジに検出部が接するまで固定される。   As shown in FIG. 18, the CPU 33 of the control unit 3 displays an image showing the movable measurement unit on the displayed image in the longitudinal direction of the image showing the main body, and the image showing the detection unit shows the edge of the measurement target portion. An instruction to move in the direction approaching the image is received (step S1801), and the coordinate value of the edge on the screen is acquired as the coordinate value of the measurement position in accordance with the received instruction (step S1802). On the screen, an image showing the movable measurement unit is displayed so that the detection unit moves until it touches the edge. The movable measurement unit temporarily touches the other edge, for example, at the position where the detection unit touches the edge. Until fixed.

CPU33は、表示された画像上で固定計測部を示す画像を本体部を示す画像の長手方向であって検出部を示す画像が計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付け(ステップS1803)、受け付けた指示により、エッジの画面上の座標値を計測位置の座標値として取得する(ステップS1804)。画面上では、検出部がエッジと接するまで移動するように可動計測部を示す画像を表示し、固定計測部は検出部がエッジと接する位置で一時的に、例えば計測対象部分の実測値が算出されるまで固定される。   The CPU 33 moves the image indicating the fixed measurement unit on the displayed image in the longitudinal direction of the image indicating the main body and in the direction in which the image indicating the detection unit approaches and opposes the image indicating the edge of the measurement target portion. The instruction is accepted (step S1803), and the coordinate value of the edge on the screen is acquired as the coordinate value of the measurement position according to the accepted instruction (step S1804). On the screen, an image showing the movable measurement unit is displayed so that the detection unit moves until it touches the edge, and the fixed measurement unit temporarily calculates, for example, an actual measurement value of the measurement target portion at a position where the detection unit touches the edge. Until fixed.

CPU33は、取得した計測位置の座標値、即ちエッジの画面上の座標値に基づいて、計測対象部分の実測値を算出する(ステップS1805)。   The CPU 33 calculates an actual measurement value of the measurement target portion based on the acquired coordinate value of the measurement position, that is, the coordinate value of the edge on the screen (step S1805).

なお、ステップS1802まで処理した時点で、ステップS1803の指示を受け付けなくてもステップS1804の処理を行い、検出部がエッジと接する位置まで移動する固定計測部を示す画像を表示するようにしても良い。   Note that when processing up to step S1802 is performed, the processing of step S1804 may be performed without receiving the instruction of step S1803, and an image showing a fixed measurement unit that moves to a position where the detection unit contacts the edge may be displayed. .

また、ステップS1802までの処理で可動計測部の移動と同時に固定計測部が移動するようにしても良い。両方の計測部を同時に移動する場合、マウス操作、キーボードからの入力等による移動の他、何らかの入力装置、例えば所定のキーの押下等をトリガとして、両方の計測部を検出部がエッジと接するまで移動させるようにしても良い。例えば、計測器全体をマウスでドラッグして移動することをトリガとして設定する場合、マウスのドラッグによって計測器を移動する都度、計測部の検出部が位置するエッジ間を自動的に計測することができ、計測速度を向上することができる。なお、上述のトリガが発生したとき、トリガが発生した時点での計測部の位置から移動させるようにする他、一旦計測部を広げる等して予め設定した初期位置から移動するようにしても良い。   Further, the fixed measurement unit may be moved simultaneously with the movement of the movable measurement unit in the process up to step S1802. When both measurement units are moved simultaneously, in addition to movement by mouse operation, input from the keyboard, etc., some input device, for example, pressing a predetermined key, etc., triggers both measurement units until the detection unit touches the edge You may make it move. For example, when setting the trigger by dragging the entire measuring instrument with the mouse as a trigger, every time the measuring instrument is moved by dragging the mouse, it is possible to automatically measure between the edges where the detection unit of the measuring unit is located. Measurement speed can be improved. In addition, when the above-mentioned trigger is generated, in addition to the movement from the position of the measurement unit at the time when the trigger is generated, the measurement unit may be temporarily expanded to move from a preset initial position. .

以上のように本実施の形態2によれば、検出部を示す画像を計測対象物のエッジを示す画像の方向に移動するだけで、検出部を示す画像をエッジを示す画像に正確に接するよう操作しなくても、自動的に接するようにすることができ、計測対象物の寸法を実際に計測器で計測するように、画面上での直感的な操作により簡便かつ迅速に計測することができる。   As described above, according to the second embodiment, the image showing the detection unit is accurately touched with the image showing the edge only by moving the image showing the detection unit in the direction of the image showing the edge of the measurement object. Even if you do not operate it, you can automatically touch it, and you can measure it easily and quickly by intuitive operation on the screen so that the dimensions of the measurement object are actually measured with a measuring instrument. it can.

図19は、他の画像計測装置1の構成を示す模式図である。図19に示すように、本画像計測装置1は、計測ユニット2と外部コンピュータ4とで構成されており、計測ユニット2にて撮像された画像データを外部コンピュータ4にて演算処理して、所望の形状の寸法等を計測する。   FIG. 19 is a schematic diagram illustrating a configuration of another image measurement apparatus 1. As shown in FIG. 19, the present image measurement apparatus 1 includes a measurement unit 2 and an external computer 4. The external computer 4 performs arithmetic processing on image data captured by the measurement unit 2 to obtain a desired value. Measure the dimensions of the shape.

計測ユニット2の構成及び機能は、上述した実施の形態1及び2と同様であることから、同一の符号を付することにより詳細な説明を省略する。外部コンピュータ4は、少なくともCPU(図示せず)及びメモリ等の記憶装置(図示せず)を備え、表示装置41、キーボード42、マウス43に接続されている。CPU(図示せず)は、撮像装置25及び26から画像データを取得し、上述した実施の形態1及び2における制御ユニット3のCPU33と同様の処理を実行する。   Since the configuration and function of the measurement unit 2 are the same as those in the first and second embodiments described above, detailed description is omitted by attaching the same reference numerals. The external computer 4 includes at least a CPU (not shown) and a storage device (not shown) such as a memory, and is connected to a display device 41, a keyboard 42, and a mouse 43. A CPU (not shown) acquires image data from the imaging devices 25 and 26, and executes the same processing as the CPU 33 of the control unit 3 in the first and second embodiments described above.

その他、本発明は上記実施の形態1及び2に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変形、置換等が可能であることは言うまでもない。   In addition, the present invention is not limited to Embodiments 1 and 2 described above, and it goes without saying that various modifications and replacements are possible within the scope of the present invention.

本発明の実施の形態1に係る画像計測装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the image measuring device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像計測装置の制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the control unit of the image measuring device which concerns on Embodiment 1 of this invention. 表示手段が計測対象物及び計測器の画像データを表示する画面の一例を示す例示図である。It is an illustration figure which shows an example of the screen on which a display means displays the measurement object and the image data of a measuring device. 計測のための操作状態を説明する模式図である。It is a schematic diagram explaining the operation state for a measurement. 画面上で計測器を用いて計測対象物を計測する過程の各状態を示す例示図である。It is an illustration figure which shows each state of the process of measuring a measurement target object using a measuring device on a screen. 画面上で計測器を用いて計測対象物を計測する過程の各状態を示す例示図である。It is an illustration figure which shows each state of the process of measuring a measurement target object using a measuring device on a screen. 画面上で計測器を用いて計測対象物を計測する過程の各状態を示す例示図である。It is an illustration figure which shows each state of the process of measuring a measurement target object using a measuring device on a screen. 計測部及び計測器全体について回転方向及び移動距離の制約の説明図である。It is explanatory drawing of the restrictions of a rotation direction and a movement distance about a measurement part and the whole measuring device. 矩形の計測対象物を計測する場合の移動方向の制約の説明図である。It is explanatory drawing of the restriction | limiting of the moving direction in the case of measuring a rectangular measuring object. 画面上で2つの計測部において各検出部が本体部の長手方向に存在する側のバリエーションを説明する例示図である。It is an illustration figure explaining the variation by the side in which each detection part exists in the longitudinal direction of a main-body part in two measurement parts on a screen. 検出部を図10(a)に設定した場合の計測部による計測処理の例示図である。It is an illustration figure of the measurement process by the measurement part at the time of setting a detection part to Fig.10 (a). 検出部を図10(b)に設定した場合の計測部による計測処理の例示図である。It is an illustration figure of the measurement process by the measurement part at the time of setting a detection part to FIG.10 (b). 検出部を図10(d)に設定した場合の計測部による計測処理の例示図である。It is an illustration figure of the measurement process by the measurement part at the time of setting a detection part to FIG.10 (d). 計測部の長さを変更した状態を説明する例示図である。It is an illustration figure explaining the state which changed the length of the measurement part. 移動可能な計測部のみ位置を変更した場合の計測部による計測処理の例示図である。It is an illustration figure of the measurement process by the measurement part at the time of changing a position only in the movable measurement part. 本発明の実施の形態1に係る画像計測装置の制御ユニットのCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU of the control unit of the image measuring device which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る画像計測装置の制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the control unit of the image measuring device which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る画像計測装置の制御ユニットのCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU of the control unit of the image measuring device which concerns on Embodiment 2 of this invention. 他の画像計測装置の構成を示す模式図である。It is a schematic diagram which shows the structure of another image measuring device. 従来の計測対象物を計測する場合に指定する領域等の説明図である。It is explanatory drawing of the area | region etc. which are designated when measuring the conventional measuring object.

符号の説明Explanation of symbols

1 画像計測装置
2 計測ユニット
3 制御ユニット
25、26 撮像装置
27 表示装置
31 キーボード
32 マウス
34 記憶装置
35 通信手段
36 内部バス
331 記憶手段
332 表示手段
333 移動指示受付手段
334 位置判断手段
335 位置受付手段
336 実測値算出手段
338 計測対象存否判断手段
339 位置取得手段
341 設定指示受付手段
342 伸縮指示受付手段
DESCRIPTION OF SYMBOLS 1 Image measuring device 2 Measuring unit 3 Control unit 25, 26 Imaging device 27 Display device 31 Keyboard 32 Mouse 34 Storage device 35 Communication means 36 Internal bus 331 Storage means 332 Display means 333 Movement instruction reception means 334 Position determination means 335 Position reception means 336 Actual value calculation means 338 Measurement object existence judgment means 339 Position acquisition means 341 Setting instruction reception means 342 Expansion instruction reception means

Claims (12)

計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置において、
前記撮像素子にて結像して得られた計測対象物を示す画像と、該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像とを表示する表示手段と、
前記計測器を示す画像は、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、
前記計測部を示す画像は、前記本体部の長手方向の一方側又は両側に、前記計測対象部分のエッジを検出する検出部を示す画像を含み、
画面上で、少なくとも一の前記計測部を示す画像を前記本体部を示す画像の長手方向に移動させる指示を受け付ける移動指示受付手段と、
前記検出部を示す画像に対応する画像データの画面上の座標値と、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値とが一致するか否かを判断する位置判断手段と、
該位置判断手段にて一致すると判断した場合、前記計測対象物の計測位置である旨の指示を受け付ける位置受付手段と、
指示を受け付けた計測位置での画面上の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段と
を備えることを特徴とする画像計測装置。
In an image measurement device that measures the shape of a measurement object based on an image obtained by forming an image of a transmitted light or reflected light of light irradiated on the measurement object on an imaging device,
Display means for displaying an image showing a measurement object obtained by imaging with the imaging device, and an image showing a measuring instrument for measuring the distance of the measurement object part on the image showing the measurement object;
An image showing the measuring instrument is an image showing a main body portion extended in a predetermined direction, and two measuring portions that are movable on the screen in the longitudinal direction of the main body portion and extend in a direction orthogonal to the main body portion. And an image showing
The image showing the measurement unit includes an image showing a detection unit that detects an edge of the measurement target part on one side or both sides in the longitudinal direction of the main body unit,
A movement instruction receiving means for receiving an instruction to move an image indicating at least one measurement unit on a screen in a longitudinal direction of the image indicating the main body;
Position for determining whether or not the coordinate value on the screen of the image data corresponding to the image indicating the detection unit matches the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion Judgment means,
A position receiving means for receiving an instruction to the effect that it is the measurement position of the measurement object when it is determined by the position determination means that;
An image measurement apparatus comprising: an actual measurement value calculating unit that calculates an actual measurement value of the measurement target portion based on a coordinate value on a screen at a measurement position at which an instruction is received.
計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置において、
前記撮像素子にて結像して得られた計測対象物を示す画像と、該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像とを表示する表示手段と、
前記計測器を示す画像は、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、
前記計測部を示す画像は、前記本体部の長手方向の一方側に、前記計測対象部分のエッジを検出する検出部を示す画像を含み、
画面上で、少なくとも一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付ける移動指示受付手段と、
受け付けた指示に応じて前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得する位置取得手段と、
取得した計測位置の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段と
を備えることを特徴とする画像計測装置。
In an image measurement device that measures the shape of a measurement object based on an image obtained by forming an image of a transmitted light or reflected light of light irradiated on the measurement object on an imaging device,
Display means for displaying an image showing a measurement object obtained by imaging with the imaging device, and an image showing a measuring instrument for measuring the distance of the measurement object part on the image showing the measurement object;
An image showing the measuring instrument is an image showing a main body portion extended in a predetermined direction, and two measuring portions that are movable on the screen in the longitudinal direction of the main body portion and extend in a direction orthogonal to the main body portion. And an image showing
The image showing the measurement unit includes an image showing a detection unit that detects an edge of the measurement target portion on one side in the longitudinal direction of the main body unit,
On the screen, an image showing at least one measurement unit is arranged in a longitudinal direction of the image showing the main body unit and in a direction in which the image showing the detection unit approaches and opposes the image showing the edge of the measurement target portion. A movement instruction receiving means for receiving an instruction to move;
Position acquisition means for acquiring the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion as the coordinate value of the measurement position of the measurement target according to the received instruction;
An image measurement apparatus comprising: an actual measurement value calculating unit that calculates an actual measurement value of the measurement target portion based on the acquired coordinate value of the measurement position.
前記移動指示受付手段は、
一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に所定の距離移動させる指示を受け付けるようにしてあり、
受け付けた指示に応じて前記検出部を示す画像が前記所定の距離移動する始点と終点との間に、前記計測対象部分のエッジを示す画像が存在するか否かを判断する計測対象存否判断手段を備え、
前記位置取得手段は、
前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在しないと判断した場合、前記終点を新たな始点とし、
前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在すると判断した場合、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得するようにしてあることを特徴とする請求項2記載の画像計測装置。
The movement instruction receiving means
The image showing the one measurement unit is moved by a predetermined distance in the longitudinal direction of the image showing the main body and the image showing the detection unit approaches and opposes the image showing the edge of the measurement target portion. It ’s designed to accept instructions,
A measurement target presence / absence determining unit that determines whether an image indicating an edge of the measurement target portion exists between a start point and an end point at which the image indicating the detection unit moves in accordance with the received instruction. With
The position acquisition means includes
When the measurement target presence / absence determination means determines that there is no image indicating the edge of the measurement target portion, the end point is set as a new start point,
When the measurement target presence / absence determining unit determines that there is an image indicating the edge of the measurement target portion, the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion is calculated. The image measuring apparatus according to claim 2, wherein the image measuring apparatus is obtained as a coordinate value of a measurement position.
前記計測部を示す画像のうち、前記本体部の長手方向のいずれか一方側を前記検出部を示す画像として設定する指示を受け付ける設定指示受付手段を備えることを特徴とする請求項1乃至3のいずれか一項に記載の画像計測装置。   4. The apparatus according to claim 1, further comprising a setting instruction receiving unit that receives an instruction to set any one side in the longitudinal direction of the main body unit as an image indicating the detection unit among images indicating the measurement unit. The image measurement device according to any one of the above. 前記計測部を示す画像の延伸方向の長さを変更する指示又は延伸方向の位置を変更する指示を受け付ける伸縮指示受付手段を備えることを特徴とする請求項1乃至4のいずれか一項に記載の画像計測装置。   5. The apparatus according to claim 1, further comprising an expansion / contraction instruction receiving unit that receives an instruction to change a length in an extending direction of an image indicating the measurement unit or an instruction to change a position in the extending direction. Image measuring device. 前記表示手段は、前記実測値算出手段にて算出された実測値を前記本体部を示す画像上に表示するようにしてあることを特徴とする請求項1乃至5のいずれか一項に記載の画像計測装置。   6. The display unit according to claim 1, wherein the display unit displays the actual measurement value calculated by the actual measurement value calculation unit on an image showing the main body. Image measuring device. 計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置で実行することが可能なコンピュータプログラムにおいて、
前記画像計測装置を、
前記撮像素子にて結像して得られた計測対象物を示す画像と、
該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像であって、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、前記計測部を示す画像が、前記本体部の長手方向の一方側又は両側に、前記計測対象部分のエッジを検出する検出部を示す画像を含む計測器を示す画像と
を表示する表示手段、
画面上で、少なくとも一の前記計測部を示す画像を前記本体部を示す画像の長手方向に移動させる指示を受け付ける移動指示受付手段、
前記検出部を示す画像に対応する画像データの画面上の座標値と、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値とが一致するか否かを判断する位置判断手段、
該位置判断手段にて一致すると判断した場合、前記計測対象物の計測位置である旨の指示を受け付ける位置受付手段、及び
指示を受け付けた計測位置での画面上の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段
として機能させることを特徴とするコンピュータプログラム。
In a computer program that can be executed by an image measurement device that measures the shape of a measurement object, based on an image obtained by forming an image of a transmitted light or reflected light of light irradiated on the measurement object.
The image measuring device;
An image showing a measurement object obtained by imaging with the image sensor;
An image showing a measuring instrument that measures the distance of a measurement target portion on the image showing the measurement object, and an image showing a main body extending in a predetermined direction, and moving on the screen in the longitudinal direction of the main body And an image showing two measurement parts extending in a direction perpendicular to the main body part, and the image showing the measurement part is measured on one side or both sides in the longitudinal direction of the main body part. Display means for displaying an image showing a measuring instrument including an image showing a detection unit for detecting an edge of the part,
A movement instruction receiving means for receiving an instruction to move an image indicating at least one measurement unit in a longitudinal direction of the image indicating the main body on the screen;
Position for determining whether or not the coordinate value on the screen of the image data corresponding to the image indicating the detection unit matches the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion Judgment means,
If the position determination means determines that they match, the position receiving means receives an instruction indicating that the measurement object is the measurement position, and the measurement object based on the coordinate value on the screen at the measurement position where the instruction is received A computer program that functions as an actual value calculation means for calculating an actual value of a portion.
計測対象物に照射した光の透過光又は反射光を撮像素子に結像させて得られる画像に基づいて、計測対象物の形状を計測する画像計測装置で実行することが可能なコンピュータプログラムにおいて、
前記画像計測装置を、
前記撮像素子にて結像して得られた計測対象物を示す画像と、
該計測対象物を示す画像上の計測対象部分の距離を計測する計測器を示す画像であって、所定の方向に延伸した本体部を示す画像と、前記本体部の長手方向に画面上で移動可能であり、前記本体部と直交する方向に延伸する2つの計測部を示す画像とで構成され、前記計測部を示す画像が、前記本体部の長手方向の一方側又は両側に、前記計測対象部分のエッジを検出する検出部を示す画像を含む計測器を示す画像と
を表示する表示手段、
画面上で、少なくとも一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に移動させる指示を受け付ける移動指示受付手段、
受け付けた指示に応じて前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得する位置取得手段、及び
取得した計測位置の座標値に基づいて前記計測対象部分の実測値を算出する実測値算出手段
として機能させることを特徴とするコンピュータプログラム。
In a computer program that can be executed by an image measurement device that measures the shape of a measurement object, based on an image obtained by forming an image of a transmitted light or reflected light of light irradiated on the measurement object.
The image measuring device;
An image showing a measurement object obtained by imaging with the image sensor;
An image showing a measuring instrument that measures the distance of a measurement target portion on the image showing the measurement object, and an image showing a main body extending in a predetermined direction, and moving on the screen in the longitudinal direction of the main body And an image showing two measurement parts extending in a direction perpendicular to the main body part, and the image showing the measurement part is measured on one side or both sides in the longitudinal direction of the main body part. Display means for displaying an image showing a measuring instrument including an image showing a detection unit for detecting an edge of the part,
On the screen, an image showing at least one measurement unit is arranged in a longitudinal direction of the image showing the main body unit and in a direction in which the image showing the detection unit approaches and opposes the image showing the edge of the measurement target portion. A movement instruction receiving means for receiving an instruction to move;
Position acquisition means for acquiring the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion as the coordinate value of the measurement position of the measurement target according to the received instruction, and the acquired measurement position A computer program that functions as an actual measurement value calculation unit that calculates an actual measurement value of the measurement target portion based on a coordinate value.
前記移動指示受付手段を、
一の前記計測部を示す画像を、前記本体部を示す画像の長手方向であって前記検出部を示す画像が前記計測対象部分のエッジを示す画像に対向して近づく方向に所定の距離移動させる指示を受け付ける手段として機能させ、
前記画像計測装置を、
受け付けた指示に応じて前記検出部を示す画像が前記所定の距離移動する始点と終点との間に、前記計測対象部分のエッジを示す画像が存在するか否かを判断する計測対象存否判断手段として機能させ、
前記位置取得手段を、
前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在しないと判断した場合、前記終点を新たな始点とし、
前記計測対象存否判断手段にて前記計測対象部分のエッジを示す画像が存在すると判断した場合、前記計測対象部分のエッジを示す画像に対応する画像データの画面上の座標値を前記計測対象物の計測位置の座標値として取得する手段として機能させることを特徴とする請求項8記載のコンピュータプログラム。
The movement instruction receiving means
The image showing the one measurement unit is moved by a predetermined distance in the longitudinal direction of the image showing the main body and the image showing the detection unit approaches and opposes the image showing the edge of the measurement target portion. Function as a means of receiving instructions,
The image measuring device;
A measurement target presence / absence determining unit that determines whether an image indicating an edge of the measurement target portion exists between a start point and an end point at which the image indicating the detection unit moves in accordance with the received instruction. Function as
The position acquisition means;
When the measurement target presence / absence determination means determines that there is no image indicating the edge of the measurement target portion, the end point is set as a new start point,
When the measurement target presence / absence determining unit determines that there is an image indicating the edge of the measurement target portion, the coordinate value on the screen of the image data corresponding to the image indicating the edge of the measurement target portion is calculated. 9. The computer program according to claim 8, wherein the computer program functions as means for acquiring the coordinate value of the measurement position.
前記画像計測装置を、
前記計測部を示す画像のうち、前記本体部の長手方向のいずれか一方側を前記検出部を示す画像として設定する指示を受け付ける設定指示受付手段
として機能させることを特徴とする請求項7乃至9のいずれか一項に記載のコンピュータプログラム。
The image measuring device;
10. The apparatus according to claim 7, further comprising: a setting instruction receiving unit configured to receive an instruction to set any one side in a longitudinal direction of the main body part as an image indicating the detection part among images indicating the measurement part. The computer program as described in any one of.
前記画像計測装置を、
前記計測部を示す画像の延伸方向の長さを変更する指示又は延伸方向の位置を変更する指示を受け付ける伸縮指示受付手段として機能させることを特徴とする請求項7乃至10のいずれか一項に記載のコンピュータプログラム。
The image measuring device;
11. The apparatus according to claim 7, further comprising an extension / contraction instruction receiving unit that receives an instruction to change a length in an extending direction of an image indicating the measurement unit or an instruction to change a position in the extending direction. The computer program described.
前記表示手段を、前記実測値算出手段にて算出された実測値を前記本体部を示す画像上に表示する手段として機能させることを特徴とする請求項7乃至11のいずれか一項に記載のコンピュータプログラム。   The said display means is made to function as a means to display the measured value calculated by the said measured value calculation means on the image which shows the said main-body part, The Claim 7 thru | or 11 characterized by the above-mentioned. Computer program.
JP2008194058A 2008-07-28 2008-07-28 Image measuring device and computer program Pending JP2010032330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008194058A JP2010032330A (en) 2008-07-28 2008-07-28 Image measuring device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008194058A JP2010032330A (en) 2008-07-28 2008-07-28 Image measuring device and computer program

Publications (2)

Publication Number Publication Date
JP2010032330A true JP2010032330A (en) 2010-02-12
JP2010032330A5 JP2010032330A5 (en) 2011-05-06

Family

ID=41736983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008194058A Pending JP2010032330A (en) 2008-07-28 2008-07-28 Image measuring device and computer program

Country Status (1)

Country Link
JP (1) JP2010032330A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011004253A1 (en) 2010-02-17 2012-01-19 Canon Kabushiki Kaisha Image pickup device and method
US8503757B2 (en) 2010-08-02 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
US8503758B2 (en) 2010-07-29 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
US9329024B2 (en) 2011-02-01 2016-05-03 Keyence Corporation Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
US9341465B2 (en) 2011-02-01 2016-05-17 Keyence Corporation Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
US9666157B2 (en) 2011-01-07 2017-05-30 3M Innovative Properties Company Application to measure display size
JP2017129531A (en) * 2016-01-22 2017-07-27 ファナック株式会社 Automatic reading device for micrometers

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6318204A (en) * 1986-07-11 1988-01-26 Jeol Ltd Length measuring apparatus
JPH0933231A (en) * 1995-07-14 1997-02-07 Sony Corp Measuring method using image display
JPH11237212A (en) * 1998-02-20 1999-08-31 Matsushita Electric Ind Co Ltd Image recognizing method
JPH11304481A (en) * 1998-04-24 1999-11-05 Sumitomo Metal Mining Co Ltd Distance measuring method utilizing image analysis
JP2000048171A (en) * 1998-07-28 2000-02-18 Casio Comput Co Ltd Photographing device and storage medium
JP2006349489A (en) * 2005-06-15 2006-12-28 Sohatsu System Kenkyusho:Kk Image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6318204A (en) * 1986-07-11 1988-01-26 Jeol Ltd Length measuring apparatus
JPH0933231A (en) * 1995-07-14 1997-02-07 Sony Corp Measuring method using image display
JPH11237212A (en) * 1998-02-20 1999-08-31 Matsushita Electric Ind Co Ltd Image recognizing method
JPH11304481A (en) * 1998-04-24 1999-11-05 Sumitomo Metal Mining Co Ltd Distance measuring method utilizing image analysis
JP2000048171A (en) * 1998-07-28 2000-02-18 Casio Comput Co Ltd Photographing device and storage medium
JP2006349489A (en) * 2005-06-15 2006-12-28 Sohatsu System Kenkyusho:Kk Image processor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011004253A1 (en) 2010-02-17 2012-01-19 Canon Kabushiki Kaisha Image pickup device and method
US8503758B2 (en) 2010-07-29 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
US8503757B2 (en) 2010-08-02 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
US9666157B2 (en) 2011-01-07 2017-05-30 3M Innovative Properties Company Application to measure display size
US9329024B2 (en) 2011-02-01 2016-05-03 Keyence Corporation Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
US9341465B2 (en) 2011-02-01 2016-05-17 Keyence Corporation Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
JP2017129531A (en) * 2016-01-22 2017-07-27 ファナック株式会社 Automatic reading device for micrometers

Similar Documents

Publication Publication Date Title
JP5095644B2 (en) Image measuring apparatus and computer program
JP2010032330A (en) Image measuring device and computer program
US9881400B2 (en) Method for measuring a high accuracy height map of a test surface
EP2689708B1 (en) Endoscopic apparatus and measurement method
JP5525953B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP5074319B2 (en) Image measuring apparatus and computer program
EP3211369B1 (en) Surveying instrument and program
JP5270971B2 (en) Image measuring apparatus, image measuring method, and computer program
EP2618175A1 (en) Laser tracker with graphical targeting functionality
EP2387000B1 (en) Image measuring apparatus, program, and teaching method of image measuring apparatus
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP5865666B2 (en) Image processing apparatus and image processing program
JP2009300125A (en) Image measuring device, image measuring method, and computer program
JP2010060528A (en) Image measurement system and computer program
JP3887807B2 (en) Image measuring device
JP2018072270A (en) Image measurement device
JP2018109540A (en) Optical scanning height measuring device
JP2010032329A (en) Image measuring device and computer program
CN103487692A (en) Quality detecting method of touch screen
JP2010272036A (en) Image processing apparatus
JP5531071B2 (en) Image measuring apparatus and computer program
JP2014197004A (en) Image measurement device
JP6746894B2 (en) Centering device and centering position setting program
JP2008032496A (en) Optical measuring device
JP2013137466A (en) Apparatus and program for endoscope image processing

Legal Events

Date Code Title Description
A521 Written amendment

Effective date: 20110318

Free format text: JAPANESE INTERMEDIATE CODE: A523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110318

A977 Report on retrieval

Effective date: 20120807

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204