JP2009300124A - Image measuring device, image measuring method, and computer program - Google Patents

Image measuring device, image measuring method, and computer program Download PDF

Info

Publication number
JP2009300124A
JP2009300124A JP2008152316A JP2008152316A JP2009300124A JP 2009300124 A JP2009300124 A JP 2009300124A JP 2008152316 A JP2008152316 A JP 2008152316A JP 2008152316 A JP2008152316 A JP 2008152316A JP 2009300124 A JP2009300124 A JP 2009300124A
Authority
JP
Japan
Prior art keywords
image data
measurement
image
imaging
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008152316A
Other languages
Japanese (ja)
Other versions
JP2009300124A5 (en
JP5270971B2 (en
Inventor
Yasutaka Kawa
泰孝 川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2008152316A priority Critical patent/JP5270971B2/en
Publication of JP2009300124A publication Critical patent/JP2009300124A/en
Publication of JP2009300124A5 publication Critical patent/JP2009300124A5/ja
Application granted granted Critical
Publication of JP5270971B2 publication Critical patent/JP5270971B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image measuring device, an image measuring method, and a computer program enabling an operator to select the optimum illumination system without a skill, and to measure a desired shape highly accurately. <P>SOLUTION: The first image data acquired by imaging a measuring object by an imaging means using an epi-illumination means, and the second image data acquired by imaging the measuring object approximately at the same position by the imaging means by using a transmission illumination means are stored. The first image data is displayed, and designation of a measuring position is accepted on the displayed first image data. The first image data and the second image data is read out from a storage means corresponding to the designated measuring position, and position data is acquired based on the read-out first and second image data. Measurement on the designated measuring position is executed based on the acquired position data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像された画像データに基づいて、計測対象物の所望の形状を計測する画像計測装置、画像計測方法及びコンピュータプログラムに関する。   The present invention relates to an image measurement apparatus, an image measurement method, and a computer program for measuring a desired shape of a measurement object based on captured image data.

従来、測定対象物を撮像装置で撮像し、撮像された画像データの光強度分布に応じて光電変換した電気信号に基づいて、測定対象物のエッジ部分を検出して所定部分の寸法を計測する画像計測装置が多々開発されている。撮像装置で撮像する場合、測定対象物に対してどの方向から光を照射するかによって、撮像される画像データに差異が生じる。   Conventionally, an object to be measured is imaged by an imaging device, and an edge portion of the object to be measured is detected and a dimension of a predetermined portion is measured based on an electrical signal photoelectrically converted according to a light intensity distribution of the captured image data Many image measuring devices have been developed. When an image is picked up by the image pickup device, a difference occurs in the image data to be picked up depending on from which direction the light is applied to the measurement object.

すなわち、測定対象物に対して撮像装置が設置されている方向から光を照射する、いわゆる落射照明装置では、測定対象物表面が詳細に映っている画像データを取得することができる。また、測定対象物を挟んで撮像装置と反対方向から光を照射する、いわゆる透過照明装置では、測定対象物の表面の凹凸、パターン等を撮像することはできないが、測定対象物の明確な輪郭線を有する画像データを取得することができる。   That is, in the so-called epi-illumination device that irradiates light from the direction in which the imaging device is installed on the measurement object, it is possible to acquire image data that shows the surface of the measurement object in detail. In addition, with a so-called transmission illumination device that irradiates light from the opposite direction to the imaging device with the measurement object sandwiched between them, it is not possible to image irregularities, patterns, etc. on the surface of the measurement object, but a clear contour of the measurement object Image data having lines can be acquired.

例えば特許文献1では、透過照明、落射照明、分割照明を切り替えて計測に最適な画像を取得し、被検査物の形状を計測する座標計測システムが開示されている。また、特許文献2では、被検査物を透過照明又は落射照明によって照明し、被検査物の像をCCDカメラに結像させ、被検査物の形状を計測する画像測定装置が開示されている。いずれも透過照明及び落射照明を備え、いずれかを使用して被検査物の形状を計測している。
特開平08−314997号公報 特開平10−232117号公報
For example, Patent Document 1 discloses a coordinate measurement system that switches between transmitted illumination, epi-illumination, and divided illumination to acquire an image optimal for measurement and measures the shape of an inspection object. Patent Document 2 discloses an image measuring apparatus that illuminates an inspection object with transmitted illumination or epi-illumination, forms an image of the inspection object on a CCD camera, and measures the shape of the inspection object. Both are provided with transmitted illumination and epi-illumination, and the shape of the inspection object is measured using either one.
Japanese Patent Laid-Open No. 08-314997 Japanese Patent Laid-Open No. 10-232117

上述した特許文献1及び2に開示されているシステム及び装置では、被検査物の形状、色、材料等によって適切な照明方式を選択することに熟練を要する。すなわち、落射照明装置を用いる場合、被検査物のエッジ形状、色、材料等によっては反射光に影響を与えることで測定誤差が生じやすい。これに対して透過照明装置を用いる場合、被検査物のエッジ形状、色、材料等による影響を受けにくく安定した輪郭線検出が可能であるが、被検査物表面の凹凸、パターン等については結像することができず、これらの間の距離等を計測することができない。したがって、計測したい部分、必要となる計測精度等に基づいて照明方式を使い分けるには、操作者に相当の熟練が要求されるという問題点があった。   In the systems and apparatuses disclosed in Patent Documents 1 and 2 described above, skill is required to select an appropriate illumination method depending on the shape, color, material, and the like of the inspection object. That is, when an epi-illumination device is used, a measurement error is likely to occur due to the influence of reflected light depending on the edge shape, color, material, etc. of the inspection object. On the other hand, when using a transmission illumination device, stable contour detection is possible with little influence from the edge shape, color, material, etc. of the inspection object. Cannot be imaged, and the distance between them cannot be measured. Therefore, there is a problem that considerable skill is required for the operator to use the illumination method properly based on the part to be measured, the required measurement accuracy, and the like.

特に抜き取り検査等に代表されるサンプリング検査の実行時には、操作者が画像計測装置に習熟している場合は考えにくく、被検査物を画像計測装置のどの位置に載置させて計測するかに応じて計測誤差が生じることは極力回避する必要がある。   In particular, when performing a sampling inspection such as a sampling inspection, it is unlikely that the operator is proficient with the image measurement device, depending on the position on the image measurement device where the inspection object is placed and measured. Therefore, it is necessary to avoid measurement errors as much as possible.

本発明は上記事情に鑑みてなされたものであり、操作者が熟練を要することなく最適な照明方式を選択することができ、高い精度で所望の形状を計測することができる画像計測装置、画像計測方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and allows an operator to select an optimal illumination method without requiring skill, and to measure a desired shape with high accuracy. An object is to provide a measurement method and a computer program.

上記目的を達成するために第1発明に係る画像計測装置は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段と、前記第一の画像データを表示する表示手段と、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、該指定受付手段で指定を受け付けた計測位置に応じて前記第一の画像データ又は前記第二の画像データを前記記憶手段から読み出し、読み出した前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段と、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段とを備えることを特徴とする。   In order to achieve the above object, an image measuring apparatus according to a first aspect of the present invention includes an imaging unit that captures an image of a measurement object, an epi-illumination unit that illuminates the surface of the measurement object from the installation side of the imaging unit, and a measurement In an image measurement device comprising a transmission illumination means for illuminating an object from the side opposite to the installation side of the imaging means, first image data obtained by imaging the measurement object with the imaging means using the epi-illumination means; Storage means for storing second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmitted illumination means, display means for displaying the first image data, and display A designation receiving means for receiving the designation of the measurement position on the first image data that has been set, and the storage of the first image data or the second image data in accordance with the measurement position that has been designated by the designation receiving means. hand The position acquisition means for acquiring position data based on the read first image data or the second image data, and the measurement at the measurement position where the designation is received is executed based on the acquired position data. And a measuring means that performs the above-described measurement.

また、第2発明に係る画像計測装置は、第1発明において、前記記憶手段は、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データをさらに記憶し、前記表示手段は、前記第一の画像データ又は前記第三の画像データを表示するようにしてあることを特徴とする。   In the image measuring apparatus according to the second invention, in the first invention, the storage means further includes third image data obtained by aligning and synthesizing the first image data and the second image data. Stored, and the display means displays the first image data or the third image data.

また、第3発明に係る画像計測装置は、第1又は第2発明において、前記位置取得手段は、前記指定受付手段で指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断する判断手段を備え、該判断手段が、計測対象物のエッジ部分であると判断した場合、前記第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、前記第一の画像データに基づいて位置データを取得するようにしてあることを特徴とする。   In the image measuring device according to a third aspect of the present invention, in the first or second aspect, the position acquisition unit is an edge portion where the measurement position received by the designation receiving unit is an edge portion indicating the outer shape of the measurement object. A determination means for determining whether or not, when the determination means determines that it is an edge portion of the measurement object, position data is acquired based on the second image data, and is determined not to be an edge portion In this case, the position data is acquired based on the first image data.

また、第4発明に係る画像計測装置は、第3発明において、前記位置取得手段は、前記判断手段が、計測対象物のエッジ部分であると判断した場合、前記第一の画像データ及び前記第二の画像データに基づいてエッジ強度を算出する手段を備え、算出されたエッジ強度がより大きい画像データに基づいて位置データを取得するようにしてあることを特徴とする。   The image measuring apparatus according to a fourth aspect of the present invention is the image measuring apparatus according to the third aspect, wherein, when the position determining unit determines that the determining unit is an edge portion of a measurement object, the first image data and the second Means is provided for calculating edge strength based on the second image data, and position data is obtained based on image data having a larger calculated edge strength.

次に、上記目的を達成するために第5発明に係る画像計測装置は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段と、前記第一の画像データを表示する表示手段と、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、該指定受付手段で指定を受け付けた計測位置に応じて前記第三の画像データを前記記憶手段から読み出し、読み出した前記第三の画像データに基づいて位置データを取得する位置取得手段と、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段とを備えることを特徴とする。   Next, in order to achieve the above object, an image measuring apparatus according to a fifth aspect of the present invention is an imaging unit that captures an image of a measurement object, and an epi-illumination unit that illuminates the surface of the measurement object from the installation side of the imaging unit. And a transmission illumination means for illuminating the measurement object from the side opposite to the installation side of the imaging means, a first image obtained by imaging the measurement object with the imaging means using the epi-illumination means Alignment of the data, second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmitted illumination means, and the first image data and the second image data Storage means for storing the synthesized third image data, display means for displaying the first image data, designation receiving means for accepting designation of the measurement position on the displayed first image data, , The designated reception The third image data is read from the storage unit in accordance with the measurement position received designation in the stage, the position acquisition unit acquires the position data based on the read third image data, and the acquired position data And measuring means for executing measurement at the measurement position where the designation has been received.

また、第6発明に係る画像計測装置は、第5発明において、前記表示手段は、前記第一の画像データ又は前記第三の画像データを表示するようにしてあることを特徴とする。   An image measuring apparatus according to a sixth invention is characterized in that, in the fifth invention, the display means displays the first image data or the third image data.

次に、上記目的を達成するために第7発明に係る画像計測装置は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段と、前記第一の画像データを表示する表示手段と、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、記憶されている前記第一の画像データ及び前記第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行するエッジ抽出手段と、該エッジ抽出手段で前記第一の画像データのエッジ抽出が正常に終了したか否かを判断する第一の判断手段と、前記エッジ抽出手段で前記第二の画像データのエッジ抽出が正常に終了したか否かを判断する第二の判断手段と、前記第一の判断手段及び前記第二の判断手段の判断結果に応じて、前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段と、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段とを備え、前記位置取得手段は、前記第一の判断手段で正常に終了したと判断し、前記第二の判断手段で正常に終了しなかったと判断した場合、前記第一の画像データに基づいて位置データを取得し、前記第二の判断手段で正常に終了したと判断し、前記第一の判断手段で正常に終了しなかったと判断した場合、前記第二の画像データに基づいて位置データを取得し、前記第一の判断手段及び前記第二の判断手段で正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得するようにしてあることを特徴とする。   Next, in order to achieve the above object, an image measuring apparatus according to a seventh aspect of the present invention includes an imaging unit that captures an image of a measurement object, and an epi-illumination unit that illuminates the surface of the measurement object from the installation side of the imaging unit. And a transmission illumination means for illuminating the measurement object from the side opposite to the installation side of the imaging means, a first image obtained by imaging the measurement object with the imaging means using the epi-illumination means Storage means for storing data and second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmitted illumination means; and display means for displaying the first image data And a designation accepting means for accepting designation of a measurement position on the displayed first image data, and a measurement position for which designation is accepted based on the stored first image data and second image data In Edge extracting means for performing edge extraction, first determining means for determining whether or not the edge extraction of the first image data has been normally completed by the edge extracting means, and the edge extracting means for performing the first extraction Second determination means for determining whether or not the edge extraction of the second image data has been normally completed, and the first image according to the determination results of the first determination means and the second determination means. Position acquisition means for acquiring position data based on the data or the second image data, and measurement means for performing measurement at a measurement position for which designation has been received based on the acquired position data. When the means determines that the first determination unit has ended normally and the second determination unit determines that the processing has not ended normally, the unit obtains position data based on the first image data, Second judger If the first determination means determines that the process has not been completed normally, position data is acquired based on the second image data, and the first determination means and the first determination means If it is determined by the second determination means that the processing has been normally completed, the respective edge strengths are calculated, the image data having a larger calculated edge strength is selected, and the position data is obtained based on the selected image data. It is made to do so.

また、第8発明に係る画像計測装置は、第1乃至第7発明のいずれか1つにおいて、前記表示手段は、前記計測手段での計測の基礎となった画像データを表示するようにしてあることを特徴とする。   According to an eighth aspect of the present invention, in the image measurement apparatus according to any one of the first to seventh aspects, the display means displays image data that is a basis of measurement by the measurement means. It is characterized by that.

次に、上記目的を達成するために第9発明に係る画像計測装置は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段と、前記第一の画像データを表示する表示手段と、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つの選択を受け付ける選択受付手段と、該選択受付手段で選択を受け付けた前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つを前記記憶手段から読み出し、読み出した前記第一の画像データ、前記第二の画像データ又は前記第三の画像データに基づいて位置データを取得する位置取得手段と、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段とを備えることを特徴とする。   Next, in order to achieve the above object, an image measuring apparatus according to a ninth aspect of the present invention is an imaging unit that captures an image of a measurement object, and an epi-illumination unit that illuminates the surface of the measurement object from the installation side of the imaging unit. And a transmission illumination means for illuminating the measurement object from the side opposite to the installation side of the imaging means, a first image obtained by imaging the measurement object with the imaging means using the epi-illumination means Alignment of the data, second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmitted illumination means, and the first image data and the second image data Storage means for storing the synthesized third image data, display means for displaying the first image data, designation receiving means for accepting designation of the measurement position on the displayed first image data, The first Selection accepting means for accepting selection of any one of image data, second image data, and third image data; the first image data accepting the selection by the selection accepting means; and the second image One of the data and the third image data is read from the storage means, and position data is acquired based on the read first image data, second image data, or third image data. It is characterized by comprising position acquisition means and measurement means for executing measurement at a measurement position for which designation has been received based on the acquired position data.

また、第10発明に係る画像計測装置は、第9発明において、前記選択受付手段は、表示されている画面から選択を受け付けるようにしてあることを特徴とする。   An image measuring apparatus according to a tenth invention is characterized in that, in the ninth invention, the selection receiving means receives a selection from a displayed screen.

また、第11発明に係る画像計測装置は、第7発明、第9発明、第10発明のいずれか1つにおいて、前記表示手段は、前記第一の画像データ又は前記第三の画像データを表示するようにしてあることを特徴とする。   An image measuring apparatus according to an eleventh aspect of the present invention is the image measuring apparatus according to any one of the seventh, ninth, and tenth aspects, wherein the display means displays the first image data or the third image data. It is made to do so.

次に、上記目的を達成するために第12発明に係る画像計測方法は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能な画像計測方法において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶し、前記第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付け、指定を受け付けた計測位置に応じて前記第一の画像データ又は前記第二の画像データを読み出し、読み出した前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得し、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行することを特徴とする。   Next, in order to achieve the above object, an image measurement method according to a twelfth aspect of the present invention is an imaging means for capturing an image of a measurement object, and an epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means. And an image measurement apparatus comprising a transmission illumination means for illuminating a measurement object from the opposite side of the installation side of the imaging means, wherein the imaging means uses the epi-illumination means. Storing first image data obtained by imaging a measurement object and second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmission illumination means; The image data is displayed, designation of the measurement position is received on the displayed first image data, and the first image data or the second image data is read and read according to the measurement position at which the designation is accepted. Said It acquires position data based on the first image data or the second image data, based on the obtained position data, and executes the measurement in accepting the designated measurement location.

また、第13発明に係る画像計測方法は、第12発明において、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データをさらに記憶し、前記第一の画像データ又は前記第三の画像データを表示することを特徴とする。   An image measurement method according to a thirteenth aspect of the invention is the image measurement method according to the twelfth aspect of the invention, further storing third image data obtained by aligning and synthesizing the first image data and the second image data. One image data or the third image data is displayed.

また、第14発明に係る画像計測方法は、第12又は第13発明において、指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断し、計測対象物のエッジ部分であると判断した場合、前記第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、前記第一の画像データに基づいて位置データを取得することを特徴とする。   The image measurement method according to the fourteenth invention is the image measurement method according to the twelfth or thirteenth invention, wherein it is determined whether or not the designated measurement position is an edge portion indicating the outer shape of the measurement object. When it is determined that it is a portion, position data is acquired based on the second image data, and when it is determined that it is not an edge portion, position data is acquired based on the first image data. To do.

また、第15発明に係る画像計測方法は、第14発明において、計測対象物のエッジ部分であると判断した場合、前記第一の画像データ及び前記第二の画像データに基づいてエッジ強度を算出し、算出されたエッジ強度がより大きい画像データに基づいて位置データを取得することを特徴とする。   Further, in the image measurement method according to the fifteenth aspect, in the fourteenth aspect, when it is determined that the measurement object is an edge portion, an edge strength is calculated based on the first image data and the second image data. Then, the position data is acquired based on image data having a larger calculated edge strength.

次に、上記目的を達成するために第16発明に係る画像計測方法は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能な画像計測方法において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶し、前記第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付け、指定を受け付けた計測位置に応じて前記第三の画像データを読み出し、読み出した前記第三の画像データに基づいて位置データを取得し、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行することを特徴とする。   Next, in order to achieve the above object, an image measuring method according to the sixteenth aspect of the present invention is an imaging means for capturing an image of a measurement object, and an epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means. And an image measurement apparatus comprising a transmission illumination means for illuminating a measurement object from the opposite side of the installation side of the imaging means, wherein the imaging means uses the epi-illumination means. First image data obtained by imaging a measurement object, second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmission illumination means, and the first image data The third image data obtained by aligning and synthesizing the second image data is stored, the first image data is displayed, and the measurement position designation is accepted on the displayed first image data. , Accept specification The third image data is read according to the measurement position, the position data is acquired based on the read third image data, and the measurement is performed at the measurement position where the designation is received based on the acquired position data. It is characterized by doing.

また、第17発明に係る画像計測方法は、第16発明において、前記第一の画像データ又は前記第三の画像データを表示することを特徴とする。   An image measurement method according to a seventeenth aspect of the invention is the image display method according to the sixteenth aspect, wherein the first image data or the third image data is displayed.

次に、上記目的を達成するために第18発明に係る画像計測方法は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能な画像計測方法において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶し、前記第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付け、記憶されている前記第一の画像データ及び前記第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行し、前記第一の画像データのエッジ抽出が正常に終了したか否かを判断し、前記第二の画像データのエッジ抽出が正常に終了したか否かを判断し、判断結果に応じて、前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得し、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行し、前記第一の画像データのエッジ抽出が正常に終了したと判断し、前記第二の画像データのエッジ抽出が正常に終了しなかったと判断した場合、前記第一の画像データに基づいて位置データを取得し、前記第二の画像データのエッジ抽出が正常に終了したと判断し、前記第一の画像データのエッジ抽出が正常に終了しなかったと判断した場合、前記第二の画像データに基づいて位置データを取得し、前記第一の画像データのエッジ抽出及び前記第二の画像データのエッジ抽出が正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得することを特徴とする。   Next, in order to achieve the above object, an image measuring method according to an eighteenth aspect of the present invention is an imaging unit that captures an image of a measurement object, and an epi-illumination unit that illuminates the surface of the measurement object from the installation side of the imaging unit. And an image measurement apparatus comprising a transmission illumination means for illuminating a measurement object from the opposite side of the installation side of the imaging means, wherein the imaging means uses the epi-illumination means. Storing first image data obtained by imaging a measurement object and second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmission illumination means; Measurement position that displays image data, accepts designation of a measurement position on the displayed first image data, and accepts designation based on the stored first image data and second image data In Execute extraction, determine whether the edge extraction of the first image data has been completed normally, determine whether the edge extraction of the second image data has been completed normally, In response, position data is acquired based on the first image data or the second image data, and measurement is performed at the measurement position where the designation is received based on the acquired position data. When it is determined that the edge extraction of the image data has ended normally and the edge extraction of the second image data has not ended normally, position data is acquired based on the first image data, If it is determined that the edge extraction of the second image data has been completed normally and the edge extraction of the first image data has not been completed normally, position data is acquired based on the second image data And before When it is determined that the edge extraction of the first image data and the edge extraction of the second image data have been normally completed, the respective edge strengths are calculated, and the image data having a larger calculated edge strength is selected. Then, the position data is acquired based on the selected image data.

また、第19発明に係る画像計測方法は、第12乃至第18発明のいずれか1つにおいて、計測の基礎となった画像データを表示することを特徴とする。   An image measurement method according to a nineteenth invention is characterized in that, in any one of the twelfth to eighteenth inventions, image data serving as a basis for measurement is displayed.

次に、上記目的を達成するために第20発明に係る画像計測方法は、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能な画像計測方法において、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶し、前記第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付け、前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つの選択を受け付け、選択を受け付けた前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つを読み出し、読み出した前記第一の画像データ、前記第二の画像データ又は前記第三の画像データに基づいて位置データを取得し、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行することを特徴とする。   Next, in order to achieve the above object, an image measuring method according to the twentieth aspect of the present invention is an imaging means for capturing an image of a measurement object, and an epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means. And an image measurement apparatus comprising a transmission illumination means for illuminating a measurement object from the opposite side of the installation side of the imaging means, wherein the imaging means uses the epi-illumination means. First image data obtained by imaging a measurement object, second image data obtained by imaging the measurement object at substantially the same position by the imaging means using the transmission illumination means, and the first image data The third image data obtained by aligning and synthesizing the second image data is stored, the first image data is displayed, and the measurement position designation is accepted on the displayed first image data. The first image Data, the second image data, and the third image data are selected, and the first image data, the second image data, and the third image data that are selected are received. Any one is read, position data is acquired based on the read first image data, second image data, or third image data, and designation is accepted based on the acquired position data The measurement at the measurement position is executed.

また、第21発明に係る画像計測方法は、第20発明において、表示されている画面から選択を受け付けることを特徴とする。   An image measuring method according to a twenty-first aspect is characterized in that in the twentieth aspect, a selection is received from a displayed screen.

また、第22発明に係る画像計測方法は、第18発明、第20発明、第21発明のいずれか1つにおいて、前記第一の画像データ又は前記第三の画像データを表示することを特徴とする。   An image measurement method according to a twenty-second invention is characterized in that, in any one of the eighteenth, twentieth and twenty-first inventions, the first image data or the third image data is displayed. To do.

次に、上記目的を達成するために第23発明に係るコンピュータプログラムは、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、前記画像計測装置を、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段、前記第一の画像データを表示する表示手段、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、該指定受付手段で指定を受け付けた計測位置に応じて前記第一の画像データ又は前記第二の画像データを前記記憶手段から読み出し、読み出した前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段、及び取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段として機能させることを特徴とする。   Next, in order to achieve the above object, a computer program according to a twenty-third aspect of the present invention includes an imaging unit that captures an image of a measurement object, and an epi-illumination unit that illuminates the surface of the measurement object from the installation side of the imaging unit. In a computer program that can be executed by an image measurement apparatus that includes a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit, the image measurement device is used by using the incident illumination unit. Storage for storing first image data obtained by imaging the measurement object by the imaging means and second image data obtained by imaging the measurement object by the imaging means at substantially the same position using the transmission illumination means. Means for displaying the first image data; designation accepting means for accepting designation of a measurement position on the displayed first image data; accepting designation by the designation accepting means The position where the first image data or the second image data is read out from the storage unit according to the measured position and the position data is acquired based on the read out first image data or the second image data Based on the acquisition means and the acquired position data, it is made to function as a measurement means for executing measurement at a measurement position for which designation has been received.

また、第24発明に係るコンピュータプログラムは、第23発明において、前記記憶手段を、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データを記憶する手段として機能させ、前記表示手段を、前記第一の画像データ又は前記第三の画像データを表示する手段として機能させることを特徴とする。   According to a twenty-fourth aspect of the present invention, in the twenty-third aspect, the computer program stores the third image data obtained by aligning and synthesizing the first image data and the second image data. The display means functions as means for displaying the first image data or the third image data.

また、第25発明に係るコンピュータプログラムは、第23又は第24発明において、前記位置取得手段を、前記指定受付手段で指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断する判断手段、及び該判断手段が、計測対象物のエッジ部分であると判断した場合、前記第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、前記第一の画像データに基づいて位置データを取得する手段として機能させることを特徴とする。   A computer program according to a twenty-fifth aspect of the present invention is the computer program according to the twenty-third or twenty-fourth aspect, wherein the position acquisition means is the edge portion indicating the outer shape of the measurement object. If it is determined that the determination means, and the determination means is an edge portion of the measurement object, position data is acquired based on the second image data, and if it is determined that it is not an edge portion, It is made to function as a means to acquire position data based on said 1st image data.

また、第26発明に係るコンピュータプログラムは、第25発明において、前記位置取得手段を、前記判断手段が、計測対象物のエッジ部分であると判断した場合、前記第一の画像データ及び前記第二の画像データに基づいてエッジ強度を算出する手段、及び算出されたエッジ強度がより大きい画像データに基づいて位置データを取得する手段として機能させることを特徴とする。   According to a twenty-sixth aspect of the present invention, in the twenty-fifth aspect of the invention, the computer program according to the twenty-fifth aspect of the present invention is configured so that the position acquisition means And functioning as means for calculating edge strength based on the image data and means for acquiring position data based on image data having a larger calculated edge strength.

次に、上記目的を達成するために第27発明に係るコンピュータプログラムは、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、前記画像計測装置を、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段、前記第一の画像データを表示する表示手段、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、該指定受付手段で指定された計測位置に応じて前記第三の画像データを前記記憶手段から読み出し、読み出した前記第三の画像データに基づいて位置データを取得する位置取得手段、及び取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段として機能させることを特徴とする。   Next, in order to achieve the above object, a computer program according to a twenty-seventh aspect of the present invention is an imaging means for capturing an image of a measurement object, and an epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means. In a computer program that can be executed by an image measurement apparatus that includes a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit, the image measurement device is used by using the incident illumination unit. First image data obtained by imaging the measurement object by the imaging means, second image data obtained by imaging the measurement object by the imaging means using the transmission illumination means at substantially the same position, and the first Storage means for storing the third image data obtained by aligning and synthesizing the image data and the second image data, a display means for displaying the first image data, A designation receiving means for receiving designation of a measurement position on one image data, the third image data read out from the storage means in accordance with the measurement position designated by the designation receiving means, and the read third image data It is made to function as a position acquisition means which acquires position data based on, and a measurement means which performs measurement in the measurement position which received specification based on acquired position data.

また、第28発明に係るコンピュータプログラムは、第27発明において、前記表示手段を、前記第一の画像データ又は前記第三の画像データを表示する手段として機能させることを特徴とする。   According to a twenty-eighth aspect of the present invention, in the twenty-seventh aspect, the computer program causes the display unit to function as a unit for displaying the first image data or the third image data.

次に、上記目的を達成するために第29発明に係るコンピュータプログラムは、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、前記画像計測装置を、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段、前記第一の画像データを表示する表示手段、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、記憶されている前記第一の画像データ及び前記第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行するエッジ抽出手段、該エッジ抽出手段で前記第一の画像データのエッジ抽出が正常に終了したか否かを判断する第一の判断手段、前記エッジ抽出手段で前記第二の画像データのエッジ抽出が正常に終了したか否かを判断する第二の判断手段、前記第一の判断手段及び前記第二の判断手段の判断結果に応じて、前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段、及び取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段として機能させ、前記位置取得手段を、前記第一の判断手段で正常に終了したと判断し、前記第二の判断手段で正常に終了しなかったと判断した場合、前記第一の画像データに基づいて位置データを取得する手段、前記第二の判断手段で正常に終了したと判断し、前記第一の判断手段で正常に終了しなかったと判断した場合、前記第二の画像データに基づいて位置データを取得手段、及び前記第一の判断手段及び前記第二の判断手段で正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得する手段として機能させることを特徴とする。   Next, in order to achieve the above object, a computer program according to a twenty-ninth aspect of the present invention provides an imaging means for capturing an image of a measurement object, and an epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means. In a computer program that can be executed by an image measurement apparatus that includes a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit, the image measurement device is used by using the incident illumination unit. Storage for storing first image data obtained by imaging the measurement object by the imaging means and second image data obtained by imaging the measurement object by the imaging means at substantially the same position using the transmission illumination means. Means, display means for displaying the first image data, designation accepting means for accepting designation of the measurement position on the displayed first image data, and the stored first image Edge extraction means for performing edge extraction at the measurement position where the designation is received based on the data and the second image data, and whether the edge extraction of the first image data is normally completed by the edge extraction means First judgment means for judging whether or not, second judgment means for judging whether or not edge extraction of the second image data has been normally completed by the edge extraction means, the first judgment means, and the According to the determination result of the second determination means, the position acquisition means for acquiring the position data based on the first image data or the second image data, and the designation received based on the acquired position data It is made to function as a measurement unit that performs measurement at a measurement position, and the position acquisition unit is determined to have been normally terminated by the first determination unit, and is not normally terminated by the second determination unit. In the case where it is determined that the means for obtaining the position data based on the first image data, the second determining means has ended normally, and the first determining means determines that it has not ended normally, Based on the second image data, when the position data is obtained by the obtaining means, and the first judging means and the second judging means are judged to have ended normally, the respective edge strengths are calculated and calculated. The image data having a higher edge strength is selected and functioned as means for acquiring position data based on the selected image data.

また、第30発明に係るコンピュータプログラムは、第23乃至第29発明のいずれか1つにおいて、前記表示手段を、前記計測手段での計測の基礎となった画像データを表示する手段として機能させることを特徴とする。   A computer program according to a thirtieth aspect of the invention is the computer program according to any one of the twenty-third to twenty-ninth aspects, wherein the display unit functions as a unit that displays image data that is a basis of measurement by the measurement unit. It is characterized by.

次に、上記目的を達成するために第31発明に係るコンピュータプログラムは、計測対象物の画像を撮像する撮像手段と、計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段とを備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、前記画像計測装置を、前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段、前記第一の画像データを表示する表示手段、表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つの選択を受け付ける選択受付手段、該選択受付手段で選択を受け付けた前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つを前記記憶手段から読み出し、読み出した前記第一の画像データ、前記第二の画像データ又は前記第三の画像データに基づいて位置データを取得する位置取得手段、及び取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段として機能させることを特徴とする。   Next, in order to achieve the above object, a computer program according to the thirty-first invention comprises an imaging means for capturing an image of a measurement object, and an epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means. In a computer program that can be executed by an image measurement apparatus that includes a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit, the image measurement device is used by using the incident illumination unit. First image data obtained by imaging the measurement object by the imaging means, second image data obtained by imaging the measurement object by the imaging means using the transmission illumination means at substantially the same position, and the first Storage means for storing the third image data obtained by aligning and synthesizing the image data and the second image data, a display means for displaying the first image data, A designation accepting means for accepting designation of a measurement position on one image data, a selection accepting means for accepting a selection of any one of the first image data, the second image data, and the third image data, the selection Any one of the first image data, the second image data, and the third image data whose selection is received by the reception unit is read from the storage unit, and the read first image data, the first image data, Function as position acquisition means for acquiring position data based on the second image data or the third image data, and measurement means for executing measurement at the measurement position where the designation is received based on the acquired position data. It is characterized by.

また、第32発明に係るコンピュータプログラムは、第31発明において、前記選択受付手段を、表示されている画面から選択を受け付ける手段として機能させることを特徴とする。   According to a thirty-second invention, the computer program according to the thirty-second invention is characterized in that the selection receiving means functions as a means for receiving a selection from a displayed screen.

また、第33発明に係るコンピュータプログラムは、第29発明、第31発明、第32発明のいずれか1つにおいて、前記表示手段を、前記第一の画像データ又は前記第三の画像データを表示する手段として機能させることを特徴とする。   A computer program according to a thirty-third invention displays the first image data or the third image data on the display means in any one of the twenty-ninth, thirty-first and thirty-second inventions. It is made to function as a means.

第1発明、第12発明及び第23発明では、落射照明手段を用いて撮像手段で計測対象物を撮像した第一の画像データと、透過照明手段を用いて撮像手段で計測対象物を略同じ位置にて撮像した第二の画像データとを記憶しておく。第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付ける。指定を受け付けた計測位置に応じて第一の画像データ又は第二の画像データを読み出し、読み出した第一の画像データ又は第二の画像データに基づいて位置データを取得する。取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する。第一の画像データを表示することで、計測対象物の表面の凹凸、模様、パターン等も計測対象として指定することができ、表示されている画像に基づいて所望の計測を容易かつ正確に実行することができる。また、例えば指定された計測位置が外形を示す輪郭部分である場合には第二の画像データを、そうでない場合には第一の画像データを、それぞれ選択するよう制御することにより、計測に係る画像データの選択に熟練を要することなく、精度良く計測することが可能となる。   In the first invention, the twelfth invention, and the twenty-third invention, the first image data obtained by imaging the measurement object with the imaging means using the epi-illumination means and the measurement object substantially the same with the imaging means using the transmission illumination means. Second image data captured at the position is stored. First image data is displayed, and designation of a measurement position is received on the displayed first image data. The first image data or the second image data is read according to the measurement position for which the designation has been received, and the position data is acquired based on the read first image data or second image data. Based on the acquired position data, the measurement at the measurement position where the designation is accepted is executed. By displaying the first image data, surface irregularities, patterns, patterns, etc. on the measurement object can be specified as measurement objects, and desired measurements can be easily and accurately performed based on the displayed image. can do. In addition, for example, when the designated measurement position is a contour portion indicating an outer shape, the second image data is controlled, and if not, the first image data is controlled to be selected. Measurement can be performed with high accuracy without requiring skill in selecting image data.

第3発明、第14発明及び第25発明では、指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断し、計測対象物のエッジ部分であると判断した場合、第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、第一の画像データに基づいて位置データを取得する。指定された計測位置が外形を示す輪郭部分である場合には、外形線を明確に把握することができる第二の画像データを、そうでない場合には表面の凹凸、模様、パターン等を認識することができる第一の画像データを、それぞれ選択するよう制御することにより、計測に係る画像データの選択に熟練を要することなく、精度良く計測することが可能となる。   In the third invention, the fourteenth invention, and the twenty-fifth invention, when it is determined whether or not the measurement position at which the designation is received is an edge portion indicating the outer shape of the measurement object, and it is determined that the measurement position is the edge portion of the measurement object If the position data is acquired based on the second image data and it is determined that the position data is not an edge portion, the position data is acquired based on the first image data. If the specified measurement position is a contour portion showing the outer shape, the second image data that can clearly grasp the outer shape line is recognized, otherwise the surface irregularities, patterns, patterns, etc. are recognized. By controlling to select each of the first image data that can be obtained, it is possible to measure with high accuracy without requiring skill in selecting image data for measurement.

第4発明、第15発明及び第26発明では、計測対象物のエッジ部分であると判断した場合、第一の画像データ及び第二の画像データに基づいてエッジ強度を算出し、算出されたエッジ強度がより大きい画像データに基づいて位置データを取得する。エッジ強度の大小により画像データを選択するよう制御することにより、計測に係る画像データの選択に熟練を要することなく、精度良く計測することが可能となる。   In 4th invention, 15th invention, and 26th invention, when it is judged that it is an edge part of a measurement object, edge strength is calculated based on 1st image data and 2nd image data, and the calculated edge Position data is acquired based on image data having a higher intensity. By controlling to select the image data according to the magnitude of the edge strength, it is possible to measure with high accuracy without requiring skill in selecting the image data for measurement.

第5発明、第16発明及び第27発明では、落射照明手段を用いて撮像手段で計測対象物を撮像した第一の画像データと、透過照明手段を用いて撮像手段で計測対象物を略同じ位置にて撮像した第二の画像データと、第一の画像データと第二の画像データとを位置合わせして合成した第三の画像データとを記憶しておく。第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付ける。指定を受け付けた計測位置に応じて第三の画像データを読み出し、読み出した第三の画像データに基づいて位置データを取得し、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する。外形線を明確に把握することができるとともに、表面の凹凸、模様、パターン等も認識することができるよう合成画像を生成する。計測位置を、生成された合成画像上で指定することができ、計測位置が外形を示す輪郭部分であろうとなかろうと、合成画像に基づいて正確な位置データを取得することができることから、計測に係る画像データを操作者が意識して選択することなく、精度良く計測することが可能となる。   In the fifth invention, the sixteenth invention and the twenty-seventh invention, the first image data obtained by imaging the measurement object by the imaging means using the epi-illumination means and the measurement object by the imaging means using the transmission illumination means are substantially the same. Second image data captured at a position and third image data obtained by aligning and synthesizing the first image data and the second image data are stored. First image data is displayed, and designation of a measurement position is received on the displayed first image data. The third image data is read according to the measurement position where the designation is accepted, the position data is obtained based on the read third image data, and the measurement at the measurement position where the designation is accepted is obtained based on the obtained position data. Execute. A composite image is generated so that the outline can be clearly grasped and the surface irregularities, patterns, patterns, and the like can be recognized. The measurement position can be specified on the generated composite image, and accurate position data can be acquired based on the composite image regardless of whether the measurement position is a contour portion indicating the outer shape. The image data can be measured with high accuracy without the operator consciously selecting it.

第2発明、第6発明、第11発明、第13発明、第17発明、第22発明、第24発明第28発明及び第33発明では、第一の画像データ又は第三の画像データを表示することにより、計測対象物の外形を示す輪郭線だけでなく、計測対象物表面の凹凸、模様、パターン等も計測位置として指定することが可能となる。   In the second, sixth, eleventh, thirteenth, seventeenth, twenty-second, twenty-fourth, twenty-eighth and thirty-third inventions, the first image data or the third image data is displayed. Thus, not only the contour line indicating the outer shape of the measurement object but also the unevenness, pattern, pattern, etc. on the surface of the measurement object can be designated as the measurement position.

第7発明、第18発明及び第29発明では、落射照明手段を用いて撮像手段で計測対象物を撮像した第一の画像データと、透過照明手段を用いて撮像手段で計測対象物を略同じ位置にて撮像した第二の画像データとを記憶しておく。第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付ける。記憶されている第一の画像データ及び第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行し、第一の画像データ及び第二の画像データのエッジ抽出が正常に終了したか否かを判断する。第一の画像データのエッジ抽出が正常に終了したと判断し、第二の画像データのエッジ抽出が正常に終了しなかったと判断した場合、第一の画像データに基づいて位置データを取得する。第二の画像データのエッジ抽出が正常に終了したと判断し、第一の画像データのエッジ抽出が正常に終了しなかったと判断した場合、第二の画像データに基づいて位置データを取得する。第一の画像データのエッジ抽出及び第二の画像データのエッジ抽出が正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得する。取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する。第一の画像データを表示することで、計測対象物の表面の凹凸、模様、パターン等も計測対象として指定することができ、表示されている画像に基づいて所望の計測を容易かつ正確に実行することができる。また、エッジ抽出が正常に終了したか否かに応じて位置データを取得する画像データを選択することにより、指定された計測位置に適した画像データを熟練を要することなく選択することができ、精度良く計測することが可能となる。   In the seventh invention, the eighteenth invention and the twenty-ninth invention, the first image data obtained by imaging the measurement object with the imaging means using the epi-illumination means and the measurement object with the imaging means using the transmission illumination means are substantially the same. Second image data captured at the position is stored. First image data is displayed, and designation of a measurement position is received on the displayed first image data. Based on the stored first image data and second image data, the edge extraction at the measurement position where the designation is accepted is executed, and the edge extraction of the first image data and the second image data is normally performed. It is determined whether or not it has been completed. If it is determined that the edge extraction of the first image data has been completed normally, and it is determined that the edge extraction of the second image data has not been completed normally, position data is acquired based on the first image data. If it is determined that the edge extraction of the second image data has been completed normally, and it is determined that the edge extraction of the first image data has not been completed normally, position data is acquired based on the second image data. When it is determined that the edge extraction of the first image data and the edge extraction of the second image data have been completed normally, calculate the respective edge strengths, and select the image data having a larger calculated edge strength. The position data is acquired based on the selected image data. Based on the acquired position data, the measurement at the measurement position where the designation is accepted is executed. By displaying the first image data, surface irregularities, patterns, patterns, etc. on the measurement object can be specified as measurement objects, and desired measurements can be easily and accurately performed based on the displayed image. can do. Further, by selecting image data for acquiring position data depending on whether or not edge extraction has been normally completed, it is possible to select image data suitable for the designated measurement position without requiring skill, It becomes possible to measure with high accuracy.

第8発明、第19発明及び第30発明では、計測の基礎となった画像データを表示することにより、どの画像データに基づいて計測しているかを操作者が目視で確認することが可能となり、誤った選択がなされているか否かを確認することが可能となる。   In the eighth invention, the nineteenth invention and the thirtieth invention, by displaying the image data that is the basis of the measurement, it becomes possible for the operator to visually confirm which image data is being measured, It is possible to confirm whether or not an erroneous selection has been made.

第9発明、第20発明及び第31発明では、落射照明手段を用いて撮像手段で計測対象物を撮像した第一の画像データと、透過照明手段を用いて撮像手段で計測対象物を略同じ位置にて撮像した第二の画像データと、第一の画像データと第二の画像データとを位置合わせして合成した第三の画像データとを記憶しておく。第一の画像データを表示し、表示された第一の画像データ上で計測位置の指定を受け付ける。第一の画像データ、第二の画像データ、第三の画像データのいずれか1つの選択を受け付ける。選択を受け付けた第一の画像データ、第二の画像データ、第三の画像データのいずれか1つを読み出し、読み出した第一の画像データ、第二の画像データ又は第三の画像データに基づいて位置データを取得する。取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する。外形線を明確に把握することができるとともに、表面の凹凸、模様、パターン等も認識することができる合成画像を含めて、計測に用いる画像データの選択を受け付けることにより、計測位置が外形を示す輪郭部分のみである場合には、外形線を明確に把握することができる第二の画像データを、外形を示す輪郭部分ではなく、表面の凹凸、模様、パターン等である場合には第一の画像データを、両者間の距離を計測する場合には合成画像である第三の画像データを、それぞれ用いて計測するよう操作者が選択することにより、画像データの選択に熟練を要することなく精度良く計測することが可能となる。   In the ninth invention, the twentieth invention and the thirty-first invention, the first image data obtained by imaging the measurement object by the imaging means using the epi-illumination means and the measurement object by the imaging means using the transmission illumination means are substantially the same. Second image data captured at a position and third image data obtained by aligning and synthesizing the first image data and the second image data are stored. First image data is displayed, and designation of a measurement position is received on the displayed first image data. The selection of any one of the first image data, the second image data, and the third image data is accepted. One of the first image data, second image data, and third image data that has been selected is read out, and is based on the read first image data, second image data, or third image data. To obtain position data. Based on the acquired position data, the measurement at the measurement position where the designation is accepted is executed. The measurement position shows the outline by accepting selection of image data used for measurement, including a composite image that can clearly grasp the outline and also recognize surface irregularities, patterns, patterns, etc. In the case of only the outline portion, the second image data that can clearly grasp the outline is not the outline portion indicating the outline, but the first image in the case of surface irregularities, patterns, patterns, etc. When measuring the distance between image data, the operator selects the third image data, which is a composite image, to measure each, so that the image data can be selected without any skill. It becomes possible to measure well.

第10発明、第21発明及び第32発明では、表示されている画面から選択を受け付けることにより、操作者は、どの画像データを選択するのか目視で確認しながら選択することが可能となる。   In the tenth invention, the twenty-first invention, and the thirty-second invention, by accepting a selection from the displayed screen, the operator can make a selection while visually confirming which image data to select.

上記構成によれば、第一の画像データを表示することで、計測対象物の表面の凹凸、模様、パターン等も計測対象として指定することができ、表示されている画像に基づいて所望の計測を容易かつ正確に実行することができる。また、例えば指定された計測位置が外形を示す輪郭部分である場合には第二の画像データを、そうでない場合には第一の画像データを、それぞれ選択するよう制御する、あるいはエッジ強度の大小により画像データを選択するよう制御する等により、計測に係る画像データの選択に熟練を要することなく、精度良く計測することが可能となる。   According to the above configuration, by displaying the first image data, the unevenness, pattern, pattern, etc. on the surface of the measurement target can be specified as the measurement target, and a desired measurement can be performed based on the displayed image. Can be executed easily and accurately. In addition, for example, when the designated measurement position is a contour portion indicating the outer shape, the second image data is controlled, and if not, the first image data is selected to be selected, or the edge strength is increased or decreased. Thus, it is possible to perform measurement with high accuracy without requiring skill in selecting image data for measurement.

以下、本発明の実施の形態に係る画像計測装置について、図面を参照して説明する。なお、参照する図面を通じて、同一又は同様の構成又は機能を有する要素については、同一又は同様の符号を付して、重複する説明は省略する。   Hereinafter, an image measurement device according to an embodiment of the present invention will be described with reference to the drawings. Throughout the drawings to be referred to, elements having the same or similar configuration or function are denoted by the same or similar reference numerals, and redundant description is omitted.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像計測装置の構成を示す模式図である。図1に示すように本実施の形態1に係る画像計測装置1は、測定部2と制御ユニット3とで構成されており、測定部2にて撮像された画像データを制御ユニット3にて演算処理して、所望の形状の寸法等を計測する。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration of an image measurement apparatus according to Embodiment 1 of the present invention. As shown in FIG. 1, the image measuring apparatus 1 according to the first embodiment includes a measuring unit 2 and a control unit 3, and the control unit 3 calculates image data captured by the measuring unit 2. Process and measure the dimensions of the desired shape.

測定部2は、計測対象物20を計測部分へ移動させるテーブル21を挟んで2組の照明装置が設置されている。まずテーブル21上の計測対象物20を上方から照らすリング状の落射照明装置22が受光レンズユニット23に設置されている。落射照明装置22で照射された光は、計測対象物20の表面で反射して、受光レンズユニット23へ戻ってくる。これにより、計測対象物20の表面の凹凸、模様、パターン等を撮像することができる。   The measurement unit 2 is provided with two sets of lighting devices across a table 21 that moves the measurement object 20 to the measurement part. First, a ring-shaped epi-illumination device 22 that illuminates the measurement object 20 on the table 21 from above is installed in the light receiving lens unit 23. The light irradiated by the epi-illumination device 22 is reflected by the surface of the measurement object 20 and returns to the light receiving lens unit 23. Thereby, the unevenness | corrugation of the surface of the measurement target object 20, a pattern, a pattern, etc. can be imaged.

また、テーブル21の下方には、計測対象物20を下方から照らす透過照明装置24が設置されている。透過照明装置24は、少なくとも光源241、反射機構242及びレンズ243で構成されており、光源241から照射された光を反射機構242にてテーブル21側へ反射させ、レンズ243にてテーブル21に対して略直交する方向の平行光へと変換する。これにより、計測対象物20が存在しない位置の光のみ透過して撮像することができる。   A transmission illumination device 24 that illuminates the measurement object 20 from below is installed below the table 21. The transmitted illumination device 24 includes at least a light source 241, a reflection mechanism 242, and a lens 243. The light emitted from the light source 241 is reflected by the reflection mechanism 242 toward the table 21, and the lens 243 reflects the table 21. To be converted into parallel light in a direction substantially perpendicular to each other. Thereby, only the light of the position where the measuring object 20 does not exist can be transmitted and imaged.

受光レンズユニット23は、少なくとも受光レンズ231、ハーフミラー232、高倍側結像レンズ部233、低倍側結像レンズ部236を備えている。ハーフミラー232は、透過照明装置24から発光した光を計測対象物20を透過させて低倍側結像レンズ部236へ、落射照明装置22から発光した光が計測対象物20で反射した光を高倍側結像レンズ部233へ、それぞれ誘導する。なお、高倍側結像レンズ部233は、結像するためのスリット234及び結像レンズ235で構成され、低倍側結像レンズ部236は、結像するためのスリット237及び結像レンズ238で構成されている。   The light receiving lens unit 23 includes at least a light receiving lens 231, a half mirror 232, a high magnification side imaging lens unit 233, and a low magnification side imaging lens unit 236. The half mirror 232 transmits the light emitted from the transmission illumination device 24 through the measurement target 20 and transmits the light reflected from the measurement target 20 to the low magnification side imaging lens unit 236. Each is guided to the high magnification side imaging lens unit 233. The high magnification side imaging lens unit 233 includes a slit 234 and an imaging lens 235 for imaging, and the low magnification side imaging lens unit 236 includes a slit 237 and an imaging lens 238 for imaging. It is configured.

撮像装置25は、高倍側結像レンズ部233へ誘導された光をCCD、CMOS等の撮像素子251で結像させ、画像データとして制御ユニット3へ送信する。同様に撮像装置26は、低倍側結像レンズ部236へ誘導された光をCCD、CMOS等の撮像素子261で結像させ、画像データとして制御ユニット3へ送信する。   The imaging device 25 forms an image of light guided to the high-magnification imaging lens unit 233 with an imaging element 251 such as a CCD or CMOS, and transmits the image data to the control unit 3. Similarly, the imaging device 26 forms an image of light guided to the low magnification side imaging lens unit 236 by an imaging element 261 such as a CCD or CMOS, and transmits the image data to the control unit 3.

図2は、本発明の実施の形態1に係る画像計測装置1の制御ユニット3の構成を示すブロック図である。図2に示すように本実施の形態1に係る画像計測装置1の制御ユニット3は、少なくともCPU(中央演算装置)33、メモリ等の記憶装置34、通信手段35及び上述したハードウェアを接続する内部バス36で構成されている。内部バス36を介して、入力装置であるマウス32、キーボード31、出力装置である表示装置27にも接続されている。   FIG. 2 is a block diagram showing the configuration of the control unit 3 of the image measurement apparatus 1 according to Embodiment 1 of the present invention. As shown in FIG. 2, the control unit 3 of the image measuring apparatus 1 according to the first embodiment connects at least a CPU (central processing unit) 33, a storage device 34 such as a memory, communication means 35, and the above-described hardware. An internal bus 36 is used. Via an internal bus 36, the input device is also connected to a mouse 32, a keyboard 31, and a display device 27, which is an output device.

CPU33は、内部バス36を介して制御ユニット3の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置34に記憶されているコンピュータプログラムに従って、種々のソフトウェア的機能を実行する。記憶装置34は、例えばSRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラムの実行時にロードモジュールが展開され、コンピュータプログラムの実行時に発生する一時的なデータ等を記憶する。   The CPU 33 is connected to the hardware units as described above of the control unit 3 through the internal bus 36, controls the operation of the hardware units described above, and according to the computer program stored in the storage device 34. Perform various software functions. The storage device 34 is composed of, for example, a volatile memory such as SRAM or SDRAM, and a load module is developed when the computer program is executed, and stores temporary data generated when the computer program is executed.

通信手段35は内部バス36に接続されており、通信線を介して撮像装置25、26に接続され、撮像装置25、26で撮像された画像データを受信する。また、インターネット、LAN、WAN等の外部のネットワークに接続されることにより、外部のコンピュータ等ともデータ送受信を行うことが可能となる。なお、記憶装置34に記憶されているコンピュータプログラムは、通信手段35を介して外部コンピュータからダウンロードされる。   The communication unit 35 is connected to the internal bus 36, is connected to the imaging devices 25 and 26 via a communication line, and receives image data captured by the imaging devices 25 and 26. Further, by being connected to an external network such as the Internet, a LAN, or a WAN, data can be transmitted / received to / from an external computer or the like. Note that the computer program stored in the storage device 34 is downloaded from an external computer via the communication means 35.

制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ(第一の画像データ)、及び透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データ(第二の画像データ)を記憶する記憶手段331、落射画像データを表示装置27に表示する表示手段332、表示された落射画像上で計測位置の指定を受け付ける指定受付手段333、指定を受け付けた計測位置に応じて落射画像データ又は透過画像データに基づいて位置データを取得する位置取得手段334、及び位置データに基づいて指定を受け付けた計測位置で計測する計測手段335を含み、これらの処理動作を制御する。   The CPU 33 of the control unit 3 uses the incident image data (first image data) that is the image data of the incident image captured by the imaging device 25 using the incident illumination device 22 and the imaging device 26 using the transmission illumination device 24. Storage means 331 that stores transmission image data (second image data) that is image data of the captured transmission image, display means 332 that displays the incident image data on the display device 27, and the measurement position on the displayed incident image. A designation accepting unit 333 that accepts designation, a position obtaining unit 334 that obtains position data based on incident image data or transmission image data according to a measurement position that accepts designation, and a measurement position that accepts designation based on position data. A measuring means 335 for measuring is included, and these processing operations are controlled.

記憶手段331は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ、及び透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データを、互いに位置合わせをした状態で記憶装置34に記憶する。ここで位置合わせとは、表示画面における座標位置を落射画像と透過画像との間で一致させることを意味する。位置合わせをした2種の画像データを記憶しておくことにより、指定を受け付けた計測位置に応じて、適切な画像データを選択することができる。   The storage unit 331 is epi-illumination image data that is image data of an epi-illumination image captured by the imaging device 25 using the epi-illumination device 22 and image data of a transmission image that is captured by the imaging device 26 using the transmission illumination device 24. The transmission image data is stored in the storage device 34 while being aligned with each other. Here, the alignment means that the coordinate position on the display screen is matched between the incident image and the transmission image. By storing the two types of image data that have been aligned, appropriate image data can be selected according to the measurement position for which the designation has been received.

表示手段332は、通信手段35にて受信した落射画像データを、LCD、有機ELディスプレイ等の表示装置27で落射画像として表示させる。落射画像は、計測対象物20の表面の凹凸、模様、パターン等を鮮明に映すことができ、外形を示す輪郭線以外の部分の寸法等を計測するために用いることができる。   The display unit 332 displays the incident image data received by the communication unit 35 as an incident image on the display device 27 such as an LCD or an organic EL display. The epi-illumination image can clearly show the unevenness, pattern, pattern, etc. on the surface of the measurement object 20, and can be used to measure the dimension of the portion other than the contour line indicating the outer shape.

指定受付手段333は、表示手段332にて表示装置27に表示されている落射画像に基づいて、計測する位置を計測位置として指定を受け付ける。図3は、指定受付手段333による計測位置の指定方法の例示図である。   The designation accepting unit 333 accepts designation based on the incident image displayed on the display device 27 by the display unit 332 with the position to be measured as the measurement position. FIG. 3 is an illustration of a method for designating a measurement position by the designation receiving means 333.

図3に示すように、操作者は、例えば計測したい長さLを特定するために、表示されている計測対象物20の落射画像上で、一のエッジ部分を検出するための検出領域301をマウス32を用いて指定する。次に、距離を計測する相手方である他のエッジ部分302も、同様にマウス32を用いて指定する。このように2箇所の指定を受け付けることにより、指定を受け付けたエッジ部分間の直線距離Lが計測対象であると特定することができる。   As shown in FIG. 3, for example, in order to specify the length L to be measured, the operator sets a detection area 301 for detecting one edge portion on the reflected image of the displayed measurement object 20. Designation is performed using the mouse 32. Next, the other edge part 302 which is the other party whose distance is to be measured is similarly designated using the mouse 32. Thus, by accepting designation of two places, it is possible to specify that the straight line distance L between the edge portions for which designation has been accepted is a measurement target.

位置取得手段334は、指定を受け付けた計測位置に応じて、落射画像の画像データである落射画像データ(第一の画像データ)又は透過画像の画像データである透過画像データ(第二の画像データ)を読み出し、読み出した落射画像データ又は透過画像データに基づいて位置データを取得する。計測手段335は、取得した位置データに基づいて、指定された計測位置の寸法等を計測する。   The position acquisition unit 334 receives the reflected image data (first image data) that is image data of the reflected image or the transmitted image data (second image data) that is the image data of the transmitted image according to the measurement position that has received the designation. ) And position data is acquired based on the read incident image data or transmitted image data. The measuring unit 335 measures the dimension of the designated measurement position based on the acquired position data.

従来は、操作者の目視確認によって、落射画像を用いて計測するか、透過画像を用いて計測するかを特定していた。しかし、操作者にとっては、いずれの画像であるかは問題ではなく、所望の位置の寸法を精度良く計測することができれば足りる。したがって、寸法の計測は、制御ユニット3がより好ましい画像データを選択して実行すれば良い。   Conventionally, whether to measure using an epi-illumination image or a transmission image is specified by visual confirmation of an operator. However, for the operator, it does not matter which image it is, and it is sufficient if the dimensions of the desired position can be measured with high accuracy. Therefore, the measurement of the dimensions may be performed by the control unit 3 selecting more preferable image data.

また、計測位置の指定には、外形の輪郭線しか表示されない透過画像よりも、表面の凹凸、模様、パターン等も表示することができる落射画像の方が好ましい。したがって、表示装置27には落射画像を表示しておき、画面上での計測位置の指定を受け付けた時点で、寸法を算出する基礎となる画像データを制御ユニット3内部で選択する。このようにすることで、より正確な寸法を計測することができる。   For specifying the measurement position, an epi-illumination image that can display surface irregularities, patterns, patterns, and the like is more preferable than a transmission image that displays only the outline of the outer shape. Therefore, an epi-illumination image is displayed on the display device 27, and image data serving as a basis for calculating the dimensions is selected inside the control unit 3 when the designation of the measurement position on the screen is received. By doing in this way, a more exact dimension can be measured.

上述した構成の画像計測装置1の動作について、フロ−チャートに基づいて詳細に説明する。図4は、本発明の実施の形態1に係る画像計測装置1の制御ユニット3のCPU33の処理手順を示すフローチャートである。   The operation of the image measuring apparatus 1 having the above-described configuration will be described in detail based on a flowchart. FIG. 4 is a flowchart showing a processing procedure of the CPU 33 of the control unit 3 of the image measuring apparatus 1 according to the first embodiment of the present invention.

図4に示すように制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25にて計測対象物20を撮像し、落射画像を取得し、透過照明装置24を用いて、撮像装置26にて同じ計測対象物20を略同じ位置にて撮像した透過画像を取得する(ステップS401)。CPU33は、取得した落射画像の画像データである落射画像データ(第一の画像データ)と、透過画像の画像データである透過画像データ(第二の画像データ)とを、記憶装置34へ記憶する(ステップS402)。   As shown in FIG. 4, the CPU 33 of the control unit 3 uses the epi-illumination device 22 to image the measurement object 20 by the imaging device 25, acquires the epi-illumination image, and uses the transmission illumination device 24 to image the imaging device 26. A transmission image obtained by capturing the same measurement object 20 at substantially the same position is acquired (step S401). The CPU 33 stores the acquired incident image data (first image data), which is image data of the reflected image, and the transmissive image data (second image data), which is the image data of the transmissive image, in the storage device 34. (Step S402).

落射画像と透過画像とは、同じ計測対象物20に対して略同じ位置にて若干の時間間隔を空けて撮像する。時間間隔を空けるのは、落射画像を撮像する場合に最適な光学的周囲環境、条件設定等が、透過画像を撮像する場合において最適であるとは限らないことから、各画像を撮像するのに最適な条件下で各々撮像した画像データを記憶するためである。   The epi-illumination image and the transmission image are captured at a substantially same position with respect to the same measurement object 20 with a slight time interval. The time interval is set to capture each image because the optimal optical ambient environment, condition settings, etc. when capturing an epi-illumination image are not necessarily optimal when capturing a transmission image. This is for storing image data captured under optimum conditions.

図5は、記憶装置34に記憶されている落射画像データを表示した場合の例示図である。図5に示すように、各計測対象物20の外形を示す輪郭線は、形状によって鮮明な計測対象物20もあれば、不鮮明な計測対象物20も存在する。一方、各計測対象物20の表面の凹凸、模様、パターン等についても、照明が当たる角度、材質の反射率等に応じて表示度合いが相違する。   FIG. 5 is an exemplary diagram when the incident image data stored in the storage device 34 is displayed. As shown in FIG. 5, the outline indicating the outer shape of each measurement object 20 includes a clear measurement object 20 and an unclear measurement object 20 depending on the shape. On the other hand, the unevenness, the pattern, the pattern, and the like on the surface of each measurement object 20 also have different display degrees depending on the angle of illumination, the reflectance of the material, and the like.

図6は、記憶装置34に記憶されている透過画像データを表示した場合の例示図である。図6に示すように、各計測対象物20の外形を示す輪郭線は、計測対象物20の形状によらずに鮮明に取得することができる。一方、各計測対象物20の表面の凹凸、模様、パターン等は全く取得することはできない。   FIG. 6 is an exemplary diagram when the transmission image data stored in the storage device 34 is displayed. As shown in FIG. 6, the contour line indicating the outer shape of each measurement object 20 can be clearly obtained regardless of the shape of the measurement object 20. On the other hand, unevenness, patterns, patterns, etc. on the surface of each measurement object 20 cannot be obtained at all.

CPU33は、記憶装置34に記憶されている落射画像データに基づいて落射画像を表示装置27に表示する(ステップS403)。落射画像を表示するのは、計測対象物20の表面の凹凸、模様、パターン等も計測対象とするためである。   The CPU 33 displays an incident image on the display device 27 based on the incident image data stored in the storage device 34 (step S403). The reason why the incident image is displayed is that the unevenness, pattern, pattern, etc. on the surface of the measurement object 20 are also measured.

CPU33は、表示された落射画像上で計測位置の指定を受け付ける(ステップS404)。計測位置の指定方法は、特に限定されるものではなく、表示されている画像上で計測対象となる位置を特定することができる方法であれば何でも良い。   The CPU 33 accepts designation of the measurement position on the displayed incident image (step S404). The method for specifying the measurement position is not particularly limited, and any method can be used as long as it can specify the position to be measured on the displayed image.

CPU33は、指定を受け付けた計測位置に応じて、落射画像データ又は透過画像データのいずれかを記憶装置34から読み出し(ステップS405)、読み出した落射画像データ又は透過画像データのいずれかに基づいて位置データを取得する(ステップS406)。CPU33は、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する(ステップS407)。   The CPU 33 reads either the incident image data or the transmission image data from the storage device 34 in accordance with the measurement position for which the designation has been received (step S405), and the position based on the read incident image data or transmission image data. Data is acquired (step S406). Based on the acquired position data, the CPU 33 performs measurement at the measurement position where the designation has been received (step S407).

位置データの取得方法は、様々な方法を用いることができる。図7は、本発明の実施の形態1に係る画像計測装置1の制御ユニット3のCPU33の位置データ取得処理の手順を示すフローチャートである。   Various methods can be used as the position data acquisition method. FIG. 7 is a flowchart showing a procedure of position data acquisition processing of the CPU 33 of the control unit 3 of the image measurement apparatus 1 according to Embodiment 1 of the present invention.

制御ユニット3のCPU33は、表示された落射画像上で計測位置の指定を受け付ける(ステップS404)。CPU33は、指定を受け付けた計測位置が計測対象物20の外形を示すエッジ部分であるか否かを判断する(ステップS701)。CPU33が、指定を受け付けた計測位置が計測対象物20のエッジ部分であると判断した場合(ステップS701:YES)、CPU33は、記憶装置34から透過画像データを読み出し(ステップS702)、透過画像データに基づいて位置データを取得する(ステップS703)。   The CPU 33 of the control unit 3 receives the designation of the measurement position on the displayed incident image (step S404). The CPU 33 determines whether or not the measurement position that has received the designation is an edge portion indicating the outer shape of the measurement target 20 (step S701). When the CPU 33 determines that the measurement position at which the designation has been received is the edge portion of the measurement object 20 (step S701: YES), the CPU 33 reads the transmission image data from the storage device 34 (step S702), and transmits the transmission image data. The position data is acquired based on (Step S703).

CPU33が、指定を受け付けた計測位置が計測対象物20のエッジ部分ではないと判断した場合(ステップS701:NO)、CPU33は、記憶装置34から落射画像データを読み出し(ステップS704)、落射画像データに基づいて位置データを取得する(ステップS705)。   When the CPU 33 determines that the measurement position that has received the designation is not the edge portion of the measurement target 20 (step S701: NO), the CPU 33 reads the incident image data from the storage device 34 (step S704), and the incident image data. The position data is acquired based on (Step S705).

また、透過画像データであってもエッジ部分が鮮明でない場合、逆に落射画像データであってもエッジ部分が鮮明である場合も想定される。したがって、エッジ部分のエッジ強度を算出して、エッジ強度の高い画像データを用いて位置データを取得しても良い。図8は、本発明の実施の形態1に係る画像計測装置1の制御ユニット3のCPU33の画像データ選択処理の手順を示すフローチャートである。   Also, it is assumed that the edge portion is not clear even if it is transmission image data, and conversely the edge portion is clear even if it is incident image data. Therefore, the edge strength of the edge portion may be calculated, and the position data may be acquired using image data having a high edge strength. FIG. 8 is a flowchart showing a procedure of image data selection processing of the CPU 33 of the control unit 3 of the image measuring apparatus 1 according to Embodiment 1 of the present invention.

制御ユニット3のCPU33は、表示された落射画像上で計測位置の指定を受け付け(ステップS404)、指定を受け付けた計測位置が計測対象物20の外形を示すエッジ部分であるか否かを判断する(ステップS701)。CPU33が、指定を受け付けた計測位置が計測対象物20のエッジ部分であると判断した場合(ステップS701:YES)、CPU33は、指定を受け付けたエッジ部分のエッジ強度を、落射画像データ及び透過画像データのそれぞれについて算出する(ステップS801)。なお、エッジ強度の算出方法は特に限定されるものではないが、本実施の形態1では、指定を受け付けたエッジ部分の縦方向及び横方向の一次微分値の二乗和の平方根を算出する。CPU33は、落射画像データに基づいて算出されたエッジ強度が、透過画像データに基づいて算出されたエッジ強度より大きいか否かを判断する(ステップS802)。   The CPU 33 of the control unit 3 accepts designation of the measurement position on the displayed incident image (step S404), and determines whether or not the designated measurement position is an edge portion indicating the outer shape of the measurement object 20. (Step S701). When the CPU 33 determines that the measurement position where the designation has been received is the edge portion of the measurement object 20 (step S701: YES), the CPU 33 determines the edge strength of the edge portion for which the designation has been received as the incident image data and the transmission image. Calculation is performed for each piece of data (step S801). The method for calculating the edge strength is not particularly limited, but in the first embodiment, the square root of the square sum of the primary differential values in the vertical and horizontal directions of the edge portion for which designation has been received is calculated. The CPU 33 determines whether or not the edge strength calculated based on the incident image data is larger than the edge strength calculated based on the transmission image data (step S802).

CPU33が、落射画像データに基づいて算出されたエッジ強度の方が、透過画像データに基づいて算出されたエッジ強度より大きいと判断した場合(ステップS802:YES)、CPU33は、記憶装置34から落射画像データを読み出す(ステップS803)。CPU33が、落射画像データに基づいて算出されたエッジ強度が、透過画像データに基づいて算出されたエッジ強度以下であると判断した場合(ステップS802:NO)、CPU33は、記憶装置34から透過画像データを読み出す(ステップS804)。   When the CPU 33 determines that the edge intensity calculated based on the incident image data is greater than the edge intensity calculated based on the transmission image data (step S802: YES), the CPU 33 determines that the incident intensity is reflected from the storage device 34. Image data is read out (step S803). When the CPU 33 determines that the edge strength calculated based on the incident image data is equal to or lower than the edge strength calculated based on the transmission image data (step S802: NO), the CPU 33 reads the transmission image from the storage device 34. Data is read (step S804).

位置データは、表示画面上の座標値として取得する。表示画面上の座標値に基づいて、撮像装置25、26の撮像倍率を用いることで、実際の計測値を容易に算出することが可能となる。   The position data is acquired as a coordinate value on the display screen. By using the imaging magnification of the imaging devices 25 and 26 based on the coordinate values on the display screen, it is possible to easily calculate actual measurement values.

以上のように本実施の形態1によれば、落射画像を表示することで、計測対象物の表面の凹凸、模様、パターン等も計測対象として指定することができ、表示されている画像に基づいて所望の計測を容易かつ正確に実行することができる。また、例えば指定された計測位置が外形を示す輪郭部分である場合には透過画像データを、そうでない場合には落射画像データを、それぞれ選択するよう制御する、あるいはエッジ強度の大小により画像データを選択するよう制御する等により、計測の基礎となる画像データの選択に熟練を要することなく、精度良く計測することが可能となる。   As described above, according to the first embodiment, by displaying the epi-illumination image, the unevenness, pattern, pattern, etc. on the surface of the measurement object can be specified as the measurement object, and based on the displayed image. Desired measurement can be performed easily and accurately. In addition, for example, when the designated measurement position is a contour portion indicating the outer shape, transmission image data is controlled, and when it is not, the incident image data is controlled to be selected, or the image data is selected depending on the magnitude of the edge strength. By controlling the selection, etc., it is possible to measure with high accuracy without requiring skill in selecting image data as a basis of measurement.

(実施の形態2)
本発明の実施の形態2に係る画像計測装置1の構成は、実施の形態1と同様であることから、同一の符号を付することにより詳細な説明を省略する。本実施の形態2では、落射照明装置22を用いて撮像装置25で計測対象物20を撮像した落射画像の画像データである落射画像データ(第一の画像データ)、及び透過照明装置24を用いて撮像装置26で計測対象物を略同じ位置にて撮像した透過画像の画像データである透過画像データ(第二の画像データ)だけでなく、落射画像データと透過画像データとを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を用いる点で実施の形態1と相違する。
(Embodiment 2)
Since the configuration of the image measuring apparatus 1 according to the second embodiment of the present invention is the same as that of the first embodiment, detailed description thereof is omitted by attaching the same reference numerals. In the second embodiment, the epi-illumination image data (first image data) that is the image data of the epi-illumination image obtained by imaging the measurement object 20 with the imaging device 25 using the epi-illumination device 22 and the transmission illumination device 24 are used. Then, not only the transmission image data (second image data) that is the image data of the transmission image obtained by imaging the measurement object at substantially the same position by the imaging device 26 but also the incident image data and the transmission image data are aligned. The second embodiment is different from the first embodiment in that synthesized image data (third image data) that is image data of the synthesized image is used.

制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ(第一の画像データ)、透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データ(第二の画像データ)、及び落射画像データと透過画像データとを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を記憶する記憶手段331、落射画像データを表示装置27に表示する表示手段332、表示された落射画像上で計測位置の指定を受け付ける指定受付手段333、指定を受け付けた計測位置に応じて合成画像データに基づいて位置データを取得する位置取得手段334、及び位置データに基づいて指定を受け付けた計測位置で計測する計測手段335を含み、これらの処理動作を制御する。   The CPU 33 of the control unit 3 captures the incident image data (first image data), which is the image data of the incident image captured by the imaging device 25 using the incident illumination device 22, and the image capturing device 26 using the transmission illumination device 24. Transmission image data (second image data) that is image data of the transmitted image, and composite image data (third image) that is image data of a combined image obtained by aligning and combining the epi-image data and the transmission image data Storage means 331 for storing data), display means 332 for displaying the epi-illumination image data on the display device 27, designation accepting means 333 for accepting designation of the measurement position on the displayed epi-illumination image, and according to the measurement position for which the designation has been accepted. Measurement is performed at a position acquisition unit 334 that acquires position data based on the composite image data, and a measurement position that receives a designation based on the position data. It includes measuring means 335, and controls these processing operations.

記憶手段331は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ、透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データ、及び落射画像データと透過画像データとを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を、互いに位置合わせをした状態で記憶装置34に記憶する。ここで位置合わせとは、表示画面における座標位置を落射画像、透過画像、及び合成画像の間で一致させることを意味する。位置合わせをした3種の画像データを記憶しておくことにより、指定を受け付けた計測位置に応じて、合成画像データに基づいて位置データを取得することができる。   The storage unit 331 includes incident image data that is image data of an epi-illumination image captured by the imaging device 25 using the epi-illumination device 22, and transmission that is image data of a transmission image captured by the imaging device 26 using the transmission illumination device 24. Image data and composite image data (third image data), which is image data of a composite image obtained by aligning and combining epi-image data and transmission image data, are stored in the storage device 34 in a state of being aligned with each other. To do. Here, the alignment means that the coordinate position on the display screen is matched between the reflected image, the transmitted image, and the synthesized image. By storing the three types of image data that have been aligned, the position data can be acquired based on the composite image data in accordance with the measurement position for which the designation has been received.

表示手段332は、通信手段35にて受信した落射画像データを、LCD、有機ELディスプレイ等の表示装置27で落射画像として表示させる。落射画像は、計測対象物の表面の凹凸、模様、パターン等を鮮明に映すことができ、外形を示す輪郭線以外の部分の寸法等を計測するために用いることができる。   The display unit 332 displays the incident image data received by the communication unit 35 as an incident image on the display device 27 such as an LCD or an organic EL display. The epi-illumination image can clearly show irregularities, patterns, patterns, and the like on the surface of the measurement object, and can be used to measure dimensions and the like of portions other than the contour line indicating the outer shape.

指定受付手段333は、表示手段332にて表示装置27に表示されている落射画像に基づいて、計測する位置を計測位置として指定を受け付ける。位置取得手段334は、指定を受け付けた計測位置に応じて、合成画像データ(第三の画像データ)を読み出し、読み出した合成画像データに基づいて位置データを取得する。計測手段335は、取得した位置データに基づいて、指定された計測位置の寸法等を計測する。   The designation accepting unit 333 accepts designation based on the incident image displayed on the display device 27 by the display unit 332 with the position to be measured as the measurement position. The position acquisition unit 334 reads the composite image data (third image data) according to the measurement position that has received the designation, and acquires position data based on the read composite image data. The measuring unit 335 measures the dimension of the designated measurement position based on the acquired position data.

従来は、操作者の目視確認によって、落射画像を用いて計測するか、透過画像を用いて計測するかを特定していた。しかし、操作者にとっては、いずれの画像であるかは問題ではなく、所望の位置の寸法を精度良く計測することができれば足りる。したがって、寸法の計測は、制御ユニット3がより好ましい画像データを選択して実行すれば良い。   Conventionally, whether to measure using an epi-illumination image or a transmission image is specified by visual confirmation of an operator. However, for the operator, it does not matter which image it is, and it is sufficient if the dimensions of the desired position can be measured with high accuracy. Therefore, the measurement of the dimensions may be performed by the control unit 3 selecting more preferable image data.

また、計測位置の指定には、外形の輪郭線しか表示されない透過画像よりも、表面の凹凸、模様、パターン等も表示することができる落射画像の方が好ましい。したがって、表示装置27には落射画像を表示しておき、画面上での計測位置の指定を受け付けた時点で、計測対象物20の形状を計測する基礎となる画像データとして合成画像データを読み出す。このようにすることで、正確な形状を計測することができる。   For specifying the measurement position, an epi-illumination image that can display surface irregularities, patterns, patterns, and the like is more preferable than a transmission image that displays only the outline of the outer shape. Accordingly, the reflected image is displayed on the display device 27, and when the designation of the measurement position on the screen is received, the composite image data is read out as image data serving as a basis for measuring the shape of the measurement object 20. By doing in this way, an exact shape can be measured.

上述した構成の画像計測装置1の動作について、フロ−チャートに基づいて詳細に説明する。図9は、本発明の実施の形態2に係る画像計測装置1の制御ユニット3のCPU33の処理手順を示すフローチャートである。   The operation of the image measuring apparatus 1 having the above-described configuration will be described in detail based on a flowchart. FIG. 9 is a flowchart showing a processing procedure of the CPU 33 of the control unit 3 of the image measuring apparatus 1 according to the second embodiment of the present invention.

図9に示すように制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25にて計測対象物20を撮像し、落射画像を取得し、透過照明装置24を用いて、撮像装置26にて同じ計測対象物20を略同じ位置にて撮像した透過画像を取得する(ステップS901)。CPU33は、取得した落射画像の画像データである落射画像データ(第一の画像データ)と、透過画像の画像データである透過画像データ(第二の画像データ)とを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を生成し(ステップS902)、落射画像データ、透過画像データ及び合成画像データを記憶装置34へ記憶する(ステップS903)。   As shown in FIG. 9, the CPU 33 of the control unit 3 uses the epi-illumination device 22 to image the measurement object 20 by the imaging device 25, acquires the epi-illumination image, and uses the transmission illumination device 24 to capture the imaging device 26. A transmission image obtained by imaging the same measurement object 20 at substantially the same position is acquired (step S901). The CPU 33 aligns and synthesizes the incident image data (first image data) that is the image data of the acquired incident image and the transmission image data (second image data) that is the image data of the transmission image. Composite image data (third image data) that is image data of the image is generated (step S902), and the incident image data, the transmission image data, and the composite image data are stored in the storage device 34 (step S903).

落射画像と透過画像とは、同じ計測対象物20に対して略同じ位置にて若干の時間間隔を空けて撮像する。時間間隔を空けるのは、落射画像を撮像する場合に最適な光学的周囲環境、条件設定等が、透過画像を撮像する場合において最適であるとは限らないことから、各画像を撮像するのに最適な条件下で各々撮像した画像データを記憶するためである。   The epi-illumination image and the transmission image are picked up with a slight time interval at substantially the same position with respect to the same measurement object 20. The time interval is set to capture each image because the optimal optical ambient environment, condition settings, etc. when capturing an epi-illumination image are not necessarily optimal when capturing a transmission image. This is for storing image data captured under optimum conditions.

図10は、記憶装置34に記憶されている合成画像データを表示した場合の例示図である。図10に示すように、合成画像は、各計測対象物20の外形を示す輪郭線も、表面の凹凸、模様、パターン等についても、鮮明に表示することができる。   FIG. 10 is an exemplary diagram when the composite image data stored in the storage device 34 is displayed. As shown in FIG. 10, the composite image can clearly display the contour lines indicating the outer shape of each measurement object 20 and the surface irregularities, patterns, patterns, and the like.

CPU33は、記憶装置34に記憶されている落射画像データに基づいて落射画像を表示装置27に表示する(ステップS904)。落射画像を表示するのは、計測対象物20の表面の凹凸、模様、パターン等も計測対象とするためである。   The CPU 33 displays the incident image on the display device 27 based on the incident image data stored in the storage device 34 (step S904). The reason why the incident image is displayed is that the unevenness, pattern, pattern, etc. on the surface of the measurement object 20 are also measured.

CPU33は、表示された落射画像上で計測位置の指定を受け付ける(ステップS905)。計測位置の指定方法は、特に限定されるものではなく、表示されている画像上で計測対象となる位置を特定することができる方法であれば何でも良い。   The CPU 33 accepts designation of a measurement position on the displayed epi-illumination image (step S905). The method for specifying the measurement position is not particularly limited, and any method can be used as long as it can specify the position to be measured on the displayed image.

CPU33は、合成画像データを記憶装置34から読み出し(ステップS906)、指定を受け付けた計測位置に応じて、読み出した合成画像データに基づいて位置データを取得する(ステップS907)。CPU33は、取得した位置データに基づいて、指定を受け付けた計測位置での寸法等の計測を実行する(ステップS908)。   The CPU 33 reads the composite image data from the storage device 34 (step S906), and acquires position data based on the read composite image data in accordance with the measurement position for which the designation has been received (step S907). Based on the acquired position data, the CPU 33 performs measurement of dimensions and the like at the measurement position where the designation has been received (step S908).

位置データは合成画像データに基づいて取得することから、指定を受け付けた計測位置が計測対象物20の外形を示すエッジ部分であるか否かに関わらず、計測位置を確実に特定することができ、位置データを精度良く取得することができる。なお、位置データは、表示画面上の座標値として取得する。表示画面上の座標値に基づいて、撮像装置25、26の撮像倍率を用いることで、実際の計測値を容易に算出することが可能となる。   Since the position data is acquired based on the composite image data, the measurement position can be reliably specified regardless of whether or not the measurement position at which the designation is received is an edge portion indicating the outer shape of the measurement object 20. The position data can be acquired with high accuracy. The position data is acquired as coordinate values on the display screen. By using the imaging magnification of the imaging devices 25 and 26 based on the coordinate values on the display screen, it is possible to easily calculate actual measurement values.

以上のように本実施の形態2によれば、落射画像を表示することで、計測対象物の表面の凹凸、模様、パターン等も計測対象として指定することができ、画像に基づいて所望の計測を容易かつ正確に実行することができる。また、指定された計測位置が外形を示す輪郭部分であるか否かに関わらず、合成画像データに基づいて正確な位置データを取得することができ、計測に係る画像データを操作者が意識して選択することなく、精度良く計測することが可能となる。   As described above, according to the second embodiment, by displaying the epi-illumination image, the surface unevenness, pattern, pattern, etc. of the measurement object can be designated as the measurement object, and the desired measurement can be performed based on the image. Can be executed easily and accurately. In addition, regardless of whether or not the designated measurement position is a contour portion indicating the outer shape, accurate position data can be acquired based on the composite image data, and the operator is conscious of the image data related to the measurement. It is possible to measure with high accuracy without making a selection.

なお、上述した実施の形態2では、落射画像を表示装置27に表示して、計測位置の指定を受け付けているが、合成画像データを生成していることから、合成画像を表示装置27に表示して、計測位置の指定を受け付けても良いことは言うまでもない。もちろん、実施の形態1においても、計測位置の指定を受け付ける画像として合成画像データを用いても良いことは言うまでもない。   In the second embodiment described above, the epi-illumination image is displayed on the display device 27 and the designation of the measurement position is accepted. However, since the composite image data is generated, the composite image is displayed on the display device 27. Needless to say, the designation of the measurement position may be accepted. Of course, also in the first embodiment, it is needless to say that the composite image data may be used as an image for receiving the designation of the measurement position.

(実施の形態3)
本発明の実施の形態3に係る画像計測装置1の構成は、実施の形態1及び2と同様であることから、同一の符号を付することにより詳細な説明を省略する。本実施の形態3では、落射照明装置22を用いて撮像装置25で計測対象物20を撮像した落射画像の画像データである落射画像データ(第一の画像データ)、及び透過照明装置24を用いて撮像装置26で計測対象物を略同じ位置にて撮像した透過画像の画像データである透過画像データ(第二の画像データ)において、指定された計測位置でのエッジ抽出の成否に応じて、いずれかの画像データに基づいて位置データを取得する点で実施の形態1及び2と相違する。
(Embodiment 3)
Since the configuration of the image measuring apparatus 1 according to Embodiment 3 of the present invention is the same as that of Embodiments 1 and 2, detailed description thereof is omitted by attaching the same reference numerals. In the third embodiment, epi-illumination image data (first image data), which is image data of an epi-illumination image obtained by imaging the measurement object 20 with the imaging device 25 using the epi-illumination device 22, and the transmission illumination device 24 are used. In the transmission image data (second image data), which is the image data of the transmission image obtained by imaging the measurement object with the imaging device 26 at substantially the same position, according to the success or failure of the edge extraction at the specified measurement position, The difference from Embodiments 1 and 2 is that the position data is acquired based on any one of the image data.

図11は、本発明の実施の形態3に係る画像計測装置1の制御ユニット3の構成を示すブロック図である。図11に示すように本実施の形態3に係る画像計測装置1の制御ユニット3のハードウェア構成は、実施の形態1及び2と同様であることから、同一の符号を付することにより、詳細な説明は省略する。   FIG. 11 is a block diagram showing the configuration of the control unit 3 of the image measuring apparatus 1 according to the third embodiment of the present invention. As shown in FIG. 11, the hardware configuration of the control unit 3 of the image measurement apparatus 1 according to the third embodiment is the same as that of the first and second embodiments. Detailed explanation is omitted.

制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ(第一の画像データ)、及び透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データ(第二の画像データ)を記憶する記憶手段331、落射画像データを表示装置27に表示する表示手段332、表示された落射画像上で計測位置の指定を受け付ける指定受付手段333、落射画像データ及び透過画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行するエッジ抽出手段336、落射画像データ及び透過画像データでのエッジ抽出が正常に終了したか否かを判断する判断手段337、判断結果に応じて落射画像データ又は透過画像データに基づいて位置データを取得する位置取得手段334、及び位置データに基づいて指定を受け付けた計測位置を計測する計測手段335を含み、これらの処理動作を制御する。   The CPU 33 of the control unit 3 uses the incident image data (first image data) that is the image data of the incident image captured by the imaging device 25 using the incident illumination device 22 and the imaging device 26 using the transmission illumination device 24. Storage means 331 that stores transmission image data (second image data) that is image data of the captured transmission image, display means 332 that displays the incident image data on the display device 27, and the measurement position on the displayed incident image. Specification accepting means 333 that accepts designation, edge extraction means 336 that executes edge extraction at the measurement position that accepts designation based on the incident image data and transmission image data, and normal edge extraction in the incident image data and transmission image data A determination means 337 for determining whether or not the process has ended, and the position based on the incident image data or the transmission image data according to the determination result Comprises measuring means 335 for measuring the accepts the designated measurement position based on the position obtaining unit 334, and the position data to acquire over motor, to control these processing operations.

記憶手段331は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ、及び透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データを、互いに位置合わせをした状態で記憶装置34に記憶する。ここで位置合わせとは、表示画面における座標位置を落射画像及び透過画像の間で一致させることを意味する。位置合わせをした両方の画像データを記憶しておくことにより、指定を受け付けた計測位置に応じて、適切な画像データを選択することができる。   The storage unit 331 is epi-illumination image data that is image data of an epi-illumination image captured by the imaging device 25 using the epi-illumination device 22 and image data of a transmission image that is captured by the imaging device 26 using the transmission illumination device 24. The transmission image data is stored in the storage device 34 while being aligned with each other. Here, the alignment means that the coordinate position on the display screen is matched between the incident image and the transmitted image. By storing both pieces of image data that have been aligned, it is possible to select appropriate image data according to the measurement position for which the designation has been received.

表示手段332は、通信手段35にて受信した落射画像データを、LCD、有機ELディスプレイ等の表示装置27で落射画像として表示させる。落射画像は、計測対象物20の表面の凹凸、模様、パターン等を鮮明に映すことができ、外形を示す輪郭線以外の部分の寸法等を計測するために用いることができる。   The display unit 332 displays the incident image data received by the communication unit 35 as an incident image on the display device 27 such as an LCD or an organic EL display. The epi-illumination image can clearly show the unevenness, pattern, pattern, etc. on the surface of the measurement object 20, and can be used to measure the dimension of the portion other than the contour line indicating the outer shape.

指定受付手段333は、表示手段332にて表示装置27に表示されている落射画像に基づいて、計測する位置を計測位置として指定を受け付ける。エッジ抽出手段336は、指定を受け付けた計測位置におけるエッジ抽出処理を、落射画像データ、透過画像データそれぞれについて実行する。エッジ抽出方法は、特に限定されるものではなく、例えば指定された計測位置近傍にて輝度値変化が所定の閾値よりも大きい座標値を抽出する方法であっても良い。   The designation accepting unit 333 accepts designation based on the incident image displayed on the display device 27 by the display unit 332 with the position to be measured as the measurement position. The edge extraction unit 336 executes edge extraction processing at the measurement position where the designation is received for each of the incident image data and the transmission image data. The edge extraction method is not particularly limited, and for example, a method of extracting a coordinate value whose luminance value change is larger than a predetermined threshold value in the vicinity of a specified measurement position may be used.

判断手段337は、落射画像データ、透過画像データのそれぞれについて、エッジ抽出手段336にてエッジ抽出が正常に終了したか否かを判断する。画像データによっては、指定された計測位置にて正常にエッジ抽出することができない場合も生じうるからである。   The determination unit 337 determines whether or not the edge extraction unit 336 has successfully completed edge extraction for each of the incident image data and the transmission image data. This is because, depending on the image data, it may occur that the edge cannot be normally extracted at the designated measurement position.

位置取得手段は334、エッジ抽出が正常に終了したか否かの判断結果に応じて、落射画像データ又は透過画像データを選択し、選択された落射画像データ又は透過画像データに基づいて位置データを取得する。計測手段335は、取得した位置データに基づいて、指定された計測位置での寸法等を計測する。   The position acquisition means 334 selects epi-image data or transmission image data in accordance with the determination result of whether or not the edge extraction has been normally completed, and acquires position data based on the selected epi-image data or transmission image data. get. The measuring means 335 measures the dimensions and the like at the designated measurement position based on the acquired position data.

計測位置の指定には、外形の輪郭線しか表示されない透過画像よりも、表面の凹凸、模様、パターン等も表示することができる落射画像の方が好ましい。したがって、表示装置27には落射画像を表示しておき、画面上での計測位置の指定を受け付けた時点で、寸法を算出する基礎となる画像データを制御ユニット3内部で選択する。このようにすることで、より正確な寸法を計測することができる。   For the designation of the measurement position, an epi-illumination image that can display surface irregularities, patterns, patterns, etc. is more preferable than a transmission image in which only the outline of the outline is displayed. Therefore, an epi-illumination image is displayed on the display device 27, and image data serving as a basis for calculating the dimensions is selected inside the control unit 3 when the designation of the measurement position on the screen is received. By doing in this way, a more exact dimension can be measured.

上述した構成の画像計測装置1の動作について、フロ−チャートに基づいて詳細に説明する。図12は、本発明の実施の形態3に係る画像計測装置1の制御ユニット3のCPU33の処理手順を示すフローチャートである。   The operation of the image measuring apparatus 1 having the above-described configuration will be described in detail based on a flowchart. FIG. 12 is a flowchart showing a processing procedure of the CPU 33 of the control unit 3 of the image measuring device 1 according to the third embodiment of the present invention.

図12に示すように制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25にて計測対象物20を撮像し、落射画像を取得し、透過照明装置24を用いて、撮像装置26にて同じ計測対象物20を略同じ位置にて撮像した透過画像を取得する(ステップS1201)。CPU33は、落射画像データ及び透過画像データを記憶装置34へ記憶する(ステップS1202)。   As shown in FIG. 12, the CPU 33 of the control unit 3 uses the epi-illumination device 22 to image the measurement object 20 by the imaging device 25, acquires the epi-illumination image, and uses the transmission illumination device 24 to image the imaging device 26. A transmission image obtained by imaging the same measurement object 20 at substantially the same position is acquired (step S1201). The CPU 33 stores the incident image data and the transmitted image data in the storage device 34 (step S1202).

落射画像と透過画像とは、同じ計測対象物20に対して略同じ位置にて若干の時間間隔を空けて撮像する。時間間隔を空けるのは、落射画像を撮像する場合に最適な光学的周囲環境、条件設定等が、透過画像を撮像する場合において最適であるとは限らないことから、各画像を撮像するのに最適な条件下で各々撮像した画像データを記憶するためである。   The epi-illumination image and the transmission image are picked up with a slight time interval at substantially the same position with respect to the same measurement object 20. The time interval is set to capture each image because the optimal optical ambient environment, condition settings, etc. when capturing an epi-illumination image are not necessarily optimal when capturing a transmission image. This is for storing image data captured under optimum conditions.

CPU33は、記憶装置34に記憶されている落射画像データに基づいて落射画像を表示装置27に表示する(ステップS1203)。落射画像を表示するのは、計測対象物20の表面の凹凸、模様、パターン等も計測対象とするためである。   The CPU 33 displays the incident image on the display device 27 based on the incident image data stored in the storage device 34 (step S1203). The reason why the incident image is displayed is that the unevenness, pattern, pattern, etc. on the surface of the measurement object 20 are also measured.

CPU33は、表示された落射画像上で計測位置の指定を受け付ける(ステップS1204)。計測位置の指定方法は、特に限定されるものではなく、表示されている画像上で計測対象となる位置を特定することができる方法であれば何でも良い。   The CPU 33 accepts designation of a measurement position on the displayed incident image (step S1204). The method for specifying the measurement position is not particularly limited, and any method can be used as long as it can specify the position to be measured on the displayed image.

CPU33は、落射画像データ及び透過画像データを記憶装置34から読み出し(ステップS1205)、読み出した落射画像データ及び透過画像データに基づいて、指定を受け付けた計測位置近傍でのエッジ抽出処理を実行する(ステップS1206)。CPU33は、落射画像データ、透過画像データおのおのについて、エッジ抽出処理が正常に終了したか否かを判断し(ステップS1207)、判断結果に応じて落射画像データ又は透過画像データに基づいて位置データを取得する(ステップS1208)。CPU33は、取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する(ステップS1209)。   The CPU 33 reads the incident image data and the transmitted image data from the storage device 34 (step S1205), and executes an edge extraction process in the vicinity of the measurement position where the designation is received based on the read incident image data and the transmitted image data (step S1205). Step S1206). The CPU 33 determines whether or not the edge extraction processing has been normally completed for each of the incident image data and the transmitted image data (step S1207), and determines the position data based on the incident image data or the transmitted image data according to the determination result. Obtain (step S1208). Based on the acquired position data, the CPU 33 performs measurement at the measurement position where the designation has been received (step S1209).

エッジ抽出処理が正常に終了したか否かの判断結果に応じて落射画像データ又は透過画像データを選択する方法は、特に限定されるものではない。例えば、透過画像データ及び落射画像データのエッジ抽出部分のエッジ強度が大きい画像データを選択しても良い。   The method for selecting the epi-image data or the transmission image data according to the determination result as to whether or not the edge extraction processing has been normally completed is not particularly limited. For example, you may select the image data with large edge strength of the edge extraction part of transmission image data and epi-illumination image data.

図13は、本発明の実施の形態3に係る画像計測装置1の制御ユニット3のCPU33の画像データ選択処理の手順を示すフローチャートである。図13に示すように、制御ユニット3のCPU33は、透過画像データに基づくエッジ抽出処理のみが正常に終了したか否かを判断する(ステップS1301)。CPU33が、透過画像データに基づくエッジ抽出処理のみが正常に終了したと判断した場合(ステップS1301:YES)、CPU33は、透過画像データを選択する(ステップS1302)。   FIG. 13 is a flowchart showing a procedure of image data selection processing of the CPU 33 of the control unit 3 of the image measuring apparatus 1 according to the third embodiment of the present invention. As shown in FIG. 13, the CPU 33 of the control unit 3 determines whether or not only the edge extraction process based on the transmission image data has been normally completed (step S1301). When the CPU 33 determines that only the edge extraction process based on the transparent image data has been normally completed (step S1301: YES), the CPU 33 selects the transparent image data (step S1302).

CPU33が、透過画像データに基づくエッジ抽出処理のみが正常に終了しなかったと判断した場合(ステップS1301:NO)、CPU33は、落射画像データに基づくエッジ抽出処理のみが正常に終了したか否かを判断する(ステップS1303)。CPU33が、落射画像データに基づくエッジ抽出処理のみが正常に終了したと判断した場合(ステップS1303:YES)、CPU33は、落射画像データを選択する(ステップS1304)。   When the CPU 33 determines that only the edge extraction process based on the transmission image data has not been normally completed (step S1301: NO), the CPU 33 determines whether only the edge extraction process based on the incident image data has been normally completed. Judgment is made (step S1303). When the CPU 33 determines that only the edge extraction process based on the incident image data has been normally completed (step S1303: YES), the CPU 33 selects the incident image data (step S1304).

CPU33が、落射画像データに基づくエッジ抽出処理のみが正常に終了しなかったと判断した場合(ステップS1303:NO)、CPU33は、透過画像データに基づくエッジ抽出処理及び落射画像データに基づくエッジ抽出処理の両方が正常に終了したか否かを判断する(ステップS1305)。CPU33が、両方が正常に終了したと判断した場合(ステップS1305:YES)、CPU33は、抽出されたエッジのエッジ強度を、透過画像データ、落射画像データおのおのについて算出する(ステップS1306)。   When the CPU 33 determines that only the edge extraction processing based on the incident image data has not been completed normally (step S1303: NO), the CPU 33 performs the edge extraction processing based on the transmission image data and the edge extraction processing based on the incident image data. It is determined whether both have ended normally (step S1305). If the CPU 33 determines that both have ended normally (step S1305: YES), the CPU 33 calculates the edge strength of the extracted edge for each of the transmitted image data and the incident image data (step S1306).

CPU33は、算出された透過画像データのエッジ強度の方が、落射画像データのエッジ強度よりも大きいか否かを判断する(ステップS1307)。CPU33が、透過画像データのエッジ強度の方が、落射画像データのエッジ強度よりも大きいと判断した場合(ステップS1307:YES)、CPU33は、透過画像データを選択する(ステップS1302)。   The CPU 33 determines whether or not the calculated edge strength of the transmitted image data is larger than the edge strength of the incident image data (step S1307). When the CPU 33 determines that the edge strength of the transmission image data is larger than the edge strength of the incident image data (step S1307: YES), the CPU 33 selects the transmission image data (step S1302).

CPU33が、透過画像データのエッジ強度が、落射画像データのエッジ強度以下であると判断した場合(ステップS1307:NO)、CPU33は、落射画像データを選択する(ステップS1304)。CPU33が、透過画像データに基づくエッジ抽出処理及び落射画像データに基づくエッジ抽出処理の両方が正常に終了していないと判断した場合(ステップS1305:NO)、CPU33は、エッジ抽出することができないことから計測不可として処理を終了する。   When the CPU 33 determines that the edge intensity of the transmission image data is equal to or lower than the edge intensity of the incident image data (step S1307: NO), the CPU 33 selects the incident image data (step S1304). When the CPU 33 determines that both the edge extraction process based on the transmission image data and the edge extraction process based on the incident image data are not normally completed (step S1305: NO), the CPU 33 cannot perform the edge extraction. Since the measurement is impossible, the process is terminated.

なお、エッジ強度の算出方法は特に限定されるものではない。例えば抽出されたエッジの縦方向及び横方向の一次微分値の二乗和の平方根として求めれば良い。また、直線、円弧等の固有の形状を有するエッジが抽出されている場合には、検出されたエッジ点列の分散の逆数を求めても良い。なお、逆数としているのは、分散が小さいエッジを高い強度として評価するためである。その他、コントラストの差、ノイズの有無等を含めて総合判断するための指標値としてエッジ強度を求めても良い。   Note that the method for calculating the edge strength is not particularly limited. For example, it may be obtained as the square root of the sum of squares of the first derivative values of the extracted edges in the vertical and horizontal directions. In addition, when an edge having a specific shape such as a straight line or an arc is extracted, the reciprocal of the variance of the detected edge point sequence may be obtained. The reciprocal is used to evaluate an edge having a small variance as a high strength. In addition, the edge strength may be obtained as an index value for comprehensive determination including the difference in contrast and the presence or absence of noise.

以上のように本実施の形態3によれば、落射画像を表示することで、計測対象物の表面の凹凸、模様、パターン等も計測対象として指定することができ、表示されている画像に基づいて所望の計測を容易かつ正確に実行することができる。また、エッジ抽出が正常に終了したか否かに応じて位置データを取得する画像データを選択することにより、指定された計測位置に適した画像データを熟練を要することなく選択することができ、精度良く計測することが可能となる。   As described above, according to the third embodiment, by displaying the epi-illumination image, the unevenness, pattern, pattern, etc. on the surface of the measurement object can be designated as the measurement object, and based on the displayed image. Desired measurement can be performed easily and accurately. Further, by selecting image data for acquiring position data depending on whether or not edge extraction has been normally completed, it is possible to select image data suitable for the designated measurement position without requiring skill, It becomes possible to measure with high accuracy.

なお、上述した実施の形態3では、計測の基礎となった画像データを表示装置27に画像として表示することが好ましい。どの画像データに基づいて計測しているかを操作者が目視で確認することができ、誤った選択がなされているか否かを確認することもできるからである。   In the third embodiment described above, it is preferable to display the image data on which the measurement is based on the display device 27 as an image. This is because the operator can visually confirm which image data is being measured, and can also confirm whether an erroneous selection has been made.

(実施の形態4)
本発明の実施の形態4に係る画像計測装置1の構成は、実施の形態1乃至3と同様であることから、同一の符号を付することにより詳細な説明を省略する。本実施の形態4では、落射照明装置22を用いて撮像装置25で計測対象物20を撮像した落射画像の画像データである落射画像データ(第一の画像データ)、及び透過照明装置24を用いて撮像装置26で計測対象物を略同じ位置にて撮像した透過画像の画像データである透過画像データ(第二の画像データ)だけでなく、落射画像データと透過画像データとを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を用い、表示されている画面上で計測位置に応じて計測の基礎とする画像データを選択する点で実施の形態1乃至3と相違する。
(Embodiment 4)
Since the configuration of the image measurement apparatus 1 according to the fourth embodiment of the present invention is the same as that of the first to third embodiments, detailed description thereof will be omitted by attaching the same reference numerals. In the fourth embodiment, epi-illumination image data (first image data) that is image data of an epi-illumination image obtained by imaging the measurement object 20 with the imaging device 25 using the epi-illumination device 22 and the transmission illumination device 24 are used. Then, not only the transmission image data (second image data) that is the image data of the transmission image obtained by imaging the measurement object at substantially the same position by the imaging device 26 but also the incident image data and the transmission image data are aligned. Embodiment 1 in that composite image data (third image data), which is image data of a composite image that has been combined, is used, and image data that is the basis of measurement is selected on the displayed screen in accordance with the measurement position. To 3

図14は、本発明の実施の形態4に係る画像計測装置1の制御ユニット3の構成を示すブロック図である。図14に示すように本実施の形態4に係る画像計測装置1の制御ユニット3のハードウェア構成は、実施の形態1乃至3と同様であることから、同一の符号を付することにより、詳細な説明は省略する。   FIG. 14 is a block diagram showing the configuration of the control unit 3 of the image measuring device 1 according to the fourth embodiment of the present invention. As shown in FIG. 14, the hardware configuration of the control unit 3 of the image measurement apparatus 1 according to the fourth embodiment is the same as that of the first to third embodiments. Detailed explanation is omitted.

制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ(第一の画像データ)、透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データ(第二の画像データ)、及び落射画像データと透過画像データとを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を記憶する記憶手段331、落射画像データを表示装置27に表示する表示手段332、表示された落射画像上で計測位置の指定を受け付ける指定受付手段333、落射画像データ、透過画像データ、合成画像データのいずれか1つの選択を受け付ける選択受付手段338、選択を受け付けた画像データに基づいて位置データを取得する位置取得手段334、及び位置データに基づいて指定を受け付けた計測位置にて寸法等を計測する計測手段335を含み、これらの処理動作を制御する。   The CPU 33 of the control unit 3 captures the incident image data (first image data), which is the image data of the incident image captured by the imaging device 25 using the incident illumination device 22, and the image capturing device 26 using the transmission illumination device 24. Transmission image data (second image data) that is image data of the transmitted image, and composite image data (third image) that is image data of a combined image obtained by aligning and combining the epi-image data and the transmission image data Storage means 331 for storing data), display means 332 for displaying the epi-illumination image data on the display device 27, designation accepting means 333 for accepting designation of the measurement position on the displayed epi-illumination image, epi-illumination image data, transmission image data, composition Selection accepting means 338 that accepts selection of any one of the image data, and acquires position data based on the image data that accepts the selection It comprises measuring means 335 for measuring the dimensions and the like at the position obtaining unit 334, and on the basis of the position data has been accepted designated measurement position, to control these processing operations.

記憶手段331は、落射照明装置22を用いて撮像装置25で撮像した落射画像の画像データである落射画像データ、透過照明装置24を用いて撮像装置26で撮像した透過画像の画像データである透過画像データ、及び落射画像データと透過画像データとを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を、互いに位置合わせをした状態で記憶装置34に記憶する。ここで位置合わせとは、表示画面における座標位置を落射画像、透過画像、及び合成画像の間で一致させることを意味する。位置合わせをした3種の画像データを記憶しておくことにより、指定を受け付けた計測位置に応じて、適切な画像データを選択することができる。   The storage unit 331 includes incident image data that is image data of an epi-illumination image captured by the imaging device 25 using the epi-illumination device 22, and transmission that is image data of a transmission image captured by the imaging device 26 using the transmission illumination device 24. Image data and composite image data (third image data), which is image data of a composite image obtained by aligning and combining epi-image data and transmission image data, are stored in the storage device 34 in a state of being aligned with each other. To do. Here, the alignment means that the coordinate position on the display screen is matched between the reflected image, the transmitted image, and the synthesized image. By storing the three types of image data that have been aligned, appropriate image data can be selected in accordance with the measurement position for which the designation has been received.

表示手段332は、通信手段35にて受信した落射画像データを、LCD、有機ELディスプレイ等の表示装置27で落射画像として表示させる。落射画像は、計測対象物の表面の凹凸、模様、パターン等を鮮明に映すことができ、外形を示す輪郭線以外の部分の寸法等を計測するために用いることができる。   The display unit 332 displays the incident image data received by the communication unit 35 as an incident image on the display device 27 such as an LCD or an organic EL display. The epi-illumination image can clearly show irregularities, patterns, patterns, and the like on the surface of the measurement object, and can be used to measure dimensions and the like of portions other than the contour line indicating the outer shape.

指定受付手段333は、表示手段332にて表示装置27に表示されている落射画像に基づいて、計測する位置を計測位置として指定を受け付ける。選択受付手段338は、記憶されている落射画像データ、透過画像データ、合成画像データのいずれか1つの選択を受け付ける。位置取得手段334は、選択を受け付けたいずれか1つの画像データを記憶装置34から読み出し、読み出した画像データに基づいて位置データを取得する。計測手段335は、取得した位置データに基づいて、指定された計測位置の寸法等を計測する。   The designation accepting unit 333 accepts designation based on the incident image displayed on the display device 27 by the display unit 332 with the position to be measured as the measurement position. The selection receiving unit 338 receives selection of any one of the stored incident image data, transmission image data, and composite image data. The position acquisition unit 334 reads any one image data that has been selected from the storage device 34, and acquires position data based on the read image data. The measuring unit 335 measures the dimension of the designated measurement position based on the acquired position data.

従来は、操作者が計測対象物を目視確認することによって、落射画像を用いて計測するか、透過画像を用いて計測するかを特定していた。しかし、操作者にとっては、いずれの画像であるかは問題ではなく、所望の位置の寸法を精度良く計測することができれば足りる。したがって、寸法の計測は、制御ユニット3がより好ましい画像データを選択して実行すれば良い。   Conventionally, when an operator visually confirms a measurement object, whether the measurement is performed using an epi-illumination image or a transmission image is specified. However, for the operator, it does not matter which image it is, and it is sufficient if the dimensions of the desired position can be measured with high accuracy. Therefore, the measurement of the dimensions may be performed by the control unit 3 selecting and executing more preferable image data.

また、計測位置の指定には、外形の輪郭線しか表示されない透過画像よりも、表面の凹凸、模様、パターン等も表示することができる落射画像の方が好ましい。したがって、表示装置27には落射画像を表示しておき、画面上での計測位置の指定を受け付けた時点で、他の画像データ、すなわち透過画像データ、合成画像データに切り換える必要があるか否かを判断して、どの画像データに基づいて計測するべきか選択を受け付ける。このようにすることで、正確な寸法を計測することができる。   For specifying the measurement position, an epi-illumination image that can display surface irregularities, patterns, patterns, and the like is more preferable than a transmission image that displays only the outline of the outer shape. Therefore, whether or not it is necessary to display the incident image on the display device 27 and switch to other image data, that is, transmission image data or composite image data, when the measurement position designation on the screen is received. And selection of which image data should be measured is accepted. By doing in this way, an exact dimension can be measured.

上述した構成の画像計測装置1の動作について、フロ−チャートに基づいて詳細に説明する。図15は、本発明の実施の形態4に係る画像計測装置1の制御ユニット3のCPU33の処理手順を示すフローチャートである。   The operation of the image measuring apparatus 1 having the above-described configuration will be described in detail based on a flowchart. FIG. 15 is a flowchart showing a processing procedure of the CPU 33 of the control unit 3 of the image measuring device 1 according to the fourth embodiment of the present invention.

図15に示すように制御ユニット3のCPU33は、落射照明装置22を用いて撮像装置25にて計測対象物20を撮像し、落射画像を取得し、透過照明装置24を用いて、撮像装置26にて同じ計測対象物20を略同じ位置にて撮像した透過画像を取得する(ステップS1501)。CPU33は、取得した落射画像の画像データである落射画像データ(第一の画像データ)と、透過画像の画像データである透過画像データ(第二の画像データ)とを位置合わせして合成した合成画像の画像データである合成画像データ(第三の画像データ)を生成し(ステップS1502)、落射画像データ、透過画像データ及び合成画像データを記憶装置34へ記憶する(ステップS1503)。   As shown in FIG. 15, the CPU 33 of the control unit 3 images the measurement object 20 by the imaging device 25 using the epi-illumination device 22, acquires the epi-illumination image, and uses the transmission illumination device 24 to capture the imaging device 26. A transmission image obtained by imaging the same measurement object 20 at substantially the same position is acquired (step S1501). The CPU 33 aligns and synthesizes the incident image data (first image data) that is the image data of the acquired incident image and the transmission image data (second image data) that is the image data of the transmission image. Composite image data (third image data), which is image data of the image, is generated (step S1502), and the incident image data, transmission image data, and composite image data are stored in the storage device 34 (step S1503).

落射画像と透過画像とは、同じ計測対象物20に対して略同じ位置にて若干の時間間隔を空けて撮像する。時間間隔を空けるのは、落射画像を撮像する場合に最適な光学的周囲環境、条件設定等が、透過画像を撮像する場合において最適であるとは限らないことから、各画像を撮像するのに最適な条件下で各々撮像した画像データを記憶するためである。   The epi-illumination image and the transmission image are captured at a substantially same position with respect to the same measurement object 20 with a slight time interval. The time interval is set to capture each image because the optimal optical ambient environment, condition settings, etc. when capturing an epi-illumination image are not necessarily optimal when capturing a transmission image. This is for storing image data captured under optimum conditions.

CPU33は、記憶装置34に記憶されている落射画像データに基づいて落射画像を表示装置27に表示する(ステップS1504)。落射画像を表示するのは、計測対象物20の表面の凹凸、模様、パターン等も計測対象とするためである。   The CPU 33 displays the incident image on the display device 27 based on the incident image data stored in the storage device 34 (step S1504). The reason why the incident image is displayed is that the unevenness, pattern, pattern, etc. on the surface of the measurement object 20 are also measured.

CPU33は、表示された落射画像上で計測位置の指定を受け付ける(ステップS1505)。計測位置の指定方法は、特に限定されるものではなく、表示されている画像上で計測対象となる位置を特定することができる方法であれば何でも良い。   The CPU 33 accepts designation of a measurement position on the displayed incident image (step S1505). The method for specifying the measurement position is not particularly limited, and any method can be used as long as it can specify the position to be measured on the displayed image.

CPU33は、表示装置27に表示されている画像データの選択を受け付ける(ステップS1506)。すなわち、指定を受け付けた計測位置が外形を示す輪郭部分である場合には、透過画像データを表示するよう画像を変更し、外形を示す輪郭部分と表面のパターンの一部との間の距離を計測位置として指定された場合には合成画像データを表示するよう画像を変更する。このように表示する画像を変更することで、計測の基礎となる画像データを選択することができ、操作者の目視により正しい計測位置が指定されているか否かを確認しながら計測することが可能となる。   The CPU 33 accepts selection of image data displayed on the display device 27 (step S1506). That is, when the measurement position that has received the designation is a contour portion indicating the outer shape, the image is changed to display the transmission image data, and the distance between the contour portion indicating the outer shape and a part of the surface pattern is changed. When the measurement position is designated, the image is changed to display the composite image data. By changing the displayed image in this way, it is possible to select the image data that is the basis of the measurement, and it is possible to perform the measurement while confirming whether the correct measurement position is designated by the operator's visual observation. It becomes.

CPU33は、選択を受け付けた画像データに基づいて、指定を受け付けた計測位置に関する位置データを取得する(ステップS1507)。CPU33は、取得した位置データに基づいて、指定を受け付けた計測位置にて寸法等の計測を実行する(ステップS1508)。   The CPU 33 acquires position data related to the measurement position for which the designation has been received based on the image data for which the selection has been accepted (step S1507). Based on the acquired position data, the CPU 33 performs measurement of dimensions and the like at the measurement position where the designation is received (step S1508).

位置データは選択された画像データに基づいて取得することから、指定を受け付けた計測位置が計測対象物20の外形を示すエッジ部分であるか否かに関わらず、計測位置を確実に特定することができ、位置データを精度良く取得することができる。なお、位置データは、表示画面上の座標値として取得する。表示画面上の座標値に基づいて、撮像装置25、26の撮像倍率を用いることで、実際の計測値を容易に算出することが可能となる。   Since the position data is acquired based on the selected image data, it is possible to reliably specify the measurement position regardless of whether the measurement position at which the designation is received is an edge portion indicating the outer shape of the measurement object 20 or not. And position data can be obtained with high accuracy. The position data is acquired as coordinate values on the display screen. By using the imaging magnification of the imaging devices 25 and 26 based on the coordinate values on the display screen, it is possible to easily calculate actual measurement values.

以上のように本実施の形態4によれば、落射画像を表示することで、計測対象物20の表面の凹凸、模様、パターン等も計測対象として指定することができ、画像に基づいて所望の計測を容易かつ正確に実行することができる。また、指定された計測位置が外形を示す輪郭部分であるか否かに関わらず、選択された画像データに基づいて正確な位置データを取得することができ、精度良く計測することが可能となる。   As described above, according to the fourth embodiment, by displaying the epi-illumination image, the surface unevenness, pattern, pattern, etc. of the measurement object 20 can be designated as the measurement object, and a desired object can be determined based on the image. Measurement can be performed easily and accurately. In addition, regardless of whether or not the designated measurement position is a contour portion indicating an outer shape, accurate position data can be acquired based on the selected image data, and measurement can be performed with high accuracy. .

なお、上述した実施の形態4では、落射画像を表示装置27に表示して、計測位置の指定を受け付けているが、合成画像データを生成していることから、合成画像を表示装置27に表示して、計測位置の指定を受け付けても良いことは言うまでもない。   In Embodiment 4 described above, the epi-illumination image is displayed on the display device 27 and the designation of the measurement position is accepted. However, since the composite image data is generated, the composite image is displayed on the display device 27. Needless to say, the designation of the measurement position may be accepted.

また、上述した実施の形態1乃至4では、計測の基礎となった画像データを表示装置27へ画像として表示することが好ましい。操作者が、計測対象物20を計測する基礎となった画像データが、落射画像データであるか、透過画像データであるか、あるいは両者が合成された合成画像データであるかを目視で確認することができるからである。   In the first to fourth embodiments described above, it is preferable to display the image data on which the measurement is based on the display device 27 as an image. The operator visually confirms whether the image data that is the basis for measuring the measurement object 20 is epi-image data, transmission image data, or composite image data obtained by combining both. Because it can.

さらに、上述した実施の形態1乃至4では、画像計測装置1専用の制御ユニット3を備える構成につき説明しているが、ハードウェア構成は特にこれに限定されるものではない。例えば外部のコンピュータにより制御ユニット3の機能を代替させても良い。   Furthermore, although Embodiment 1 thru | or 4 mentioned above demonstrated about the structure provided with the control unit 3 only for the image measurement apparatus 1, hardware constitutions are not specifically limited to this. For example, the function of the control unit 3 may be replaced by an external computer.

図16は、他の画像計測装置1の構成を示す模式図である。図16に示すように、本画像計測装置1は、測定部2と外部コンピュータ4とで構成されており、測定部2にて撮像された画像データを外部コンピュータ4にて演算処理して、所望の形状の寸法等を計測する。   FIG. 16 is a schematic diagram illustrating a configuration of another image measurement apparatus 1. As shown in FIG. 16, the present image measurement apparatus 1 includes a measurement unit 2 and an external computer 4, and the image data captured by the measurement unit 2 is processed by the external computer 4 to obtain a desired value. Measure the dimensions of the shape.

測定部2の構成及び機能は、上述した実施の形態1乃至4と同様であることから、同一の符号を付することにより詳細な説明を省略する。外部コンピュータ4は、少なくともCPU(図示せず)及びメモリ等の記憶装置(図示せず)を備え、表示装置41、キーボード42、マウス43に接続されている。CPU(図示せず)は、撮像装置25及び26から画像データを取得し、上述した実施の形態1乃至4における制御ユニット3のCPU33と同様の処理を実行する。   Since the configuration and function of the measurement unit 2 are the same as those in the first to fourth embodiments, detailed description is omitted by attaching the same reference numerals. The external computer 4 includes at least a CPU (not shown) and a storage device (not shown) such as a memory, and is connected to a display device 41, a keyboard 42, and a mouse 43. A CPU (not shown) acquires image data from the imaging devices 25 and 26, and executes the same processing as the CPU 33 of the control unit 3 in the first to fourth embodiments described above.

その他、本発明は上記実施の形態1乃至4に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変形、置換等が可能であることは言うまでもない。   In addition, the present invention is not limited to Embodiments 1 to 4 described above, and it goes without saying that various modifications and substitutions are possible within the scope of the present invention.

本発明の実施の形態1に係る画像計測装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the image measuring device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像計測装置の制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the control unit of the image measuring device which concerns on Embodiment 1 of this invention. 指定受付手段による計測位置の指定方法の例示図である。It is an illustration figure of the designation | designated method of the measurement position by a designation | designated reception means. 本発明の実施の形態1に係る画像計測装置の制御ユニットのCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU of the control unit of the image measuring device which concerns on Embodiment 1 of this invention. 記憶装置に記憶されている落射画像データを表示した場合の例示図である。It is an illustration figure at the time of displaying epi-illumination image data memorize | stored in the memory | storage device. 記憶装置に記憶されている透過画像データを表示した場合の例示図である。It is an illustration figure at the time of displaying the transmission image data memorize | stored in the memory | storage device. 本発明の実施の形態1に係る画像計測装置の制御ユニットのCPUの位置データ取得処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the position data acquisition process of CPU of the control unit of the image measuring device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像計測装置の制御ユニットのCPUの画像データ選択処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image data selection process of CPU of the control unit of the image measuring device which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る画像計測装置の制御ユニットのCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU of the control unit of the image measuring device which concerns on Embodiment 2 of this invention. 記憶装置に記憶されている合成画像データを表示した場合の例示図である。It is an illustration figure at the time of displaying the composite image data memorize | stored in the memory | storage device. 本発明の実施の形態3に係る画像計測装置の制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the control unit of the image measuring device which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る画像計測装置の制御ユニットのCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU of the control unit of the image measuring device which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る画像計測装置の制御ユニットのCPUの画像データ選択処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image data selection process of CPU of the control unit of the image measuring device which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る画像計測装置の制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the control unit of the image measuring device which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る画像計測装置の制御ユニットのCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU of the control unit of the image measuring device which concerns on Embodiment 4 of this invention. 他の画像計測装置の構成を示す模式図である。It is a schematic diagram which shows the structure of another image measuring device.

符号の説明Explanation of symbols

1 画像計測装置
2 測定部
3 制御ユニット
4 外部コンピュータ
22 落射照明装置
24 透過照明装置
25、26 撮像装置
27、41 表示装置
33 CPU
34 記憶装置
35 通信手段
36 内部バス
331 記憶手段
332 表示手段
333 指定受付手段
334 位置取得手段
335 計測手段
336 エッジ抽出手段
337 判断手段
338 選択受付手段
DESCRIPTION OF SYMBOLS 1 Image measuring device 2 Measuring part 3 Control unit 4 External computer 22 Epi-illumination device 24 Transmission illumination device 25, 26 Imaging device 27, 41 Display device 33 CPU
34 storage device 35 communication unit 36 internal bus 331 storage unit 332 display unit 333 designation reception unit 334 position acquisition unit 335 measurement unit 336 edge extraction unit 337 determination unit 338 selection reception unit

Claims (33)

計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段と、
前記第一の画像データを表示する表示手段と、
表示された前記第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、
該指定受付手段で指定を受け付けた計測位置に応じて前記第一の画像データ又は前記第二の画像データを前記記憶手段から読み出し、読み出した前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段と、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段と
を備えることを特徴とする画像計測装置。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
The first image data or the second image data is read from the storage unit according to the measurement position received by the designation accepting unit, and the read first image data or second image data is read. Position acquisition means for acquiring position data based on;
An image measurement apparatus comprising: a measurement unit that performs measurement at a measurement position for which designation has been received based on acquired position data.
前記記憶手段は、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データをさらに記憶し、
前記表示手段は、前記第一の画像データ又は前記第三の画像データを表示するようにしてあることを特徴とする請求項1記載の画像計測装置。
The storage means further stores third image data obtained by aligning and combining the first image data and the second image data,
The image measuring apparatus according to claim 1, wherein the display unit displays the first image data or the third image data.
前記位置取得手段は、
前記指定受付手段で指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断する判断手段を備え、
該判断手段が、計測対象物のエッジ部分であると判断した場合、前記第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、前記第一の画像データに基づいて位置データを取得するようにしてあることを特徴とする請求項1又は2記載の画像計測装置。
The position acquisition means includes
A determination unit that determines whether or not the measurement position received by the designation reception unit is an edge portion indicating the outer shape of the measurement object;
When the determination means determines that the measurement object is an edge portion, the position data is acquired based on the second image data. 3. The image measuring apparatus according to claim 1, wherein position data is acquired.
前記位置取得手段は、
前記判断手段が、計測対象物のエッジ部分であると判断した場合、前記第一の画像データ及び前記第二の画像データに基づいてエッジ強度を算出する手段を備え、
算出されたエッジ強度がより大きい画像データに基づいて位置データを取得するようにしてあることを特徴とする請求項3記載の画像計測装置。
The position acquisition means includes
A means for calculating an edge strength based on the first image data and the second image data when the determining means determines that the edge portion of the measurement object is present;
4. The image measuring apparatus according to claim 3, wherein position data is acquired based on image data having a larger calculated edge strength.
計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段と、
前記第一の画像データを表示する表示手段と、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、
該指定受付手段で指定を受け付けた計測位置に応じて前記第三の画像データを前記記憶手段から読み出し、読み出した前記第三の画像データに基づいて位置データを取得する位置取得手段と、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段と
を備えることを特徴とする画像計測装置。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data, and third image data obtained by aligning and combining the first image data and the second image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
Position acquisition means for reading out the third image data from the storage means in accordance with the measurement position received by the designation receiving means, and acquiring position data based on the read third image data;
An image measurement apparatus comprising: a measurement unit that performs measurement at a measurement position for which designation has been received based on acquired position data.
前記表示手段は、前記第一の画像データ又は前記第三の画像データを表示するようにしてあることを特徴とする請求項5記載の画像計測装置。   6. The image measuring apparatus according to claim 5, wherein the display means displays the first image data or the third image data. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段と、
前記第一の画像データを表示する表示手段と、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、
記憶されている前記第一の画像データ及び前記第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行するエッジ抽出手段と、
該エッジ抽出手段で前記第一の画像データのエッジ抽出が正常に終了したか否かを判断する第一の判断手段と、
前記エッジ抽出手段で前記第二の画像データのエッジ抽出が正常に終了したか否かを判断する第二の判断手段と、
前記第一の判断手段及び前記第二の判断手段の判断結果に応じて、前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段と、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段と
を備え、
前記位置取得手段は、
前記第一の判断手段で正常に終了したと判断し、前記第二の判断手段で正常に終了しなかったと判断した場合、前記第一の画像データに基づいて位置データを取得し、
前記第二の判断手段で正常に終了したと判断し、前記第一の判断手段で正常に終了しなかったと判断した場合、前記第二の画像データに基づいて位置データを取得し、
前記第一の判断手段及び前記第二の判断手段で正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得するようにしてあることを特徴とする画像計測装置。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
Edge extraction means for executing edge extraction at a measurement position for which designation is received based on the stored first image data and second image data;
First determination means for determining whether or not the edge extraction of the first image data has been normally completed by the edge extraction means;
Second determination means for determining whether or not the edge extraction of the second image data has been normally completed by the edge extraction means;
Position acquisition means for acquiring position data based on the first image data or the second image data according to the determination results of the first determination means and the second determination means;
Measuring means for executing measurement at the measurement position where the designation is received based on the acquired position data, and
The position acquisition means includes
If it is determined that the first determination unit has ended normally, and the second determination unit determines that it has not ended normally, position data is acquired based on the first image data;
If it is determined that the second determination means has ended normally and the first determination means determines that it has not ended normally, position data is acquired based on the second image data,
When it is determined that the first determination unit and the second determination unit have ended normally, the respective edge strengths are calculated, and the image data having a larger calculated edge strength is selected and selected. An image measuring apparatus characterized in that position data is acquired based on image data.
前記表示手段は、前記計測手段での計測の基礎となった画像データを表示するようにしてあることを特徴とする請求項1乃至7記載の画像計測装置。   8. The image measurement apparatus according to claim 1, wherein the display means displays image data that is a basis of measurement by the measurement means. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段と、
前記第一の画像データを表示する表示手段と、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段と、
前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つの選択を受け付ける選択受付手段と、
該選択受付手段で選択を受け付けた前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つを前記記憶手段から読み出し、読み出した前記第一の画像データ、前記第二の画像データ又は前記第三の画像データに基づいて位置データを取得する位置取得手段と、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段と
を備えることを特徴とする画像計測装置。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data, and third image data obtained by aligning and combining the first image data and the second image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
Selection accepting means for accepting selection of any one of the first image data, the second image data, and the third image data;
The first image data, the first image data, the second image data, and the third image data received by the selection receiving unit are read from the storage unit, and the read first image data, Position acquisition means for acquiring position data based on the second image data or the third image data;
An image measurement apparatus comprising: a measurement unit that performs measurement at a measurement position for which designation has been received based on acquired position data.
前記選択受付手段は、表示されている画面から選択を受け付けるようにしてあることを特徴とする請求項9記載の画像計測装置。   The image measurement apparatus according to claim 9, wherein the selection receiving unit is configured to receive a selection from a displayed screen. 前記表示手段は、前記第一の画像データ又は前記第三の画像データを表示するようにしてあることを特徴とする請求項7、9、10のいずれか一項に記載の画像計測装置。   The image measurement apparatus according to claim 7, wherein the display unit displays the first image data or the third image data. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能な画像計測方法において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶し、
前記第一の画像データを表示し、
表示された第一の画像データ上で計測位置の指定を受け付け、
指定を受け付けた計測位置に応じて前記第一の画像データ又は前記第二の画像データを読み出し、読み出した前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得し、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行することを特徴とする画像計測方法。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement method that can be executed by an image measurement device comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Store image data,
Displaying the first image data;
Accept the designation of the measurement position on the displayed first image data,
Read the first image data or the second image data according to the measurement position that received the designation, acquire the position data based on the read first image data or the second image data,
An image measurement method, comprising: performing measurement at a measurement position for which designation has been received based on acquired position data.
前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データをさらに記憶し、
前記第一の画像データ又は前記第三の画像データを表示することを特徴とする請求項12記載の画像計測方法。
Further storing third image data obtained by aligning and synthesizing the first image data and the second image data;
The image measurement method according to claim 12, wherein the first image data or the third image data is displayed.
指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断し、
計測対象物のエッジ部分であると判断した場合、前記第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、前記第一の画像データに基づいて位置データを取得することを特徴とする請求項12又は13記載の画像計測方法。
Determine whether the measurement position that received the designation is an edge part that shows the outer shape of the measurement object,
When it is determined that it is an edge portion of the measurement object, position data is acquired based on the second image data, and when it is determined that it is not an edge portion, position data is acquired based on the first image data. The image measurement method according to claim 12, wherein the image measurement method is performed.
計測対象物のエッジ部分であると判断した場合、前記第一の画像データ及び前記第二の画像データに基づいてエッジ強度を算出し、
算出されたエッジ強度がより大きい画像データに基づいて位置データを取得することを特徴とする請求項14記載の画像計測方法。
If it is determined that the measurement object is an edge portion, the edge strength is calculated based on the first image data and the second image data,
The image measurement method according to claim 14, wherein the position data is acquired based on image data having a larger calculated edge strength.
計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能な画像計測方法において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶し、
前記第一の画像データを表示し、
表示された第一の画像データ上で計測位置の指定を受け付け、
指定を受け付けた計測位置に応じて前記第三の画像データを読み出し、読み出した前記第三の画像データに基づいて位置データを取得し、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行することを特徴とする画像計測方法。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement method that can be executed by an image measurement device that includes a transmission illumination unit that illuminates a measurement object from the side opposite to the installation side of the imaging unit
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storing image data and third image data obtained by aligning and combining the first image data and the second image data;
Displaying the first image data;
Accept the designation of the measurement position on the displayed first image data,
Read the third image data according to the measurement position that received the designation, obtain the position data based on the read third image data,
An image measurement method, comprising: performing measurement at a measurement position for which designation has been received based on acquired position data.
前記第一の画像データ又は前記第三の画像データを表示することを特徴とする請求項16記載の画像計測方法。   The image measurement method according to claim 16, wherein the first image data or the third image data is displayed. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能な画像計測方法において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶し、
前記第一の画像データを表示し、
表示された第一の画像データ上で計測位置の指定を受け付け、
記憶されている前記第一の画像データ及び前記第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行し、
前記第一の画像データのエッジ抽出が正常に終了したか否かを判断し、
前記第二の画像データのエッジ抽出が正常に終了したか否かを判断し、
判断結果に応じて、前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得し、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行し、
前記第一の画像データのエッジ抽出が正常に終了したと判断し、前記第二の画像データのエッジ抽出が正常に終了しなかったと判断した場合、前記第一の画像データに基づいて位置データを取得し、
前記第二の画像データのエッジ抽出が正常に終了したと判断し、前記第一の画像データのエッジ抽出が正常に終了しなかったと判断した場合、前記第二の画像データに基づいて位置データを取得し、
前記第一の画像データのエッジ抽出及び前記第二の画像データのエッジ抽出が正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得することを特徴とする画像計測方法。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement method that can be executed by an image measurement device comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Store image data,
Displaying the first image data;
Accept the designation of the measurement position on the displayed first image data,
Based on the first image data and the second image data stored, the edge extraction at the measurement position that received the designation is executed,
Determining whether the edge extraction of the first image data has been normally completed;
Determining whether the edge extraction of the second image data has been normally completed;
According to the determination result, position data is acquired based on the first image data or the second image data,
Based on the acquired position data, execute the measurement at the measurement position that received the designation,
If it is determined that the edge extraction of the first image data has ended normally and the edge extraction of the second image data has not ended normally, position data is obtained based on the first image data. Acquired,
If it is determined that the edge extraction of the second image data has been completed normally, and it is determined that the edge extraction of the first image data has not been completed normally, position data is obtained based on the second image data. Acquired,
When it is determined that the edge extraction of the first image data and the edge extraction of the second image data have been completed normally, the respective edge strengths are calculated, and the image data having a larger calculated edge strength is selected. Then, the image measurement method characterized by acquiring position data based on the selected image data.
計測の基礎となった画像データを表示することを特徴とする請求項12乃至18記載の画像計測方法。   19. The image measurement method according to claim 12, wherein image data that is a basis of measurement is displayed. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能な画像計測方法において、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶し、
前記第一の画像データを表示し、
表示された第一の画像データ上で計測位置の指定を受け付け、
前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つの選択を受け付け、
選択を受け付けた前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つを読み出し、読み出した前記第一の画像データ、前記第二の画像データ又は前記第三の画像データに基づいて位置データを取得し、
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行することを特徴とする画像計測方法。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In an image measurement method that can be executed by an image measurement device comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storing image data and third image data obtained by aligning and combining the first image data and the second image data;
Displaying the first image data;
Accept the designation of the measurement position on the displayed first image data,
Accepts selection of any one of the first image data, the second image data, and the third image data;
One of the first image data, the second image data, and the third image data that has been selected is read out, and the read out first image data, the second image data, or the first image data Obtain position data based on the third image data,
An image measurement method, comprising: performing measurement at a measurement position for which designation has been received based on acquired position data.
表示されている画面から選択を受け付けることを特徴とする請求項20記載の画像計測方法。   21. The image measurement method according to claim 20, wherein selection is received from a displayed screen. 前記第一の画像データ又は前記第三の画像データを表示することを特徴とする請求項18、20、21のいずれか一項に記載の画像計測方法。   The image measurement method according to any one of claims 18, 20, and 21, wherein the first image data or the third image data is displayed. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、
前記画像計測装置を、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段、
前記第一の画像データを表示する表示手段、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、
該指定受付手段で指定を受け付けた計測位置に応じて前記第一の画像データ又は前記第二の画像データを前記記憶手段から読み出し、読み出した前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段、及び
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段
として機能させることを特徴とするコンピュータプログラム。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In a computer program that can be executed by an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
The image measuring device;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
The first image data or the second image data is read from the storage unit according to the measurement position received by the designation accepting unit, and the read first image data or second image data is read. A computer program that functions as a position acquisition unit that acquires position data based on the data and a measurement unit that executes measurement at a measurement position for which designation has been received based on the acquired position data.
前記記憶手段を、
前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データを記憶する手段として機能させ、
前記表示手段を、前記第一の画像データ又は前記第三の画像データを表示する手段として機能させることを特徴とする請求項23記載のコンピュータプログラム。
The storage means;
Function as means for storing third image data obtained by aligning and synthesizing the first image data and the second image data;
24. The computer program according to claim 23, wherein said display means functions as means for displaying said first image data or said third image data.
前記位置取得手段を、
前記指定受付手段で指定を受け付けた計測位置が計測対象物の外形を示すエッジ部分であるか否かを判断する判断手段、及び
該判断手段が、計測対象物のエッジ部分であると判断した場合、前記第二の画像データに基づいて位置データを取得し、エッジ部分ではないと判断した場合、前記第一の画像データに基づいて位置データを取得する手段
として機能させることを特徴とする請求項23又は24記載のコンピュータプログラム。
The position acquisition means;
Judgment means for judging whether or not the measurement position whose designation is accepted by the designation accepting means is an edge part indicating the outer shape of the measurement object, and when the judgment means judges that it is an edge part of the measurement object The position data is acquired based on the second image data, and when it is determined that the position data is not an edge portion, the position data is acquired based on the first image data. The computer program according to 23 or 24.
前記位置取得手段を、
前記判断手段が、計測対象物のエッジ部分であると判断した場合、前記第一の画像データ及び前記第二の画像データに基づいてエッジ強度を算出する手段、及び
算出されたエッジ強度がより大きい画像データに基づいて位置データを取得する手段
として機能させることを特徴とする請求項25記載のコンピュータプログラム。
The position acquisition means;
A means for calculating an edge strength based on the first image data and the second image data when the judgment means judges that the edge portion of the measurement object is present; 26. The computer program according to claim 25, wherein the computer program functions as means for acquiring position data based on image data.
計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、
前記画像計測装置を、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段、
前記第一の画像データを表示する表示手段、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、
該指定受付手段で指定された計測位置に応じて前記第三の画像データを前記記憶手段から読み出し、読み出した前記第三の画像データに基づいて位置データを取得する位置取得手段、及び
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段
として機能させることを特徴とするコンピュータプログラム。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In a computer program that can be executed by an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
The image measuring device;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data and third image data obtained by aligning and combining the first image data and the second image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
Position acquisition means for reading out the third image data from the storage means according to the measurement position designated by the designation receiving means, and obtaining position data based on the read third image data, and the obtained position A computer program that functions as a measurement unit that performs measurement at a measurement position for which designation is received based on data.
前記表示手段を、前記第一の画像データ又は前記第三の画像データを表示する手段として機能させることを特徴とする請求項27記載のコンピュータプログラム。   28. The computer program according to claim 27, wherein the display means functions as means for displaying the first image data or the third image data. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、
前記画像計測装置を、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データとを記憶する記憶手段、
前記第一の画像データを表示する表示手段、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、
記憶されている前記第一の画像データ及び前記第二の画像データに基づいて、指定を受け付けた計測位置でのエッジ抽出を実行するエッジ抽出手段、
該エッジ抽出手段で前記第一の画像データのエッジ抽出が正常に終了したか否かを判断する第一の判断手段、
前記エッジ抽出手段で前記第二の画像データのエッジ抽出が正常に終了したか否かを判断する第二の判断手段、
前記第一の判断手段及び前記第二の判断手段の判断結果に応じて、前記第一の画像データ又は前記第二の画像データに基づいて位置データを取得する位置取得手段、及び
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段
として機能させ、
前記位置取得手段を、
前記第一の判断手段で正常に終了したと判断し、前記第二の判断手段で正常に終了しなかったと判断した場合、前記第一の画像データに基づいて位置データを取得する手段、
前記第二の判断手段で正常に終了したと判断し、前記第一の判断手段で正常に終了しなかったと判断した場合、前記第二の画像データに基づいて位置データを取得する手段、及び
前記第一の判断手段及び前記第二の判断手段で正常に終了したと判断した場合、それぞれのエッジ強度を算出して、算出されたエッジ強度がより大きい画像データを選択して、選択された画像データに基づいて位置データを取得する手段
として機能させることを特徴とするコンピュータプログラム。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In a computer program that can be executed by an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
The image measuring device;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
Edge extraction means for performing edge extraction at a measurement position for which designation has been received based on the stored first image data and second image data;
First determination means for determining whether or not the edge extraction of the first image data has been normally completed by the edge extraction means;
Second determination means for determining whether or not edge extraction of the second image data has been normally completed by the edge extraction means;
Position acquisition means for acquiring position data based on the first image data or the second image data according to the determination results of the first determination means and the second determination means; and the acquired position data To function as a measurement means to execute measurement at the measurement position that received the designation,
The position acquisition means;
Means for obtaining position data on the basis of the first image data when it is determined that the first determination means has ended normally and the second determination means has determined that it has not ended normally;
Means for obtaining position data based on the second image data when it is determined that the second determination means has ended normally and the first determination means has determined that it has not ended normally; and When it is determined that the first determination means and the second determination means have finished normally, the respective edge strengths are calculated, image data having a larger calculated edge strength is selected, and the selected image is selected. A computer program that functions as means for acquiring position data based on data.
前記表示手段を、前記計測手段での計測の基礎となった画像データを表示する手段として機能させることを特徴とする請求項23乃至29記載のコンピュータプログラム。   30. The computer program according to claim 23, wherein the display means functions as means for displaying image data that is a basis of measurement by the measurement means. 計測対象物の画像を撮像する撮像手段と、
計測対象物の表面を前記撮像手段の設置側から照明する落射照明手段と、
計測対象物を前記撮像手段の設置側の反対側から照明する透過照明手段と
を備える画像計測装置で実行することが可能なコンピュータプログラムにおいて、
前記画像計測装置を、
前記落射照明手段を用いて前記撮像手段で計測対象物を撮像した第一の画像データと、前記透過照明手段を用いて前記撮像手段で前記計測対象物を略同じ位置にて撮像した第二の画像データと、前記第一の画像データと前記第二の画像データとを位置合わせして合成した第三の画像データとを記憶する記憶手段、
前記第一の画像データを表示する表示手段、
表示された第一の画像データ上で計測位置の指定を受け付ける指定受付手段、
前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つの選択を受け付ける選択受付手段、
該選択受付手段で選択を受け付けた前記第一の画像データ、前記第二の画像データ、前記第三の画像データのいずれか1つを前記記憶手段から読み出し、読み出した前記第一の画像データ、前記第二の画像データ又は前記第三の画像データに基づいて位置データを取得する位置取得手段、及び
取得した位置データに基づいて、指定を受け付けた計測位置での計測を実行する計測手段
として機能させることを特徴とするコンピュータプログラム。
Imaging means for capturing an image of the measurement object;
Epi-illumination means for illuminating the surface of the measurement object from the installation side of the imaging means;
In a computer program that can be executed by an image measurement apparatus comprising: a transmission illumination unit that illuminates a measurement object from a side opposite to the installation side of the imaging unit;
The image measuring device;
First image data obtained by imaging the measurement object with the imaging means using the epi-illumination means, and second image obtained by imaging the measurement object with the imaging means using the transmission illumination means at substantially the same position. Storage means for storing image data and third image data obtained by aligning and combining the first image data and the second image data;
Display means for displaying the first image data;
Designation accepting means for accepting designation of a measurement position on the displayed first image data;
Selection accepting means for accepting selection of any one of the first image data, the second image data, and the third image data;
The first image data, the first image data, the second image data, and the third image data received by the selection receiving unit are read from the storage unit, and the read first image data, Functions as a position acquisition unit that acquires position data based on the second image data or the third image data, and a measurement unit that executes measurement at a measurement position that receives a designation based on the acquired position data A computer program characterized by causing
前記選択受付手段を、表示されている画面から選択を受け付ける手段として機能させることを特徴とする請求項31記載のコンピュータプログラム。   32. The computer program according to claim 31, wherein the selection receiving means functions as means for receiving selection from a displayed screen. 前記表示手段を、前記第一の画像データ又は前記第三の画像データを表示する手段として機能させることを特徴とする請求項29、31、32のいずれか一項に記載のコンピュータプログラム。   The computer program according to any one of claims 29, 31, and 32, wherein the display means is caused to function as means for displaying the first image data or the third image data.
JP2008152316A 2008-06-10 2008-06-10 Image measuring apparatus, image measuring method, and computer program Expired - Fee Related JP5270971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008152316A JP5270971B2 (en) 2008-06-10 2008-06-10 Image measuring apparatus, image measuring method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008152316A JP5270971B2 (en) 2008-06-10 2008-06-10 Image measuring apparatus, image measuring method, and computer program

Publications (3)

Publication Number Publication Date
JP2009300124A true JP2009300124A (en) 2009-12-24
JP2009300124A5 JP2009300124A5 (en) 2011-05-06
JP5270971B2 JP5270971B2 (en) 2013-08-21

Family

ID=41547193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008152316A Expired - Fee Related JP5270971B2 (en) 2008-06-10 2008-06-10 Image measuring apparatus, image measuring method, and computer program

Country Status (1)

Country Link
JP (1) JP5270971B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201321A1 (en) 2011-02-01 2012-08-02 Keyence Corp. Dimensioning device, dimensional measuring method and program for dimensional measuring device
DE102012201328A1 (en) 2011-02-01 2012-08-02 Keyence Corporation Dimensioning device, dimensional measuring method and program for dimensional measuring device
US8503757B2 (en) 2010-08-02 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
US8503758B2 (en) 2010-07-29 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
JP2014055913A (en) * 2012-09-14 2014-03-27 Keyence Corp Appearance inspection device, and control method and program of appearance inspection device
JP2016191636A (en) * 2015-03-31 2016-11-10 東京エレクトロン株式会社 Liquid droplet volume measurement device, liquid droplet volume measurement method, liquid droplet volume measurement substrate and ink jet drawing device
WO2018030386A1 (en) * 2016-08-09 2018-02-15 シャープ株式会社 Position designation device and position designation method
JP2018081115A (en) * 2018-02-09 2018-05-24 株式会社キーエンス Image measurement instrument
WO2019188198A1 (en) * 2018-03-30 2019-10-03 倉敷紡績株式会社 Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object
JP2021056165A (en) * 2019-10-01 2021-04-08 倉敷紡績株式会社 Three-dimensional measurement method for linear object, method for determining work position of linear object using the same, robot control method, method for fixing linear object, device for determining work position of linear object, and system for gripping linear object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1163922A (en) * 1997-08-19 1999-03-05 Nikon Corp Image measuring device and method thereof
JP2000266514A (en) * 1999-03-15 2000-09-29 Dainippon Printing Co Ltd Method and device for inspecting metallic sheet
JP2004170400A (en) * 2002-10-30 2004-06-17 Hitachi Kokusai Electric Inc Method and system for measuring dimensions
JP2005069795A (en) * 2003-08-22 2005-03-17 Hitachi Kokusai Electric Inc Predetermined part registration method of dimension measuring apparatus
JP2006194593A (en) * 2005-01-11 2006-07-27 Hitachi Kokusai Electric Inc Linewidth measuring method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1163922A (en) * 1997-08-19 1999-03-05 Nikon Corp Image measuring device and method thereof
JP2000266514A (en) * 1999-03-15 2000-09-29 Dainippon Printing Co Ltd Method and device for inspecting metallic sheet
JP2004170400A (en) * 2002-10-30 2004-06-17 Hitachi Kokusai Electric Inc Method and system for measuring dimensions
JP2005069795A (en) * 2003-08-22 2005-03-17 Hitachi Kokusai Electric Inc Predetermined part registration method of dimension measuring apparatus
JP2006194593A (en) * 2005-01-11 2006-07-27 Hitachi Kokusai Electric Inc Linewidth measuring method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503758B2 (en) 2010-07-29 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
US8503757B2 (en) 2010-08-02 2013-08-06 Keyence Corporation Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
DE102012201321A1 (en) 2011-02-01 2012-08-02 Keyence Corp. Dimensioning device, dimensional measuring method and program for dimensional measuring device
DE102012201328A1 (en) 2011-02-01 2012-08-02 Keyence Corporation Dimensioning device, dimensional measuring method and program for dimensional measuring device
US9329024B2 (en) 2011-02-01 2016-05-03 Keyence Corporation Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
US9341465B2 (en) 2011-02-01 2016-05-17 Keyence Corporation Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
JP2014055913A (en) * 2012-09-14 2014-03-27 Keyence Corp Appearance inspection device, and control method and program of appearance inspection device
JP2016191636A (en) * 2015-03-31 2016-11-10 東京エレクトロン株式会社 Liquid droplet volume measurement device, liquid droplet volume measurement method, liquid droplet volume measurement substrate and ink jet drawing device
WO2018030386A1 (en) * 2016-08-09 2018-02-15 シャープ株式会社 Position designation device and position designation method
JPWO2018030386A1 (en) * 2016-08-09 2019-07-18 シャープ株式会社 Positioning apparatus and positioning method
JP2018081115A (en) * 2018-02-09 2018-05-24 株式会社キーエンス Image measurement instrument
WO2019188198A1 (en) * 2018-03-30 2019-10-03 倉敷紡績株式会社 Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object
CN111919086A (en) * 2018-03-30 2020-11-10 仓敷纺绩株式会社 Three-dimensional measuring device and three-dimensional measuring method for linear object
JPWO2019188198A1 (en) * 2018-03-30 2021-03-25 倉敷紡績株式会社 Three-dimensional measuring device for linear objects and three-dimensional measuring method for linear objects
JP2021056165A (en) * 2019-10-01 2021-04-08 倉敷紡績株式会社 Three-dimensional measurement method for linear object, method for determining work position of linear object using the same, robot control method, method for fixing linear object, device for determining work position of linear object, and system for gripping linear object
JP7312663B2 (en) 2019-10-01 2023-07-21 倉敷紡績株式会社 Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system

Also Published As

Publication number Publication date
JP5270971B2 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
JP5270971B2 (en) Image measuring apparatus, image measuring method, and computer program
JP5095644B2 (en) Image measuring apparatus and computer program
JP4811272B2 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
KR100785594B1 (en) Image process apparatus
JP5997989B2 (en) Image measuring apparatus, control method thereof, and program for image measuring apparatus
JP5365645B2 (en) Substrate inspection apparatus, substrate inspection system, and method of displaying screen for confirming substrate inspection result
JP2012220496A (en) Method and device for displaying indication of quality of three-dimensional data for surface of viewed object
JP5074319B2 (en) Image measuring apparatus and computer program
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP2012235997A (en) Endoscope
JP2007327836A (en) Appearance inspection apparatus and method
US20060176321A1 (en) Endoscope apparatus
JP2010060528A (en) Image measurement system and computer program
JP2009002761A (en) Range finding device and its range finding method
JP2010032331A (en) Image measuring apparatus and computer program
JP2017110909A (en) Crack width measurement device
JP4650107B2 (en) Measuring device with confocal optical system
JP2011191170A (en) Image processing apparatus
JP2010032329A (en) Image measuring device and computer program
JP6913123B2 (en) Reinforcement measurement system, bar arrangement measurement method and program
JP6885764B2 (en) Lens meter
JP5531071B2 (en) Image measuring apparatus and computer program
JP7329427B2 (en) lens meter
JP6885762B2 (en) Lens meter
JP2009294465A (en) Imaging device for microscope and objective micrometer

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130510

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees