JP2015178961A - Image processing device, three-dimensional shape measurement device and image processing method - Google Patents

Image processing device, three-dimensional shape measurement device and image processing method Download PDF

Info

Publication number
JP2015178961A
JP2015178961A JP2014055423A JP2014055423A JP2015178961A JP 2015178961 A JP2015178961 A JP 2015178961A JP 2014055423 A JP2014055423 A JP 2014055423A JP 2014055423 A JP2014055423 A JP 2014055423A JP 2015178961 A JP2015178961 A JP 2015178961A
Authority
JP
Japan
Prior art keywords
pixel
hole
density
outline
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014055423A
Other languages
Japanese (ja)
Other versions
JP6282907B2 (en
Inventor
晋 青木
Susumu Aoki
晋 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takaoka Toko Co Ltd
Original Assignee
Takaoka Toko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takaoka Toko Co Ltd filed Critical Takaoka Toko Co Ltd
Priority to JP2014055423A priority Critical patent/JP6282907B2/en
Publication of JP2015178961A publication Critical patent/JP2015178961A/en
Application granted granted Critical
Publication of JP6282907B2 publication Critical patent/JP6282907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of correctly detecting the position of a hole part having a circular contour from an image, and to provide a three-dimensional shape measurement device and an image processing method.SOLUTION: An image processing device 10 according to an embodiment of this invention includes an image acquisition unit 21, a pixel type estimation unit 22 and a feature amount calculation unit 23. The image acquisition unit 21 acquires an image of a surface provided with a hole part having a circular contour. The pixel type estimation unit 22 estimates pixels included in the contour of the hole part and pixels with the contour of the hole part belonging thereto in accordance with the density of each pixel of the acquired image, that is, which the density belongs to between two types of density ranges: the density range of pixels belonging to the surface; and the density range of the pixels included in the contour of the hole part and the pixels with the contour of the hole part belonging thereto. The feature amount calculation unit 23 calculates the radius and the center position of the hole part on the basis of a density distribution of the pixels included in the contour of the hole part and the pixels with the contour of the hole part belonging thereto.

Description

本発明の実施形態は、画像から円形状の輪郭を有する対象物を検出する画像処理装置、立体形状計測装置および画像処理方法に関する。   Embodiments described herein relate generally to an image processing apparatus, a three-dimensional shape measurement apparatus, and an image processing method for detecting an object having a circular outline from an image.

従来、円形状の輪郭を有する対象物を画像から検出する技術として、種々の技術が知られている。たとえば特開2002−140713号公報(特許文献1)に記載の技術は、まず濃淡画像上に円の仮中心を設定するとともに画像上のエッジを抽出する。エッジの検出においては、2次微分のゼロクロッシングや1次微分のガウシアンフィッティングなどにより求める。次に、仮中心からエッジまでの距離、およびエッジの接線方向と仮中心からエッジに向かう方向とがなす角度にもとづいて、各エッジが観測対象物の輪郭を表す円の円周を構成する点か否かを判定するようになっている。   Conventionally, various techniques are known as techniques for detecting an object having a circular outline from an image. For example, the technique described in Japanese Patent Laid-Open No. 2002-140713 (Patent Document 1) first sets a temporary center of a circle on a grayscale image and extracts an edge on the image. In edge detection, it is obtained by zero-crossing of the second derivative or Gaussian fitting of the first derivative. Next, based on the distance from the temporary center to the edge and the angle between the tangential direction of the edge and the direction from the temporary center to the edge, each edge constitutes the circumference of a circle that represents the outline of the observation object It is determined whether or not.

特許文献1に記載の技術では、設定した仮中心を用いて輪郭を構成する可能性の高いエッジを抽出することができ、抽出したエッジを用いて仮中心よりも正確な中心および半径を求めることができる。このため、この種の技術によれば、たとえば板状の部材表面に盛り上がるように設けられた半田ボールの位置を簡便に検出することができる。   With the technique described in Patent Document 1, it is possible to extract an edge having a high possibility of forming a contour using a set temporary center, and to obtain a center and a radius that are more accurate than the temporary center using the extracted edge. Can do. For this reason, according to this type of technology, for example, the position of a solder ball provided so as to rise on the surface of a plate-like member can be easily detected.

特開2002−140713号公報JP 2002-140713 A

しかし、従来の技術は対象物が穴部である場合を考慮していない。このため、従来の技術では、円形状の輪郭を有する穴部が設けられた表面を撮像した画像から穴部を抽出することが難しい。   However, the conventional technique does not consider the case where the object is a hole. For this reason, in the prior art, it is difficult to extract a hole from an image obtained by imaging a surface provided with a hole having a circular outline.

従来の技術は、円形状の輪郭を有する対象物が、板状の部材表面に盛り上がるように設けられていることを想定している。表面に盛り上がるように設けられた半球状の対象物の場合、画像内における対象物が属する画素の濃度(輝度)は、対象物の中心付近が最も高く、輪郭が最も低くなるとともに、輪郭近傍における濃度勾配方向の濃度分布は微分可能に滑らかな分布を有する。このため、従来の技術のように1次微分や2次微分を用いて容易にエッジ検出を行うことが可能である。   The conventional technology assumes that an object having a circular outline is provided so as to rise on the surface of a plate-like member. In the case of a hemispherical object provided so as to swell on the surface, the density (luminance) of the pixel to which the object belongs in the image is highest near the center of the object, has the lowest contour, and is near the contour. The concentration distribution in the concentration gradient direction has a differentiably smooth distribution. For this reason, it is possible to easily detect the edge using the first and second derivatives as in the conventional technique.

ところが、穴部が設けられた画像の場合、各画素の濃度は、穴部中心から輪郭まではほぼゼロである一方、表面部の濃度はほぼ一定値の高濃度となる。このため、穴部の輪郭付近において、濃度は非常に急峻に変化し、輪郭近傍における濃度勾配方向の濃度分布は微分不可能な分布となってしまう。   However, in the case of an image provided with a hole, the density of each pixel is substantially zero from the hole center to the contour, while the density of the surface part is a high density with a substantially constant value. For this reason, the concentration changes very steeply near the contour of the hole, and the concentration distribution in the concentration gradient direction near the contour becomes a non-differentiable distribution.

したがって、円形状の輪郭を有する穴部が設けられた表面の画像から穴部を抽出する場合、1次微分や2次微分を用いる方法では、安定して正確なエッジ位置を検出することが難しい。このため、対象物の位置を正確に検出することが難しい。さらに、穴部のサイズによっては、穴部に属する画素がたとえば10−20画素程度と少ない場合もある。この場合、穴部に属する画素の輪郭はモザイク状となり、従来の技術によるエッジ検出はさらに困難となってしまう。   Therefore, when a hole is extracted from an image of a surface provided with a hole having a circular contour, it is difficult to detect a stable and accurate edge position by a method using a primary differential or a secondary differential. . For this reason, it is difficult to accurately detect the position of the object. Further, depending on the size of the hole, there are cases where the number of pixels belonging to the hole is as small as about 10-20 pixels, for example. In this case, the contours of the pixels belonging to the hole are in a mosaic shape, which makes it more difficult to detect edges using the conventional technique.

本発明は、上述した事情を考慮してなされたもので、円形状の輪郭を有する穴部の位置を画像から正確に検出することができる画像処理装置、立体形状計測装置および画像処理方法を提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances, and provides an image processing apparatus, a three-dimensional shape measuring apparatus, and an image processing method that can accurately detect the position of a hole having a circular outline from an image. The purpose is to do.

本発明の一実施形態に係る画像処理装置は、上述した課題を解決するために、画像取得部、画素種別推定部および特徴量算出部を備える。画像取得部は、円形状の輪郭を有する穴部が設けられた表面の画像を取得する。画素種別推定部は、取得した画像の各画素の濃度が、表面に属する画素の濃度範囲ならびに穴部の輪郭に内包される画素および穴部の輪郭が属する画素の濃度範囲の2種の濃度範囲のいずれに属するかに応じて、穴部の輪郭に内包される画素および穴部の輪郭が属する画素を推定する。特徴量算出部は、穴部の輪郭に内包される画素および穴部の輪郭が属する画素の濃度分布にもとづいて穴部の半径および中心位置を求める。   In order to solve the above-described problem, an image processing apparatus according to an embodiment of the present invention includes an image acquisition unit, a pixel type estimation unit, and a feature amount calculation unit. The image acquisition unit acquires an image of a surface provided with a hole having a circular outline. The pixel type estimation unit has two types of density ranges in which the density of each pixel of the acquired image is a density range of pixels belonging to the surface, a pixel included in the outline of the hole, and a density range of the pixel to which the outline of the hole belongs. The pixel included in the outline of the hole and the pixel to which the outline of the hole belongs are estimated. The feature amount calculation unit obtains the radius and center position of the hole based on the density distribution of the pixels included in the outline of the hole and the pixel to which the outline of the hole belongs.

本発明に係る画像処理装置、立体形状計測装置および画像処理方法によれば、円形状の輪郭を有する穴部の位置を画像から正確に検出することができる。   According to the image processing device, the three-dimensional shape measurement device, and the image processing method according to the present invention, the position of a hole having a circular outline can be accurately detected from an image.

本発明の第1実施形態に係る画像処理装置の一構成例を示すブロック図。1 is a block diagram showing a configuration example of an image processing apparatus according to a first embodiment of the present invention. 画像取得部により取得される画像の撮像対象となる物体の一例を示す説明図。Explanatory drawing which shows an example of the object used as the imaging target of the image acquired by the image acquisition part. 円形状の輪郭を有する穴部と画素との位置関係の一例を示す説明図。Explanatory drawing which shows an example of the positional relationship of the hole which has a circular outline, and a pixel. 図1に示す主制御部のCPUにより、円形状の輪郭を有する穴部の位置を画像から正確に検出する際の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure at the time of detecting correctly the position of the hole which has a circular outline from the image by CPU of the main-control part shown in FIG. 図4のステップS2で画素種別推定部22により実行される穴所属画素推定処理の手順の一例を示すサブルーチンフローチャート。FIG. 5 is a subroutine flowchart showing an example of a procedure of hole belonging pixel estimation processing executed by a pixel type estimation unit 22 in step S2 of FIG. 4. ラベリング処理の結果の一例を示す説明図。Explanatory drawing which shows an example of the result of a labeling process. 図4のステップS3で特徴量算出部により実行される半径rおよび中心位置Cの算出処理の手順の一例を示すサブルーチンフローチャート。FIG. 5 is a subroutine flowchart illustrating an example of a procedure for calculating a radius r and a center position C, which is executed by a feature amount calculation unit in step S3 of FIG. 4. 表面画素の濃度Gが正規化値Tで置換された様子の一例を示す説明図。Explanatory view showing an example of a state in which the concentration G of surface pixels are replaced with the normalized value T 0. 穴所属画素の正規化濃度Tの一例を示す説明図。Explanatory drawing which shows an example of the normalization density | concentration T of a hole affiliation pixel. 表面画素および穴所属画素の反転正規化濃度Tinvの一例を示す説明図。Explanatory drawing which shows an example of the reverse normalization density | concentration Tinv of a surface pixel and a hole affiliation pixel. 図4のステップS4で実行される半径rおよび中心位置Cの補正処理の手順の一例を示すサブルーチンフローチャート。FIG. 5 is a subroutine flowchart illustrating an example of a procedure for correcting a radius r and a center position C executed in step S4 of FIG. 4. FIG. 図10の一部拡大図を用いて補正部による特徴量補正処理を説明するための図。The figure for demonstrating the feature-value correction | amendment process by a correction | amendment part using the partially expanded view of FIG. 本発明の第2実施形態に係る画像処理装置を含む立体形状計測装置の一例を示す全体構成図。The whole block diagram which shows an example of the solid-shape measuring apparatus containing the image processing apparatus which concerns on 2nd Embodiment of this invention. 焦点位置変更部の一構成例を示す斜視図。The perspective view which shows the example of 1 structure of a focus position change part. 本発明の第2実施形態に係る画像処理装置の一構成例を示すブロック図。The block diagram which shows the example of 1 structure of the image processing apparatus which concerns on 2nd Embodiment of this invention. 表面に垂直な高さh方向に離散的な位置h1、h2、・・・、hpのそれぞれで得られる物体の画像について説明するための図。The figure for demonstrating the image of the object obtained in each of discrete position h1, h2, ..., hp in the height h direction perpendicular | vertical to the surface. 図15に示す主制御部のCPUにより、各画素の表面位置における濃度を求める際の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure at the time of calculating | requiring the density | concentration in the surface position of each pixel by CPU of the main-control part shown in FIG. 各画素の高さh方向の濃度分布の一例を示す説明図。Explanatory drawing which shows an example of the density distribution of the height h direction of each pixel. (a)は、RおよびRの1階微分R’のゼロクロッシングについて説明するための図、(b)は(a)を一部拡大してR’のゼロクロッシングについてより詳細に説明するための図。(A) is a figure for demonstrating the zero crossing of the 1st-order differential R 'of R and R, (b) is for enlarging (a) partially, and demonstrating in detail about the zero crossing of R'. Figure. 各画素のそれぞれで推定最高濃度を与える高さμを算出することで得られる表面の高さ分布の一例を示す説明図。Explanatory drawing which shows an example of the height distribution of the surface obtained by calculating height (micro | micron | mu) which gives the estimated maximum density | concentration in each pixel.

本発明に係る画像処理装置、立体形状計測装置および画像処理方法の実施の形態について、添付図面を参照して説明する。   Embodiments of an image processing apparatus, a three-dimensional shape measurement apparatus, and an image processing method according to the present invention will be described with reference to the accompanying drawings.

本発明の一実施形態に係る画像処理装置は、1次微分や2次微分を用いたエッジ検出を行うことなく円形状の輪郭を有する穴部の位置を画像から正確に検出するものである。なお、以下の説明において、表面は平面であるものとする。また、表面に設けられた穴部とは、表面上方から光を照射したときに表面における光の反射に比べて十分に反射の少ない箇所をいい、表面に設けられた凹部も含まれる。たとえば、本実施形態に係る穴としては、シリコン貫通ビア(TSV、Through-Silicon Via)や基板のブラインドビア、スルーホールビアなど、非貫通または貫通の穴であって穴の深さに対して穴の径が小さいものなどが挙げられる。   An image processing apparatus according to an embodiment of the present invention accurately detects the position of a hole having a circular outline from an image without performing edge detection using primary differentiation or secondary differentiation. In the following description, the surface is assumed to be a plane. Moreover, the hole provided in the surface refers to a portion that is sufficiently less reflected than the reflection of light on the surface when light is irradiated from above the surface, and includes a recess provided in the surface. For example, the holes according to the present embodiment include non-through or through holes such as through-silicon vias (TSVs), substrate blind vias, and through-hole vias, and have a depth corresponding to the depth of the hole. And the like having a small diameter.

(第1の実施形態)
図1は、本発明の第1実施形態に係る画像処理装置10の一構成例を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus 10 according to the first embodiment of the present invention.

画像処理装置10は、図1に示すように、表示部11、入力部12、記憶部13、ネットワーク接続部14および主制御部15を有する。   As illustrated in FIG. 1, the image processing apparatus 10 includes a display unit 11, an input unit 12, a storage unit 13, a network connection unit 14, and a main control unit 15.

表示部11は、たとえば液晶ディスプレイやOLED(Organic Light Emitting Diode)ディスプレイなどの一般的な表示出力装置により構成され、主制御部15の制御に従って各種画像を表示する。   The display unit 11 is configured by a general display output device such as a liquid crystal display or an OLED (Organic Light Emitting Diode) display, and displays various images according to the control of the main control unit 15.

入力部12は、少なくともポインティングデバイスを含み、たとえばマウス、トラックボール、キーボード、タッチパネル、テンキーなどの一般的な入力装置により構成され、ユーザの操作に対応した操作入力信号を主制御部15に出力する。   The input unit 12 includes at least a pointing device and is configured by a general input device such as a mouse, a trackball, a keyboard, a touch panel, and a numeric keypad, and outputs an operation input signal corresponding to a user operation to the main control unit 15. .

記憶部13は、磁気的もしくは光学的記録媒体または半導体メモリなどの、主制御部15のCPUにより読み書き可能な記録媒体を含んだ構成を有する。これら記憶媒体内のプログラムおよびデータの一部または全部は、電子ネットワークを介してダウンロードされるように構成してもよい。   The storage unit 13 includes a recording medium that can be read and written by the CPU of the main control unit 15 such as a magnetic or optical recording medium or a semiconductor memory. Some or all of the programs and data in these storage media may be configured to be downloaded via an electronic network.

ネットワーク接続部14は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部は、この各種プロトコルに従って画像処理装置10と他の電気機器とを接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   The network connection unit 14 implements various information communication protocols according to the network form. The network connection unit connects the image processing apparatus 10 and other electrical devices according to these various protocols. For this connection, an electrical connection via an electronic network can be applied. Here, an electronic network means an information communication network using telecommunications technology in general, in addition to a wireless / wired LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, Includes satellite communications networks.

主制御部15は、CPU、RAMおよびROMをはじめとする記憶媒体などにより構成され、この記憶媒体に記憶されたプログラムに従って画像処理装置10の動作を制御する。主制御部15のCPUは、ROMをはじめとする記憶媒体に記憶された画像処理プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードする。主制御部15のCPUは、このプログラムに従って円形状の輪郭を有する穴部の位置を画像から正確に検出する処理を実行する。   The main control unit 15 includes a storage medium such as a CPU, RAM, and ROM, and controls the operation of the image processing apparatus 10 according to a program stored in the storage medium. The CPU of the main control unit 15 loads an image processing program stored in a storage medium such as a ROM and data necessary for executing the program into the RAM. The CPU of the main control unit 15 executes processing for accurately detecting the position of the hole having a circular outline from the image according to this program.

主制御部15のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。主制御部15のROMをはじめとする記憶媒体は、画像処理装置10の起動プログラム、画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The RAM of the main control unit 15 provides a work area for temporarily storing programs and data executed by the CPU. The storage medium such as the ROM of the main control unit 15 stores a startup program for the image processing apparatus 10, an image processing program, and various data necessary for executing these programs.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network.

図1に示すように、主制御部15のCPUは、画像処理プログラムによって、少なくとも画像取得部21、画素種別推定部22、特徴量算出部23および補正部24として機能する。これらの機能実現部21〜24は、RAMの所要のワークエリアをデータの一時的な格納場所として利用する。また、これらの機能実現部21〜24は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。   As shown in FIG. 1, the CPU of the main control unit 15 functions as at least an image acquisition unit 21, a pixel type estimation unit 22, a feature amount calculation unit 23, and a correction unit 24 by an image processing program. These function realization units 21 to 24 use a required work area of the RAM as a temporary data storage location. Moreover, you may comprise these function implementation parts 21-24 by hardware logics, such as a circuit, without using CPU.

図2は、画像取得部21により取得される画像の撮像対象となる物体30の一例を示す説明図である。   FIG. 2 is an explanatory diagram illustrating an example of an object 30 that is an imaging target of an image acquired by the image acquisition unit 21.

画像取得部21は、円形状の輪郭31を有する穴部32が設けられた表面33の画像を取得する。この画像は、物体30を表面33の情報から撮像することにより得られる画像であり、距離画像であってもよい。   The image acquisition unit 21 acquires an image of the surface 33 provided with the hole 32 having the circular outline 31. This image is an image obtained by imaging the object 30 from the information on the surface 33, and may be a distance image.

図3は、円形状の輪郭31を有する穴部32と画素との位置関係の一例を示す説明図である。   FIG. 3 is an explanatory diagram illustrating an example of a positional relationship between the hole 32 having the circular outline 31 and the pixel.

画像取得部21が取得した画像の各画素のうち、表面33に属する画素(以下、表面画素という)41は高濃度を有し、穴部32に属する画素(以下、穴所属画素という)42の濃度は低い。穴所属画素42のうち、穴部32の輪郭31に内包される画素(以下、穴内包画素という)44の濃度はほぼゼロであり、穴部32の輪郭31が属する画素(以下、穴輪郭画素という)43は、穴内包画素44よりも濃度がやや高い。これは、穴内包画素44がすべて穴部32の画像で構成されるのに対し、穴輪郭画素43は輪郭31が属する画素であり一部が表面33の画像で構成されるためである。   Among the pixels of the image acquired by the image acquisition unit 21, a pixel (hereinafter referred to as a surface pixel) 41 belonging to the surface 33 has a high density, and a pixel (hereinafter referred to as a hole belonging pixel) 42 belonging to the hole 32. The concentration is low. Among the hole-affiliated pixels 42, the density of a pixel 44 (hereinafter referred to as a hole-included pixel) 44 included in the contour 31 of the hole 32 is substantially zero, and the pixel to which the contour 31 of the hole 32 belongs (hereinafter referred to as a hole contour pixel). 43) has a slightly higher density than the hole inclusion pixel 44. This is because the hole inclusion pixels 44 are all configured by an image of the hole portion 32, whereas the hole contour pixel 43 is a pixel to which the contour 31 belongs and a part thereof is configured by an image of the surface 33.

そこで、画素種別推定部22は、取得した画像の各画素(xm,yn)の濃度G(xm,yn)が、表面画素41の濃度範囲および穴所属画素42の濃度範囲のいずれに属するかに応じて、表面画素41および穴所属画素42を推定する。また、画素種別推定部22は、穴所属画素42の濃度Gが、穴輪郭画素43の濃度範囲および穴内包画素44の濃度範囲のいずれに属するかに応じて、穴輪郭画素43および穴内包画素44を推定する。   Therefore, the pixel type estimation unit 22 determines whether the density G (xm, yn) of each pixel (xm, yn) of the acquired image belongs to the density range of the surface pixel 41 or the density range of the hole-affiliated pixel 42. Accordingly, the surface pixel 41 and the hole assigned pixel 42 are estimated. Further, the pixel type estimation unit 22 determines whether the hole G pixel 42 and the hole inclusion pixel 42 have a density G of the hole belonging pixel 42 depending on which of the density range of the hole contour pixel 43 and the density range of the hole inclusion pixel 44 belongs. 44 is estimated.

特徴量算出部23は、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置C(xc,yc)を求める。   The feature amount calculation unit 23 obtains the radius r and the center position C (xc, yc) of the hole 32 based on the density distribution of the hole belonging pixel 42.

補正部24は、穴輪郭画素43のそれぞれについて、各画素の中心と特徴量算出部23により求められた中心位置Cとを結ぶ直線45を仮定する。また、補正部24は、この直線45と直交し画素を2分する画素分割線分46であって中心位置C側の分割領域が自身の濃度に応じた面積を有する画素分割線分46の位置を求める。そして、補正部24は、画素分割線分46の位置にもとづいて穴部32の半径rおよび中心位置Cを補正する。   The correction unit 24 assumes a straight line 45 connecting the center of each pixel and the center position C obtained by the feature amount calculation unit 23 for each of the hole outline pixels 43. Further, the correcting unit 24 is a pixel dividing line segment 46 that is orthogonal to the straight line 45 and divides the pixel into two, and the division area on the center position C side has an area corresponding to its density. Ask for. Then, the correction unit 24 corrects the radius r and the center position C of the hole 32 based on the position of the pixel dividing line segment 46.

次に、本実施形態に係る画像処理装置10の動作の一例について説明する。   Next, an example of the operation of the image processing apparatus 10 according to the present embodiment will be described.

図4は、図1に示す主制御部15のCPUにより、円形状の輪郭31を有する穴部32の位置を画像から正確に検出する際の手順の一例を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 4 is a flowchart showing an example of a procedure when the CPU of the main control unit 15 shown in FIG. 1 accurately detects the position of the hole 32 having the circular contour 31 from the image. In FIG. 4, reference numerals with numbers added to S indicate steps in the flowchart.

まず、ステップS1において、画像取得部21は、円形状の輪郭31を有する穴部32が設けられた表面33の画像を取得する。   First, in step S <b> 1, the image acquisition unit 21 acquires an image of the surface 33 provided with the hole 32 having the circular outline 31.

次に、ステップS2において、画素種別推定部22は、取得した画像の各画素(xm,yn)の濃度G(xm,yn)が、表面画素41の濃度範囲および穴所属画素42の濃度範囲のいずれに属するかに応じて、表面画素41および穴所属画素42を推定する。   Next, in step S <b> 2, the pixel type estimation unit 22 determines that the density G (xm, yn) of each pixel (xm, yn) of the acquired image is the density range of the surface pixel 41 and the density range of the hole-affiliated pixel 42. The surface pixel 41 and the hole-affiliated pixel 42 are estimated according to which one they belong to.

次に、ステップS3において、特徴量算出部23は、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置C(xc,yc)を求める。   Next, in step S <b> 3, the feature amount calculation unit 23 obtains the radius r and the center position C (xc, yc) of the hole 32 based on the density distribution of the hole belonging pixel 42.

次に、ステップS4において、補正部24は、穴輪郭画素43の濃度にもとづいて特徴量算出部23により求められた半径rおよび中心位置Cを補正する。なお、ステップS4は必ずしも実行されずともよい。ステップS4を実行しない場合、画像処理装置10は補正部24を備えずともよい。   Next, in step S <b> 4, the correction unit 24 corrects the radius r and the center position C obtained by the feature amount calculation unit 23 based on the density of the hole outline pixel 43. Note that step S4 is not necessarily executed. When step S4 is not executed, the image processing apparatus 10 may not include the correction unit 24.

以上の手順により、1次微分や2次微分を用いたエッジ検出を行うことなく円形状の輪郭31を有する穴部32の位置を画像から正確に検出することができる。   With the above procedure, the position of the hole 32 having the circular contour 31 can be accurately detected from the image without performing edge detection using primary differentiation or secondary differentiation.

続いて、取得した画像から穴所属画素42を推定する際の手順を説明する。   Next, a procedure for estimating the hole belonging pixel 42 from the acquired image will be described.

図5は、図4のステップS2で画素種別推定部22により実行される穴所属画素推定処理の手順の一例を示すサブルーチンフローチャートである。   FIG. 5 is a subroutine flowchart showing an example of the procedure of the hole belonging pixel estimation process executed by the pixel type estimation unit 22 in step S2 of FIG.

ステップS21において、画素種別推定部22は、濃度Gがほぼゼロの画素に着目してラベリング処理を行うことにより、少なくとも穴内包画素44を含む領域を推定する。   In step S <b> 21, the pixel type estimation unit 22 estimates a region including at least the hole inclusion pixel 44 by performing a labeling process focusing on a pixel having a density G of almost zero.

図6は、ラベリング処理の結果の一例を示す説明図である。ステップS21におけるラベリング処理により、少なくとも穴内包画素44を含むモザイク状の領域が抽出される(図6参照)。   FIG. 6 is an explanatory diagram illustrating an example of a result of the labeling process. By the labeling process in step S21, a mosaic area including at least the hole inclusion pixels 44 is extracted (see FIG. 6).

ラベリングにより、穴部32の位置が推定される。換言すれば、ラベリングされた画素を囲う所定の領域の画素は表面画素41であると考えられる。   The position of the hole 32 is estimated by labeling. In other words, a pixel in a predetermined region surrounding the labeled pixel is considered to be the surface pixel 41.

次に、ステップS22において、画素種別推定部22は、ラベリングされた画素を囲う所定の領域の複数の画素の平均濃度Gsur_aveを求める。なお、ラベリングされた画素を囲う(表面画素41の抽出対象となる)所定の領域は、ラベリングされた画素の上下左右端画素を囲う領域であればよい。たとえば上下左右端画素を(x2,y1)、(x3,y4)、(x1,y2)、(x4,y3)とすると、(x1−1,y1−1)、(x4+1,y4+1)を対角とする矩形領域や、ラベリングされた画素を2画素膨張させたに等しい領域などを表面画素の抽出対象とする所定の領域とするとよい。   Next, in step S22, the pixel type estimation unit 22 obtains an average density Gsur_ave of a plurality of pixels in a predetermined area surrounding the labeled pixels. It should be noted that the predetermined area surrounding the labeled pixel (to be extracted from the surface pixel 41) may be an area surrounding the upper, lower, left and right end pixels of the labeled pixel. For example, assuming that the upper, lower, left and right end pixels are (x2, y1), (x3, y4), (x1, y2), (x4, y3), (x1-1, y1-1) and (x4 + 1, y4 + 1) are diagonal. It is preferable that the rectangular area and the area equal to the expanded two pixels of the labeled pixels are defined as the predetermined areas to be extracted from the surface pixels.

次に、ステップS23において、画素種別推定部22は、次の式(1)を用いて、所定の領域の画素の濃度Gを正規化して正規化濃度Tを算出する。

Figure 2015178961
Next, in step S <b> 23, the pixel type estimation unit 22 calculates the normalized density T by normalizing the density G of the pixels in the predetermined region using the following formula (1).
Figure 2015178961

正規化値Tは、穴所属画素42(穴輪郭画素43および穴内包画素44)の最大濃度値より大きい値とするとよい。また、正規化値Tは、式(1)を用いて各画素の濃度の正規化を行う場合は穴所属画素42の正規化濃度の最大値よりも大きい値とするとよい。以下の説明では、式(1)を用いて各画素の濃度の正規化を行う場合であって正規化値Tが100である場合の例について示す。 The normalized value T 0 may be a value larger than the maximum density value of the hole belonging pixel 42 (the hole outline pixel 43 and the hole inclusion pixel 44). Further, when normalizing the density of each pixel using the equation (1), the normalized value T 0 is preferably a value larger than the maximum normalized density of the hole-affiliated pixel 42. In the following description, an example in which the density of each pixel is normalized using Expression (1) and the normalized value T 0 is 100 will be described.

次に、ステップS24において、画素種別推定部22は、正規化濃度Tが所定の閾値thT以上の画素を表面画素41と推定する。なお、閾値thTは正規化値T以下の値とするとよい(たとえば正規化値Tが100である場合、thTを95とするなど)。また、画素種別推定部22は、表面画素41に囲われた画素を穴所属画素42と推定する。 Next, in step S <b> 24, the pixel type estimation unit 22 estimates a pixel having a normalized density T equal to or greater than a predetermined threshold thT as the surface pixel 41. Note that the threshold thT is preferably a value equal to or smaller than the normalized value T 0 (for example, when the normalized value T 0 is 100, thT is set to 95). Further, the pixel type estimation unit 22 estimates the pixel surrounded by the front surface pixel 41 as the hole belonging pixel 42.

以上の手順により、取得した画像の穴所属画素42を推定することができる。   Through the above procedure, the hole-affiliated pixel 42 of the acquired image can be estimated.

続いて、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置Cを求める際の手順を説明する。   Next, a procedure for obtaining the radius r and the center position C of the hole 32 based on the density distribution of the hole belonging pixel 42 will be described.

図7は、図4のステップS3で特徴量算出部23により実行される半径rおよび中心位置Cの算出処理の手順の一例を示すサブルーチンフローチャートである。この手順は、図5に示す手順のステップS24が実行されてスタートとなる。   FIG. 7 is a subroutine flowchart showing an example of the procedure of the radius r and center position C calculation process executed by the feature amount calculation unit 23 in step S3 of FIG. This procedure starts when step S24 of the procedure shown in FIG. 5 is executed.

図8は、表面画素41の濃度Gが正規化値Tで置換された様子の一例を示す説明図である。 Figure 8 is an explanatory diagram showing an example of a state in which the concentration G of the surface pixel 41 is substituted with a normalized value T 0.

ステップS31において、特徴量算出部23は、ステップS24で推定された表面画素41の濃度Gを正規化値Tで置換する(図8参照)。ステップS24では、正規化濃度Tが所定の閾値thT以上の画素が表面画素41と推定されている。このため、ステップS24とステップS31の処理は、次の式(2)のようにまとめることができる。

Figure 2015178961
In step S31, the feature amount calculation unit 23 replaces the density G of the surface pixel 41 estimated in step S24 a normalized value T 0 (see Figure 8). In step S24, a pixel having a normalized density T equal to or greater than a predetermined threshold thT is estimated as the surface pixel 41. For this reason, the process of step S24 and step S31 can be put together like the following formula | equation (2).
Figure 2015178961

図9は、穴所属画素42の正規化濃度Tの一例を示す説明図である。また、図10は表面画素41および穴所属画素42の反転正規化濃度Tinvの一例を示す説明図である。   FIG. 9 is an explanatory diagram showing an example of the normalized density T of the hole belonging pixel 42. FIG. 10 is an explanatory diagram showing an example of the inverted normalized density Tinv of the front surface pixel 41 and the hole belonging pixel 42.

表面画素41の濃度Gを正規化値Tで置換すると、特徴量算出部23は、穴所属画素42(穴輪郭画素43および穴内包画素44)の濃度Gを、これらの画素の最大濃度値より大きい正規化値から減じることにより反転させる。 When the density G of the front surface pixel 41 is replaced with the normalized value T 0 , the feature amount calculation unit 23 sets the density G of the hole belonging pixel 42 (the hole outline pixel 43 and the hole inclusion pixel 44) to the maximum density value of these pixels. Invert by subtracting from a larger normalized value.

具体的には、特徴量算出部23は、ステップS32において、式(1)を用いて穴所属画素42の正規化濃度Tを求める(図9参照)。次に、特徴量算出部23は、ステップS33において次式(3)を用いて正規化濃度Tを正規化値Tから減じ、反転した正規化濃度(反転正規化濃度)Tinvを求める(図10参照)。

Figure 2015178961
Specifically, the feature amount calculation unit 23 obtains the normalized density T of the hole-affiliated pixel 42 using Equation (1) in step S32 (see FIG. 9). Next, the feature amount calculation unit 23 subtracts the normalized density T from the normalized value T 0 using the following equation (3) in step S33 to obtain an inverted normalized density (inverted normalized density) Tinv (FIG. 10).
Figure 2015178961

次に、特徴量算出部23は、反転させた濃度の合計を正規化値で除すことにより穴部32の面積Aを求め、面積Aを用いて穴部32の半径rを求める。具体的には、特徴量算出部23は、次の式(4)に示すように、反転正規化濃度Tinvの合計を正規化値Tで除して穴部32の面積Aを求め(ステップS34)、次の式(5)を用いて面積Aから半径rを求める(ステップS35)。

Figure 2015178961
Figure 2015178961
Next, the feature amount calculating unit 23 obtains the area A of the hole 32 by dividing the sum of the inverted densities by the normalized value, and obtains the radius r of the hole 32 using the area A. Specifically, as shown in the following equation (4), the feature amount calculation unit 23 obtains the area A of the hole 32 by dividing the sum of the inverted normalized density Tinv by the normalized value T 0 (Step S4). S34) The radius r is obtained from the area A using the following equation (5) (step S35).
Figure 2015178961
Figure 2015178961

次に、ステップS36において、特徴量算出部23は、穴所属画素42の反転した濃度または反転正規化濃度Tinvを用いて次式(6)および(7)に示す重心演算により穴部32の中心位置C(xc,yc)を求める。

Figure 2015178961
Figure 2015178961
Next, in step S36, the feature amount calculating unit 23 uses the inverted density or inverted normalized density Tinv of the hole belonging pixel 42 to calculate the center of the hole 32 by the centroid calculation shown in the following equations (6) and (7). A position C (xc, yc) is obtained.
Figure 2015178961
Figure 2015178961

以上の手順により、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置Cを求めることができる。主制御部15は、この求めた半径rおよび中心位置Cの情報を示す文字情報などの画像を生成して、表面33の画像に重畳させて表示部11に表示させてもよい。   According to the above procedure, the radius r and the center position C of the hole 32 can be obtained based on the density distribution of the hole belonging pixel 42. The main control unit 15 may generate an image such as character information indicating information on the obtained radius r and center position C and superimpose it on the image of the surface 33 and display the image on the display unit 11.

続いて、穴輪郭画素43の濃度にもとづいて特徴量算出部23により求められた半径rおよび中心位置Cを補正する際の手順を説明する。   Next, a procedure for correcting the radius r and the center position C obtained by the feature amount calculation unit 23 based on the density of the hole outline pixel 43 will be described.

図11は、図4のステップS4で実行される半径rおよび中心位置Cの補正処理の手順の一例を示すサブルーチンフローチャートである。この手順は、図7に示す手順のステップS36が実行され、特徴量算出部23により半径rおよび中心位置C(xc,yc)が求められてスタートとなる。また、図12は、図10の一部拡大図を用いて補正部24による特徴量補正処理を説明するための図である。   FIG. 11 is a subroutine flowchart showing an example of a procedure for correcting the radius r and the center position C executed in step S4 of FIG. This procedure is started when step S36 of the procedure shown in FIG. 7 is executed and the radius r and the center position C (xc, yc) are obtained by the feature amount calculation unit 23. FIG. 12 is a diagram for explaining the feature amount correction processing by the correction unit 24 using the partially enlarged view of FIG.

ステップS41において、画素種別推定部22は、穴輪郭画素43を推定する。たとえば、画素種別推定部22は、正規化濃度Tが表面画素41抽出時に用いた閾値thT(たとえば95など)より小さく、かつ穴内包画素44に属する値(たとえば5など)より大きい範囲に属する画素を穴輪郭画素43として推定する。   In step S <b> 41, the pixel type estimation unit 22 estimates the hole outline pixel 43. For example, the pixel type estimation unit 22 is a pixel whose normalized density T is smaller than a threshold thT (for example, 95) used at the time of extracting the front surface pixel 41 and that is larger than a value (for example, 5) that belongs to the hole inclusion pixel 44. Is estimated as the hole outline pixel 43.

次に、ステップS42において、補正部24は、穴輪郭画素43のそれぞれについて、各画素の中心と特徴量算出部23により求められた中心位置Cとを結ぶ直線45を仮定する。   Next, in step S <b> 42, the correction unit 24 assumes a straight line 45 connecting the center of each pixel and the center position C obtained by the feature amount calculation unit 23 for each of the hole outline pixels 43.

次に、ステップS43において、補正部24は、この直線45と直交し画素を2分する画素分割線分46であって、中心位置C側の分割領域が自身の濃度に応じた面積を有する画素分割線分46の位置を求める。ここで、自身の濃度に応じた面積としては、たとえば反転正規化濃度Tinvを用いることができる。反転正規化濃度Tinvは、画素に含まれる穴部32の割合に応じた値となるためである(図12参照)。   Next, in step S43, the correction unit 24 is a pixel division line segment 46 that is orthogonal to the straight line 45 and divides the pixel into two, and the division region on the center position C side has an area corresponding to its own density. The position of the dividing line segment 46 is obtained. Here, as the area according to its own concentration, for example, the inverted normalized concentration Tinv can be used. This is because the inverted normalized density Tinv has a value corresponding to the ratio of the hole portions 32 included in the pixel (see FIG. 12).

次に、ステップS44において、補正部24は、画素分割線分46の位置にもとづいて穴部32の半径rおよび中心位置Cを補正する。具体的には、補正部24は、穴輪郭画素43のそれぞれについて、直線45の傾きθiと、中心位置Cから画素分割線分46までの距離Riと、を求め、これらの傾きθiおよび距離Riにもとづいて次式(8)により半径rを補正するとともに次式(9)―(11)を用いて中心位置Cを補正する。ただし、式(8)、(10)、(11)においてnは補正計算に用いる穴輪郭画素43の総数を表す。

Figure 2015178961
Figure 2015178961
Figure 2015178961
Figure 2015178961
Next, in step S <b> 44, the correction unit 24 corrects the radius r and the center position C of the hole 32 based on the position of the pixel dividing line segment 46. Specifically, the correction unit 24 obtains the inclination θi of the straight line 45 and the distance Ri from the center position C to the pixel dividing line segment 46 for each of the hole outline pixels 43, and the inclination θi and the distance Ri. Based on this, the radius r is corrected by the following equation (8) and the center position C is corrected by using the following equations (9)-(11). In equations (8), (10), and (11), n represents the total number of hole outline pixels 43 used for correction calculation.
Figure 2015178961
Figure 2015178961
Figure 2015178961
Figure 2015178961

以上の手順により、穴輪郭画素43の濃度にもとづいて特徴量算出部23により求められた半径rおよび中心位置Cを補正することができる。   With the above procedure, the radius r and the center position C obtained by the feature amount calculation unit 23 based on the density of the hole outline pixel 43 can be corrected.

本実施形態に係る画像処理装置10は、1次微分や2次微分を用いたエッジ検出を行うことなく、穴所属画素42の濃度分布にもとづいて円形状の輪郭31を有する穴部32の位置を画像から正確に検出することができる。また、画像処理装置10が補正部24を備える場合、穴輪郭画素43の濃度にもとづいて穴部32の半径rおよび中心位置Cを補正することにより、穴部32の位置をさらに正確に求めることができる。   The image processing apparatus 10 according to the present embodiment performs the position of the hole 32 having the circular contour 31 based on the density distribution of the hole-affiliated pixel 42 without performing edge detection using primary differentiation or secondary differentiation. Can be accurately detected from the image. Further, when the image processing apparatus 10 includes the correction unit 24, the position of the hole 32 is obtained more accurately by correcting the radius r and the center position C of the hole 32 based on the density of the hole outline pixel 43. Can do.

また、本実施形態に係る画像処理装置10は、1次微分や2次微分を用いたエッジ検出を行うことなく、各画素の濃度のみを用いて穴部32の半径rおよび中心位置Cを求めることができる。このため、画像処理装置10は、特に円形状の穴部32が占める画素数が少なく、穴輪郭画素43がモザイク状に並んでしまう場合にも好適である。   Further, the image processing apparatus 10 according to the present embodiment obtains the radius r and the center position C of the hole 32 using only the density of each pixel without performing edge detection using primary differentiation or secondary differentiation. be able to. For this reason, the image processing apparatus 10 is particularly suitable when the number of pixels occupied by the circular hole 32 is small and the hole outline pixels 43 are arranged in a mosaic pattern.

(第2の実施形態)
図13は、本発明の第2実施形態に係る画像処理装置10Aを含む立体形状計測装置50の一例を示す全体構成図である。
(Second Embodiment)
FIG. 13 is an overall configuration diagram illustrating an example of a three-dimensional shape measurement apparatus 50 including an image processing apparatus 10A according to the second embodiment of the present invention.

この第2実施形態に示す画像処理装置10Aは、表面33に垂直な高さh方向に離散的な位置ごとに物体30を撮像することにより得られた画像を立体形状計測装置50の共焦点光学系を有する撮像部60から取得し、これらの画像から各画素の表面位置を決定可能に構成された点で第1実施形態に示す画像処理装置10Aと異なる。他の構成および作用については図1に示す画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。また、以下の説明では、物体30の表面33に垂直な高さh方向を光軸方向に沿った方向とするとともに、光軸方向(物体30の表面33に垂直な高さh方向)をZ軸、光軸方向に垂直な方向をX軸およびY軸とする場合の例について示す。すなわち、以下の例において、光軸方向、物体30の高さh方向、およびZ方向は互いに平行である。   The image processing apparatus 10 </ b> A shown in the second embodiment uses the confocal optics of the three-dimensional shape measurement apparatus 50 for images obtained by imaging the object 30 at discrete positions in the height h direction perpendicular to the surface 33. This is different from the image processing apparatus 10 </ b> A shown in the first embodiment in that it is obtained from the imaging unit 60 having a system and is configured to be able to determine the surface position of each pixel from these images. Since other configurations and operations are not substantially different from those of the image processing apparatus 10 illustrated in FIG. 1, the same components are denoted by the same reference numerals and description thereof is omitted. In the following description, the height h direction perpendicular to the surface 33 of the object 30 is defined as the direction along the optical axis direction, and the optical axis direction (height h direction perpendicular to the surface 33 of the object 30) is defined as Z. An example in which the direction perpendicular to the optical axis direction is the X axis and the Y axis will be described. That is, in the following example, the optical axis direction, the height h direction of the object 30, and the Z direction are parallel to each other.

図13に示すように、立体形状計測装置50は画像処理装置10Aおよび撮像部60を有する。   As illustrated in FIG. 13, the three-dimensional shape measurement apparatus 50 includes an image processing apparatus 10 </ b> A and an imaging unit 60.

撮像部60は、光源61aを有する照明光学系61、主面が光軸方向に垂直となるよう配置された開口板62、対物レンズ63、焦点位置変更部64、物体30を載置するための載物台65、載物台65をXYZ各方向に移動させるための載物台駆動部66、載物台65および載物台駆動部66を支持する支持基台67、物体30からの反射光を入射される光検出部68、および画像処理装置10Aを有する。載物台駆動部66は、載物台Z変位部69および載物台XY変位部70を有する。   The imaging unit 60 is for placing an illumination optical system 61 having a light source 61a, an aperture plate 62, an objective lens 63, a focal position changing unit 64, and an object 30 arranged so that the main surface is perpendicular to the optical axis direction. The stage 65, the stage drive unit 66 for moving the stage 65 in each of the XYZ directions, the support stage 67 that supports the stage 65 and the stage drive unit 66, and the reflected light from the object 30 The light detection unit 68 and the image processing apparatus 10A. The mounting table driving unit 66 includes a mounting table Z displacement unit 69 and a mounting table XY displacement unit 70.

光源61aとしては、たとえばハロゲンランプやレーザなどを用いることができる。光源61aから出射された光は、照明レンズ71を介して面状の照明光束となる。この光は、偏光ビームスプリッタ72を介して開口板62を照明する。   For example, a halogen lamp or a laser can be used as the light source 61a. The light emitted from the light source 61 a becomes a planar illumination light beam via the illumination lens 71. This light illuminates the aperture plate 62 via the polarization beam splitter 72.

開口板62は、それぞれ共焦点開口部として機能する複数の開口部73を有する。開口板62には複数の開口部73が形成されていればよく、開口板62としては開口部73が2次元に配列されて開口アレイが形成されたものを用いてもよいし、いわゆるニポウディスクを用いてもよい。ニポウディスクを用いる場合、ニポウディスクは図示しない駆動機構により回転駆動される。   The aperture plate 62 has a plurality of apertures 73 each functioning as a confocal aperture. The aperture plate 62 may be formed with a plurality of apertures 73. The aperture plate 62 may be one in which the apertures 73 are two-dimensionally arranged to form an aperture array. It may be used. When using a Nipkow disc, the Nipkow disc is rotationally driven by a drive mechanism (not shown).

各開口部73を通過した光は、焦点位置変更部64を介して対物レンズ63を照射し、対物レンズ63によって物体30に投光されつつ開口部73と共役なスポット(以下、物体側集光点という)に集光される。各物体側集光点は、Z方向(物体30の表面33に垂直な高さh方向、光軸方向)の所定の位置の光軸方向に垂直な面(以下、物体側集光面という)上に位置する。なお、対物レンズ63は、たとえば複数のレンズおよび絞りにより構成されて両側テレセントリック光学系を構成されてもよい。   The light that has passed through each opening 73 irradiates the objective lens 63 via the focal position changing unit 64, and is projected onto the object 30 by the objective lens 63 and is a spot conjugate with the opening 73 (hereinafter, object-side condensing). Focused on a point). Each object-side condensing point is a surface perpendicular to the optical axis direction at a predetermined position in the Z direction (height h direction perpendicular to the surface 33 of the object 30 and the optical axis direction) (hereinafter referred to as object-side condensing surface). Located on the top. Note that the objective lens 63 may be configured by, for example, a plurality of lenses and a diaphragm to form a double-sided telecentric optical system.

載物台Z変位部69は、ステッピングモータやサーボモータ、あるいはピエゾモータなどの一般的な駆動装置により構成され、Z方向に載物台65を変位させる。この変位の量、方向およびタイミングは、画像処理装置10AによりZ軸ドライバ74を介して制御される。載物台Z変位部69は、たとえば測定開始前に載物台65をZ方向に大まかに変位させる。   The mounting table Z displacement unit 69 is configured by a general driving device such as a stepping motor, a servo motor, or a piezo motor, and displaces the mounting table 65 in the Z direction. The amount, direction, and timing of this displacement are controlled via the Z-axis driver 74 by the image processing apparatus 10A. The stage table Z displacement unit 69 roughly displaces the stage table 65 in the Z direction before the start of measurement, for example.

図14は、焦点位置変更部64の一構成例を示す斜視図である。   FIG. 14 is a perspective view illustrating a configuration example of the focal position changing unit 64.

対物レンズ63の光路中に透明体により構成された平行平板形の光路変更片75を配置すると、対物レンズ63の物体側集光面の位置がZ方向に移動する。この焦点移動幅は、光路変更片75の屈折率および厚さによって制御することができる。   When a parallel plate-shaped optical path changing piece 75 made of a transparent body is arranged in the optical path of the objective lens 63, the position of the object-side condensing surface of the objective lens 63 moves in the Z direction. This focal movement width can be controlled by the refractive index and thickness of the optical path changing piece 75.

このため、図14に示すように、回転板76に対して回転方向に沿って等間隔に互いに焦点移動幅が異なる光路変更片75を配設する。この回転板76をモータなどの駆動部77により所定の速度で連続回転させることにより、光路変更片75のそれぞれが対物レンズ63の光軸と交わるごとに離散的に(ステップ的に)対物レンズ63の物体側集光面の位置をZ方向に移動させることができる。なお、回転板76に配設された光路変更片75の一部は、他の光路変更片75と同一の屈折率および厚さを有し同一の焦点移動幅を有するものであってもよい。   For this reason, as shown in FIG. 14, optical path changing pieces 75 having different focal movement widths are arranged at equal intervals along the rotation direction with respect to the rotating plate 76. By rotating the rotating plate 76 continuously at a predetermined speed by a driving unit 77 such as a motor, the objective lens 63 is discretely (stepwise) each time the optical path changing piece 75 crosses the optical axis of the objective lens 63. The position of the object side condensing surface can be moved in the Z direction. A part of the optical path changing piece 75 disposed on the rotating plate 76 may have the same refractive index and thickness as the other optical path changing pieces 75 and the same focal point movement width.

回転板76の回転状態はタイミングセンサ78により検知される。タイミングセンサ78の出力は画像処理装置10Aに与えられる。画像処理装置10Aは、あらかじめ各光路変更片75と物体側集光点のZ軸座標とを関連付けた情報を保持している。画像処理装置10Aがタイミングセンサ78の出力にもとづいて各光路変更片75と光軸とが交わるタイミングで光検出部68を露光させることを繰り返すことにより、表面33に垂直な高さh方向に離散的な位置のそれぞれで、容易かつ高速に物体30を撮像することができる。   The rotation state of the rotating plate 76 is detected by the timing sensor 78. The output of the timing sensor 78 is given to the image processing apparatus 10A. The image processing apparatus 10A holds information that associates each optical path changing piece 75 with the Z-axis coordinate of the object-side condensing point in advance. The image processing apparatus 10 </ b> A repeats exposing the light detection unit 68 at the timing at which each optical path changing piece 75 and the optical axis intersect based on the output of the timing sensor 78, so that the image processing apparatus 10 </ b> A is discrete in the height h direction perpendicular to the surface 33 The object 30 can be imaged easily and at high speed at each appropriate position.

駆動部77は、画像処理装置10Aにより制御可能に構成されてもよい。この場合、画像処理装置10Aは回転板76の回転速度を制御することができる。   The drive unit 77 may be configured to be controllable by the image processing apparatus 10A. In this case, the image processing apparatus 10 </ b> A can control the rotation speed of the rotating plate 76.

なお、図14には光路変更片75の形状が円形である場合の例について示したが、これらの形状は楕円形、多角形等であってもよい。   In addition, although the example in case the shape of the optical path change piece 75 is circular was shown in FIG. 14, these shapes may be an ellipse, a polygon, etc.

物体30による反射光のうち特に物体側集光点における反射光は、対物レンズ63により、物体側集光点と光学的共役関係にある点(以下、像側集光点という)に集光される。点光源としての開口部73と物体側集光点とは、1対1に対応する。本実施形態では、像側集光点が点光源としての開口部73に一致する場合の例について説明する。この場合、開口部73を通過した光は物体側集光点に集光されるとともに、この物体側集光点で反射されて開口部73に再度入射することになる。   Of the reflected light from the object 30, the reflected light at the object-side condensing point, in particular, is condensed by the objective lens 63 onto a point that is optically conjugate with the object-side condensing point (hereinafter referred to as image-side condensing point). The The opening 73 serving as a point light source and the object-side condensing point correspond one-to-one. In this embodiment, an example in which the image-side condensing point coincides with the opening 73 serving as a point light source will be described. In this case, the light that has passed through the opening 73 is condensed at the object-side condensing point, reflected by the object-side condensing point, and incident on the opening 73 again.

開口部73に再度入射した光は、偏光ビームスプリッタ72により偏向されて結像光学系79に入射し、光検出部68を構成する撮像素子に入射する。ここで、結像光学系79は、開口部73の像を撮像素子の光電変換面に結ぶように構成される。開口部73(像側集光点)とこの開口部73に対応する位置に配設された撮像素子とは、偏光ビームスプリッタ72および結像光学系79により互いに共役関係となる。   The light that has entered the opening 73 again is deflected by the polarization beam splitter 72, enters the imaging optical system 79, and enters the image sensor that constitutes the light detection unit 68. Here, the imaging optical system 79 is configured to connect the image of the opening 73 to the photoelectric conversion surface of the imaging element. The aperture 73 (image-side condensing point) and the image sensor disposed at the position corresponding to the aperture 73 are conjugated with each other by the polarization beam splitter 72 and the imaging optical system 79.

光検出部68は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成されて、照射された光の強度に応じた信号を画像処理装置10Aに出力する。また、光検出部68は、画像処理装置10Aにより光検出のタイミングを制御される。   The light detection unit 68 is configured by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and outputs a signal corresponding to the intensity of irradiated light to the image processing apparatus 10A. In addition, the light detection unit 68 is controlled by the image processing apparatus 10A for light detection timing.

画像処理装置10Aは、この光検出部68から受けた信号にもとづいて、表面33に垂直な高さh方向に離散的な位置のそれぞれで物体30を撮像した画像を取得する。なお、画像処理装置10Aは、露光ごとに光検出部68の出力信号を得ることができれば、この出力信号にもとづいて物体30の立体形状計測を行うことが可能である。   Based on the signal received from the light detection unit 68, the image processing apparatus 10 </ b> A acquires images obtained by capturing the object 30 at discrete positions in the height h direction perpendicular to the surface 33. If the image processing apparatus 10A can obtain the output signal of the light detection unit 68 for each exposure, the image processing apparatus 10A can measure the three-dimensional shape of the object 30 based on the output signal.

載物台駆動部66の載物台XY変位部70は、載物台65をZ方向に垂直な方向に変位させる。たとえば、載物台XY変位部70は、測定の合間に測定対象領域をXY面内で移動させるために用いられる。   The mounting table XY displacement unit 70 of the mounting table driving unit 66 displaces the mounting table 65 in a direction perpendicular to the Z direction. For example, the stage XY displacement unit 70 is used to move the measurement target region in the XY plane between measurements.

この載物台XY変位部70は、載物台65のX軸方向およびY軸方向の位置決めを行うX軸変位機構80およびY軸変位機構81を有する。X軸変位機構80およびY軸変位機構81は、たとえばサーボモータにより構成され、変位の量、方向およびタイミングは、画像処理装置10AによりXY軸ドライバ82を介して制御される。   The mounting table XY displacement unit 70 includes an X-axis displacement mechanism 80 and a Y-axis displacement mechanism 81 that position the mounting table 65 in the X-axis direction and the Y-axis direction. The X-axis displacement mechanism 80 and the Y-axis displacement mechanism 81 are configured by, for example, servo motors, and the amount, direction, and timing of displacement are controlled by the image processing apparatus 10A via the XY-axis driver 82.

図15は、本発明の第2実施形態に係る画像処理装置10Aの一構成例を示すブロック図である。   FIG. 15 is a block diagram showing a configuration example of an image processing apparatus 10A according to the second embodiment of the present invention.

画像処理装置10Aの主制御部15Aは、画像処理プログラムによって、画像取得部21A、画素種別推定部22A、特徴量算出部23、補正部24、撮像制御部25および表面特定部26として機能する。   The main control unit 15A of the image processing apparatus 10A functions as an image acquisition unit 21A, a pixel type estimation unit 22A, a feature amount calculation unit 23, a correction unit 24, an imaging control unit 25, and a surface specifying unit 26 according to an image processing program.

撮像制御部25は、焦点位置変更部64、光検出部68、Z軸ドライバ74およびXY軸ドライバ82を制御し、表面33に垂直な高さh方向に離散的な位置のそれぞれで撮像部60に物体30の撮像を行わせる。   The imaging control unit 25 controls the focal position changing unit 64, the light detection unit 68, the Z-axis driver 74, and the XY-axis driver 82, and the imaging unit 60 at each of discrete positions in the height h direction perpendicular to the surface 33. To image the object 30.

図16は、表面33に垂直な高さh方向に離散的な位置h1、h2、・・・、hpのそれぞれで得られる物体30の画像について説明するための図である。   FIG. 16 is a diagram for describing images of the object 30 obtained at discrete positions h1, h2,..., Hp in the height h direction perpendicular to the surface 33.

画像取得部21Aは、表面33に垂直な高さh方向に離散的な位置ごとに物体30を撮像することにより得られた複数の画像を取得する(図16参照)。   The image acquisition unit 21A acquires a plurality of images obtained by imaging the object 30 at discrete positions in the height h direction perpendicular to the surface 33 (see FIG. 16).

表面特定部26は、複数の画像にもとづいて各画素の高さh方向の濃度分布を取得し、取得した濃度分布にもとづいて、表面位置および各画素の表面位置における濃度を特定する。   The surface specifying unit 26 acquires the density distribution in the height h direction of each pixel based on a plurality of images, and specifies the surface position and the density at the surface position of each pixel based on the acquired density distribution.

複数の画像のそれぞれは互いに異なる高さh1、h2、・・・、hpと関連付けられている。また、複数の画像のxy平面における撮像領域は同一であるものとする。この場合、画素(xm、yn)は複数の画像のそれぞれに含まれることになる。このため、複数の画像のそれぞれから画素(xm、yn)の濃度Gを抽出することにより、画素(xm,yn)の高さh方向の濃度分布(G(xm,yn,h1)、G(xm,yn,h2)、・・・、G(xm,yn,hp))を得ることができる。これらの濃度G(xm,yn,h1)、G(xm,yn,h2)、・・・、G(xm,yn,hp)は、画像から測定される濃度であり、以下適宜測定濃度という。   Each of the plurality of images is associated with different heights h1, h2,. In addition, it is assumed that the imaging areas in the xy plane of the plurality of images are the same. In this case, the pixel (xm, yn) is included in each of the plurality of images. Therefore, by extracting the density G of the pixel (xm, yn) from each of the plurality of images, the density distribution (G (xm, yn, h1), G () in the height h direction of the pixel (xm, yn) is extracted. xm, yn, h2),..., G (xm, yn, hp)). These densities G (xm, yn, h1), G (xm, yn, h2),..., G (xm, yn, hp) are densities measured from the image, and are hereinafter referred to as measured densities as appropriate.

いま、この各画素の測定濃度のうち、最も高い測定濃度を与える位置をhsとする。各画素の最高濃度は、表面位置で得られると推定される。このため、各画素の表面位置は、この高さhsの位置の近傍にあると推定することができる。   Now, let hs be the position that gives the highest measured density among the measured densities of each pixel. It is estimated that the highest density of each pixel is obtained at the surface position. For this reason, it can be estimated that the surface position of each pixel is in the vicinity of the position of the height hs.

そこで、表面特定部26は、各画素の測定濃度の分布にもとづいて各画素の最高濃度を与える位置を推定し、この推定最高濃度を与える位置μを表面位置とするとよい。なお、撮像される高さh方向の位置間隔(サンプリング間隔)が十分に小さい場合は、表面特定部26は、高さhsそのものを表面位置と推定してもよい。   Therefore, the surface specifying unit 26 may estimate the position that gives the highest density of each pixel based on the distribution of the measured density of each pixel, and set the position μ that gives this estimated highest density as the surface position. When the position interval (sampling interval) in the height h direction to be imaged is sufficiently small, the surface specifying unit 26 may estimate the height hs itself as the surface position.

画素種別推定部22Aは、表面特定部26により特定された各画素の表面位置における濃度を用いて、表面画素41および穴所属画素42を推定する。   The pixel type estimation unit 22A estimates the surface pixel 41 and the hole assigned pixel 42 using the density at the surface position of each pixel specified by the surface specifying unit 26.

次に、本実施形態に係る画像処理装置10Aを含む立体形状計測装置50の動作の一例について説明する。   Next, an example of the operation of the three-dimensional shape measurement apparatus 50 including the image processing apparatus 10A according to the present embodiment will be described.

図17は、図15に示す主制御部15AのCPUにより、各画素の表面位置における濃度を求める際の手順の一例を示すフローチャートである。図17において、Sに数字を付した符号は、フローチャートの各ステップを示す。この手順は、図4のステップS1にかえて実行される。   FIG. 17 is a flowchart showing an example of a procedure for obtaining the density at the surface position of each pixel by the CPU of the main control unit 15A shown in FIG. In FIG. 17, reference numerals with numbers added to S indicate steps in the flowchart. This procedure is executed in place of step S1 in FIG.

まず、ステップS51において、撮像制御部25は、表面33に垂直な高さh方向に離散的な位置h1、h2、・・・、hpのそれぞれで、撮像部60に物体30の撮像を行わせる。そして、画像取得部21Aは、各位置の画像を取得する。   First, in step S51, the imaging control unit 25 causes the imaging unit 60 to image the object 30 at discrete positions h1, h2,..., Hp in the height h direction perpendicular to the surface 33. . Then, the image acquisition unit 21A acquires an image at each position.

次に、ステップS52において、表面特定部26は、各画素の測定最高濃度G(hs)を抽出する。   Next, in step S52, the surface specifying unit 26 extracts the measured maximum density G (hs) of each pixel.

次に、ステップS53において、表面特定部26は、測定最高濃度G(hs)が閾値以上の各画素について、推定最高濃度を与える高さμを求める。   Next, in step S <b> 53, the surface specifying unit 26 obtains a height μ that gives the estimated maximum density for each pixel whose measured maximum density G (hs) is equal to or greater than a threshold.

ここで、推定最高濃度を与える高さμの算出方法について詳細に説明する。   Here, a method of calculating the height μ that gives the estimated maximum density will be described in detail.

図18は、各画素の高さh方向の濃度分布の一例を示す説明図である。推定最高濃度を与える高さμを求めるにあたり、まず、各画素の高さh方向の濃度分布のうち、最高濃度の近傍の分布が次の式(12)で示すガウス分布で近似されるものと考える(図18参照)。

Figure 2015178961
FIG. 18 is an explanatory diagram illustrating an example of a density distribution in the height h direction of each pixel. In obtaining the height μ that gives the estimated maximum density, first, among the density distribution in the height h direction of each pixel, the distribution in the vicinity of the maximum density is approximated by a Gaussian distribution represented by the following equation (12). Consider (see FIG. 18).
Figure 2015178961

ただし、μは頂点位置、σは分散を表すものとする。また、以下の説明では、濃度Gの分布をgで表すものとする。 However, μ represents the vertex position and σ 2 represents the variance. In the following description, the distribution of the density G is represented by g.

頂点μを求める方法としては、たとえば式(12)の1階微分に対してゼロクロッシングを行う方法が挙げられる。しかし、この方法は1階微分した結果が線形である場合にのみ適用することができる一方、式(12)の1階微分した結果は必ずしも線形とはならない。
いま、式(12)の対数を考える。

Figure 2015178961
このとき、式(13)の1階微分は、次のように書ける。
Figure 2015178961
As a method for obtaining the vertex μ, for example, a method of performing zero crossing on the first derivative of the equation (12) can be cited. However, this method can be applied only when the result of the first-order differentiation is linear, whereas the result of the first-order differentiation of Equation (12) is not necessarily linear.
Now consider the logarithm of equation (12).
Figure 2015178961
At this time, the first derivative of equation (13) can be written as follows.
Figure 2015178961

この式(14)から明らかなように、式(13)(式(12)の対数)の1階微分は1次式となる。このため、式(13)に対しては、ゼロクロッシングを適用することが可能であることがわかる。ここで、R(xm,yn,h)=ln[g(xm,yn,h)]と置き換えると、R(式(13))の1階微分は次のように表せる。

Figure 2015178961
As is apparent from the equation (14), the first derivative of the equation (13) (logarithm of the equation (12)) is a linear equation. For this reason, it turns out that a zero crossing is applicable with respect to Formula (13). Here, when it is replaced with R (xm, yn, h) = ln [g (xm, yn, h)], the first derivative of R (Equation (13)) can be expressed as follows.
Figure 2015178961

図19(a)は、RおよびRの1階微分R’のゼロクロッシングについて説明するための図であり、(b)は(a)を一部拡大してR’のゼロクロッシングについてより詳細に説明するための図である。   FIG. 19A is a diagram for explaining zero crossing of the first derivative R ′ of R and R, and FIG. 19B is a partially enlarged view of FIG. It is a figure for demonstrating.

R’のゼロクロッシングにより、μはRの頂点の位置として、測定最高濃度G(hs)を与える高さhsおよびその前後の測定位置hs−1、hs+1を用いて次の式(16)のように表すことができる(図19(a)および(b)参照)。

Figure 2015178961
Due to the zero crossing of R ′, μ uses, as the position of the apex of R, the height hs that gives the highest measured density G (hs) and the measurement positions hs−1 and hs + 1 before and after that, as shown in the following equation (16): (See FIGS. 19A and 19B).
Figure 2015178961

また、撮像位置h1、h2、・・・、hpの間隔(高さピッチ)が一定値Δhであるとき、式(16)は次のように変形される。

Figure 2015178961
Further, when the interval (height pitch) between the imaging positions h1, h2,..., Hp is a constant value Δh, Expression (16) is modified as follows.
Figure 2015178961

ここで、R(xm,yn,h)=ln[g(xm,yn,h)]であることから、次式(18)が成り立つ。

Figure 2015178961
Here, since R (xm, yn, h) = ln [g (xm, yn, h)], the following equation (18) holds.
Figure 2015178961

式(17)に式(18)を代入すると、μは次式(19)で与えられる。

Figure 2015178961
When Expression (18) is substituted into Expression (17), μ is given by the following Expression (19).
Figure 2015178961

図20は、各画素のそれぞれで推定最高濃度を与える高さμを算出することで得られる表面33の高さ分布の一例を示す説明図である。   FIG. 20 is an explanatory diagram showing an example of the height distribution of the surface 33 obtained by calculating the height μ that gives the estimated maximum density in each pixel.

このように、表面特定部26は、各画素(xm,yn)のそれぞれについて、推定最高濃度を与える高さμ(xm,yn)を求めることができ、表面33の高さ分布を得ることができる(図20のハッチング部参照)。   As described above, the surface specifying unit 26 can obtain the height μ (xm, yn) that gives the estimated maximum density for each pixel (xm, yn), and can obtain the height distribution of the surface 33. (See the hatched portion in FIG. 20).

次に、ステップS54において、表面特定部26は、μにもとづいて表面位置Zを求める。   Next, in step S54, the surface specifying unit 26 obtains the surface position Z based on μ.

具体的には、表面特定部26は、表面33の高さ分布を用いて、たとえば次式(20)に示す最小2乗法などの方法で1次近似することにより、表面33の位置Z(xm,yn)を決定する。

Figure 2015178961
Specifically, the surface specifying unit 26 uses the height distribution of the surface 33 to perform a first-order approximation by a method such as a least square method represented by the following equation (20), thereby obtaining the position Z (xm , Yn).
Figure 2015178961

ただし、Z(x,y)は(x,y)における表面33の高さh方向の位置を表し、α、β、γは1次近似で求められた係数を表すものとする。   However, Z (x, y) represents the position of the surface 33 in the height h direction at (x, y), and α, β, and γ represent coefficients obtained by the first-order approximation.

次に、ステップS55において、表面特定部26は、各画素(xm,yn)のそれぞれについて、推定した表面位置Zにおける濃度G(xm,yn,Z)を求める。   Next, in step S55, the surface specifying unit 26 obtains the density G (xm, yn, Z) at the estimated surface position Z for each pixel (xm, yn).

具体的には、表面特定部26は、1次近似した平面上の各点の濃度Gを式(12)を用いて推定する。いま、式(12)のμは式(17)または式(19)により求まっている。このため、σを求めることができれば、式(12)を用いて任意の高さhでの濃度Gを求めることができる。   Specifically, the surface specifying unit 26 estimates the density G of each point on the first-order approximated plane using Expression (12). Now, μ in the equation (12) is obtained by the equation (17) or the equation (19). For this reason, if σ can be obtained, the density G at an arbitrary height h can be obtained using the equation (12).

μを挟む2点hsおよびhs+1の濃度分布上の値g(hs)およびg(hs+1)の対数どうしを引くことで、次式(21)が得られる(式(13)参照)。

Figure 2015178961
By subtracting the logarithm of the values g (hs) and g (hs + 1) on the concentration distribution of the two points hs and hs + 1 across μ, the following equation (21) is obtained (see equation (13)).
Figure 2015178961

この式(21)を変形することで、σは次の式(22)ように表すことができる事がわかる。

Figure 2015178961
It can be seen that σ can be expressed as the following equation (22) by modifying this equation (21).
Figure 2015178961

測定濃度Gとgの規格化値は既知であるから、式(12)に示す濃度分布gのμおよびσを得ることができれば、各画素の任意の高さhにおける濃度Gを推定することができる。当然ながら、各画素の推定表面位置(式(20)参照)における濃度Gを推定することもできる。   Since the normalized values of the measured densities G and g are known, if the μ and σ of the density distribution g shown in Expression (12) can be obtained, the density G at an arbitrary height h of each pixel can be estimated. it can. Of course, it is also possible to estimate the density G at the estimated surface position of each pixel (see equation (20)).

このように、ステップS52−55において、表面特定部26は、複数の画像にもとづいて各画素の高さh方向の濃度分布を取得し、取得した濃度分布にもとづいて、表面位置および各画素の表面位置における濃度を特定する。   In this way, in step S52-55, the surface specifying unit 26 acquires the density distribution in the height h direction of each pixel based on the plurality of images, and based on the acquired density distribution, the surface position and each pixel. Specify the concentration at the surface location.

表面位置および表面位置における濃度を推定した後は、第1実施形態に係る画像処理装置10と同様に図4のステップS2以降の処理を実行する。なお、本実施形態に係る画像処理装置10Aは、図4のステップS2の処理の一例を示す図5のステップS21(ラベリング処理)において、ステップS52で濃度が閾値より小さく表面位置Zの計算対象とならなかった画素に着目するとよい。   After the surface position and the density at the surface position are estimated, the processing after step S2 in FIG. 4 is executed in the same manner as the image processing apparatus 10 according to the first embodiment. Note that the image processing apparatus 10A according to the present embodiment determines that the density of the surface position Z is smaller than the threshold in step S52 in step S21 (labeling process) in FIG. 5 illustrating an example of the process in step S2 in FIG. It is better to focus on the pixels that did not become.

なお、式(22)のσの計算に時間が掛かるなど、式(12)を用いて任意の高さhにおける濃度Gを推定する処理に時間がかかる場合は、測定最高濃度G(hs)を与える測定位置hsそのものを表面位置と推定してもよい。この場合、図5のステップS24で用いられる閾値thTは、撮像位置h1、h2、・・・、hpの間隔(高さピッチ)が広い場合は閾値を下げるなど、高さピッチに応じて決めてもよい。   In addition, when it takes time to estimate the concentration G at an arbitrary height h using the equation (12), such as it takes time to calculate σ in the equation (22), the measured maximum concentration G (hs) is set to The given measurement position hs itself may be estimated as the surface position. In this case, the threshold thT used in step S24 of FIG. 5 is determined according to the height pitch, such as lowering the threshold when the intervals (height pitch) of the imaging positions h1, h2,. Also good.

本実施形態に係る画像処理装置10Aもまた、第1実施形態に係る画像処理装置10と同様の効果を奏する。また、本実施形態に係る画像処理装置10Aは、共焦点光学系を有する撮像部60により撮像された複数の高さh方向位置の画像から表面位置を求めることにより、物体30の表面33に設けられた穴部32の位置を正確に求めることができる。   The image processing apparatus 10A according to the present embodiment also has the same effects as the image processing apparatus 10 according to the first embodiment. In addition, the image processing apparatus 10A according to the present embodiment is provided on the surface 33 of the object 30 by obtaining the surface position from a plurality of height-direction images captured by the imaging unit 60 having a confocal optical system. The position of the formed hole 32 can be obtained accurately.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10、10A 画像処理装置
21、21A 画像取得部
22、22A 画素種別推定部
23 特徴量算出部
24 補正部
26 表面特定部
30 物体
31 輪郭
32 穴部
33 表面
41 表面画素
42 穴所属画素
43 穴輪郭画素
44 穴内包画素
46 画素分割線分
50 立体形状計測装置
60 撮像部
A 面積
r 半径
C 中心位置
G 測定濃度
Gsur_ave 平均濃度
g 濃度分布
T 正規化濃度
thT 閾値
正規化値
Tinv 反転正規化濃度
10, 10A Image processing device 21, 21A Image acquisition unit 22, 22A Pixel type estimation unit 23 Feature amount calculation unit 24 Correction unit 26 Surface identification unit 30 Object 31 Outline 32 Hole 33 Surface 41 Surface pixel 42 Hole belonging pixel 43 Hole outline Pixel 44 Hole inclusion pixel 46 Pixel division line segment 50 Three-dimensional shape measurement device 60 Imaging unit A Area r Radius C Center position G Measurement density Gsur_ave Average density g Density distribution T Normalized density thT Threshold T 0 Normalized value Tinv Inverted normalized density

Claims (10)

円形状の輪郭を有する穴部が設けられた表面の画像を取得する画像取得部と、
取得した画像の各画素の濃度が、前記表面に属する画素の濃度範囲ならびに前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度範囲の2種の濃度範囲のいずれに属するかに応じて、前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素を推定する画素種別推定部と、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度分布にもとづいて前記穴部の半径および中心位置を求める特徴量算出部と、
を備えた画像処理装置。
An image acquisition unit for acquiring an image of a surface provided with a hole having a circular outline;
The density of each pixel of the acquired image is one of the two density ranges: the density range of the pixel belonging to the surface, the pixel included in the outline of the hole, and the density range of the pixel to which the outline of the hole belongs. A pixel type estimation unit that estimates a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs, according to whether it belongs,
A feature amount calculating unit for obtaining a radius and a center position of the hole based on a density distribution of a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs;
An image processing apparatus.
前記特徴量算出部は、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度を、これらの画素の最大濃度値より大きい正規化値から減じることにより反転させ、前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する各画素の反転させた濃度の合計を前記正規化値で除すことにより前記穴部の面積を求め、求めた面積を用いて前記穴部の半径を求める、
請求項1記載の画像処理装置。
The feature amount calculation unit includes:
The density of the pixel included in the outline of the hole and the density of the pixel to which the outline of the hole belongs are reversed by subtracting from a normalized value larger than the maximum density value of these pixels, and included in the outline of the hole. The area of the hole is obtained by dividing the sum of the inverted densities of the pixel to which the pixel belongs and the outline of the hole by the normalized value, and the radius of the hole is obtained using the obtained area. ,
The image processing apparatus according to claim 1.
前記特徴量算出部は、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する各画素の前記反転させた濃度を用いて重心演算により前記穴部の中心位置を求める、
請求項2記載の画像処理装置。
The feature amount calculation unit includes:
The center position of the hole is obtained by a centroid calculation using the inverted density of each pixel included in the outline of the hole and the pixel to which the outline of the hole belongs.
The image processing apparatus according to claim 2.
前記画素種別推定部は、
取得した画像に対してラベリング処理することにより前記穴部の輪郭に内包される画素を含む領域を推定し、推定した領域を囲う所定の領域の複数の画素の平均濃度を求め、前記所定の領域の複数の画素のうち、画素の濃度を前記平均濃度で除し前記正規化値を乗じることにより求められる正規化濃度が所定の閾値以上である画素を前記表面に属する画素と推定し、
前記正規化値は前記所定の閾値より大きい、
請求項3記載の画像処理装置。
The pixel type estimation unit
A region including pixels included in the outline of the hole is estimated by performing a labeling process on the acquired image, an average density of a plurality of pixels in a predetermined region surrounding the estimated region is obtained, and the predetermined region Among the plurality of pixels, a pixel having a normalized density obtained by dividing the pixel density by the average density and multiplying by the normalized value is estimated as a pixel belonging to the surface,
The normalized value is greater than the predetermined threshold;
The image processing apparatus according to claim 3.
前記特徴量算出部は、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素について前記正規化濃度を求め、前記正規化値から減じることにより、前記反転させた濃度を得る、
請求項4記載の画像処理装置。
The feature amount calculation unit includes:
Obtaining the normalized density for the pixel contained in the outline of the hole and the pixel to which the outline of the hole belongs, and subtracting from the normalized value to obtain the inverted density;
The image processing apparatus according to claim 4.
前記画素種別推定部は、
推定した前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の各画素の濃度が、前記穴部の輪郭に内包される画素の濃度範囲および前記穴部の輪郭が属する画素の濃度範囲のいずれに属するかに応じて、前記穴部の輪郭に内包される画素をさらに推定し、
前記穴部の輪郭が属する画素のそれぞれについて、各画素の中心と前記特徴量算出部により求められた前記穴部の中心位置とを結ぶ直線を仮定し、この直線と直交し画素を2分する画素分割線分であって前記穴部の中心位置側の分割領域が自身の濃度に応じた面積を有する画素分割線分の位置を求め、前記画素分割線分の位置にもとづいて前記穴部の半径および中心位置を補正する補正部、
をさらに備えた請求項1ないし5のいずれか1項に記載の画像処理装置。
The pixel type estimation unit
The density of each pixel of the pixel included in the estimated outline of the hole and the pixel to which the outline of the hole belongs belongs to the density range of the pixel included in the outline of the hole and the pixel to which the outline of the hole belongs. According to which of the density ranges, further estimate the pixels included in the contour of the hole,
For each pixel to which the outline of the hole belongs, a straight line connecting the center of each pixel and the center position of the hole obtained by the feature amount calculation unit is assumed, and the pixel is orthogonal to the straight line and divided into two. A pixel dividing line segment, which is a pixel dividing line segment whose area on the center position side of the hole portion has an area corresponding to its own density, is determined based on the position of the pixel dividing line segment. A correction unit for correcting the radius and the center position,
The image processing apparatus according to claim 1, further comprising:
前記画像取得部は、
前記表面に垂直な高さ方向に離散的な位置ごとに前記表面を含む物体を撮像することにより得られた前記物体の複数の画像を取得し、
前記複数の画像にもとづいて各画素の前記高さ方向の濃度分布を取得し、取得した濃度分布にもとづいて表面位置および各画素の前記表面位置における濃度を特定する表面特定部、
をさらに備え、
前記画素種別推定部は、
前記表面特定部により特定された各画素の前記表面位置における濃度に応じて前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素を推定する、
請求項1ないし6のいずれか1項に記載の画像処理装置。
The image acquisition unit
Obtaining a plurality of images of the object obtained by imaging the object including the surface for each discrete position in a height direction perpendicular to the surface;
A surface specifying unit that acquires the density distribution in the height direction of each pixel based on the plurality of images, and specifies the surface position and the density at the surface position of each pixel based on the acquired density distribution;
Further comprising
The pixel type estimation unit
Estimating a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs according to the density of each pixel specified by the surface specifying unit at the surface position;
The image processing apparatus according to claim 1.
前記表面特定部は、
前記高さ方向に離散的な位置ごとの画像における各画素の離散的な濃度分布をガウス分布で近似することにより、前記表面位置および各画素の前記表面位置における濃度を特定する、
請求項7記載の画像処理装置。
The surface specifying portion is
The surface position and the density of each pixel at the surface position are specified by approximating the discrete density distribution of each pixel in the image at each discrete position in the height direction with a Gaussian distribution.
The image processing apparatus according to claim 7.
請求項7または8に記載の画像処理装置と、
共焦点光学系を有し、前記物体を前記高さ方向に離散的な位置ごとに撮像することにより、前記物体の複数の画像を生成する撮像部と、
を備えた立体形状計測装置。
An image processing device according to claim 7 or 8,
An imaging unit that has a confocal optical system, and generates a plurality of images of the object by imaging the object at discrete positions in the height direction;
A three-dimensional shape measuring apparatus.
円形状の輪郭を有する穴部が設けられた表面の画像を取得するステップと、
前記画像の各画素の濃度が、前記表面に属する画素の濃度範囲ならびに前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度範囲の2種の濃度範囲のいずれに属するかに応じて、前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素を推定するステップと、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度分布にもとづいて前記穴部の中心位置および半径を求めるステップと、
を有する画像処理方法。
Obtaining an image of a surface provided with a hole having a circular outline;
The density of each pixel of the image belongs to any one of two density ranges: a density range of the pixel belonging to the surface, a pixel included in the outline of the hole, and a density range of the pixel to which the outline of the hole belongs. Accordingly, estimating a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs,
Obtaining a center position and a radius of the hole based on a density distribution of a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs;
An image processing method.
JP2014055423A 2014-03-18 2014-03-18 Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method Active JP6282907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014055423A JP6282907B2 (en) 2014-03-18 2014-03-18 Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014055423A JP6282907B2 (en) 2014-03-18 2014-03-18 Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2015178961A true JP2015178961A (en) 2015-10-08
JP6282907B2 JP6282907B2 (en) 2018-02-21

Family

ID=54263117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014055423A Active JP6282907B2 (en) 2014-03-18 2014-03-18 Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP6282907B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168280A (en) * 2018-03-22 2019-10-03 東レエンジニアリング株式会社 Void inspection device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08210820A (en) * 1995-02-01 1996-08-20 Hitachi Denshi Ltd Method and device for recognizing part to be inspected in visual inspection device of parts-mounted board
JP2011107320A (en) * 2009-11-16 2011-06-02 Ushio Inc Method for detecting alignment mark
CN103389309A (en) * 2012-05-11 2013-11-13 三星泰科威株式会社 Method and apparatus for inspecting via hole
JP2015112151A (en) * 2013-12-09 2015-06-22 富士通株式会社 Image processing device, image processing method and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08210820A (en) * 1995-02-01 1996-08-20 Hitachi Denshi Ltd Method and device for recognizing part to be inspected in visual inspection device of parts-mounted board
JP2011107320A (en) * 2009-11-16 2011-06-02 Ushio Inc Method for detecting alignment mark
CN103389309A (en) * 2012-05-11 2013-11-13 三星泰科威株式会社 Method and apparatus for inspecting via hole
JP2013238582A (en) * 2012-05-11 2013-11-28 Samsung Techwin Co Ltd Method and device for inspecting via hole
JP2015112151A (en) * 2013-12-09 2015-06-22 富士通株式会社 Image processing device, image processing method and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168280A (en) * 2018-03-22 2019-10-03 東レエンジニアリング株式会社 Void inspection device

Also Published As

Publication number Publication date
JP6282907B2 (en) 2018-02-21

Similar Documents

Publication Publication Date Title
CN107071258B (en) Chromatic aberration correction in imaging systems comprising variable focus lenses
US9830694B2 (en) Multi-level image focus using a tunable lens in a machine vision inspection system
JP2009262161A (en) Correcting apparatus, correcting method, control device, and program
CN101666957B (en) Automatic focal point regulation process in filming apparatus
JPH11317429A (en) Improved method and device for direct probe sensing
US20170061209A1 (en) Object processing method, reference image generating method, reference image generating apparatus, object processing apparatus, and recording medium
TW201019056A (en) Testing method for alignment mark and device thereof
US20160088213A1 (en) Inspection apparatus, coordinate detection apparatus, coordinate detection method, and wavefront aberration correction method
CN103247548B (en) A kind of wafer defect checkout gear and method
JP5508734B2 (en) Pattern drawing apparatus and pattern drawing method
CN110057839A (en) Focusing control apparatus and method in a kind of Optical silicon wafer detection system
CN105093479A (en) Automatic focusing method and device used for microscope
JP5371928B2 (en) Defect inspection method and apparatus
JP6282907B2 (en) Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method
CN106556350B (en) The measuring method and a kind of microscope of microscopic slide curved surface height value
JP2015102694A (en) Alignment device, microscopic system, alignment method, and alignment program
KR100508994B1 (en) Critical dimension measurement method and apparatus capable of measurement below the resolution of an optical microscope
WO2019180899A1 (en) Appearance inspection device
JP6326243B2 (en) Image processing apparatus and three-dimensional shape measuring apparatus
JP2011259502A (en) Imaging apparatus
JP2008209295A (en) Device for measuring size
JP2009092852A (en) Height measurement device
JP2015210396A (en) Aligment device, microscope system, alignment method and alignment program
US20220358631A1 (en) Optical Measurement of Workpiece Surface using Sharpness Maps
JP5843179B1 (en) Inspection apparatus and wavefront aberration correction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180125

R150 Certificate of patent or registration of utility model

Ref document number: 6282907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150