JP2015178961A - Image processing device, three-dimensional shape measurement device and image processing method - Google Patents
Image processing device, three-dimensional shape measurement device and image processing method Download PDFInfo
- Publication number
- JP2015178961A JP2015178961A JP2014055423A JP2014055423A JP2015178961A JP 2015178961 A JP2015178961 A JP 2015178961A JP 2014055423 A JP2014055423 A JP 2014055423A JP 2014055423 A JP2014055423 A JP 2014055423A JP 2015178961 A JP2015178961 A JP 2015178961A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- hole
- density
- outline
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、画像から円形状の輪郭を有する対象物を検出する画像処理装置、立体形状計測装置および画像処理方法に関する。 Embodiments described herein relate generally to an image processing apparatus, a three-dimensional shape measurement apparatus, and an image processing method for detecting an object having a circular outline from an image.
従来、円形状の輪郭を有する対象物を画像から検出する技術として、種々の技術が知られている。たとえば特開2002−140713号公報(特許文献1)に記載の技術は、まず濃淡画像上に円の仮中心を設定するとともに画像上のエッジを抽出する。エッジの検出においては、2次微分のゼロクロッシングや1次微分のガウシアンフィッティングなどにより求める。次に、仮中心からエッジまでの距離、およびエッジの接線方向と仮中心からエッジに向かう方向とがなす角度にもとづいて、各エッジが観測対象物の輪郭を表す円の円周を構成する点か否かを判定するようになっている。 Conventionally, various techniques are known as techniques for detecting an object having a circular outline from an image. For example, the technique described in Japanese Patent Laid-Open No. 2002-140713 (Patent Document 1) first sets a temporary center of a circle on a grayscale image and extracts an edge on the image. In edge detection, it is obtained by zero-crossing of the second derivative or Gaussian fitting of the first derivative. Next, based on the distance from the temporary center to the edge and the angle between the tangential direction of the edge and the direction from the temporary center to the edge, each edge constitutes the circumference of a circle that represents the outline of the observation object It is determined whether or not.
特許文献1に記載の技術では、設定した仮中心を用いて輪郭を構成する可能性の高いエッジを抽出することができ、抽出したエッジを用いて仮中心よりも正確な中心および半径を求めることができる。このため、この種の技術によれば、たとえば板状の部材表面に盛り上がるように設けられた半田ボールの位置を簡便に検出することができる。
With the technique described in
しかし、従来の技術は対象物が穴部である場合を考慮していない。このため、従来の技術では、円形状の輪郭を有する穴部が設けられた表面を撮像した画像から穴部を抽出することが難しい。 However, the conventional technique does not consider the case where the object is a hole. For this reason, in the prior art, it is difficult to extract a hole from an image obtained by imaging a surface provided with a hole having a circular outline.
従来の技術は、円形状の輪郭を有する対象物が、板状の部材表面に盛り上がるように設けられていることを想定している。表面に盛り上がるように設けられた半球状の対象物の場合、画像内における対象物が属する画素の濃度(輝度)は、対象物の中心付近が最も高く、輪郭が最も低くなるとともに、輪郭近傍における濃度勾配方向の濃度分布は微分可能に滑らかな分布を有する。このため、従来の技術のように1次微分や2次微分を用いて容易にエッジ検出を行うことが可能である。 The conventional technology assumes that an object having a circular outline is provided so as to rise on the surface of a plate-like member. In the case of a hemispherical object provided so as to swell on the surface, the density (luminance) of the pixel to which the object belongs in the image is highest near the center of the object, has the lowest contour, and is near the contour. The concentration distribution in the concentration gradient direction has a differentiably smooth distribution. For this reason, it is possible to easily detect the edge using the first and second derivatives as in the conventional technique.
ところが、穴部が設けられた画像の場合、各画素の濃度は、穴部中心から輪郭まではほぼゼロである一方、表面部の濃度はほぼ一定値の高濃度となる。このため、穴部の輪郭付近において、濃度は非常に急峻に変化し、輪郭近傍における濃度勾配方向の濃度分布は微分不可能な分布となってしまう。 However, in the case of an image provided with a hole, the density of each pixel is substantially zero from the hole center to the contour, while the density of the surface part is a high density with a substantially constant value. For this reason, the concentration changes very steeply near the contour of the hole, and the concentration distribution in the concentration gradient direction near the contour becomes a non-differentiable distribution.
したがって、円形状の輪郭を有する穴部が設けられた表面の画像から穴部を抽出する場合、1次微分や2次微分を用いる方法では、安定して正確なエッジ位置を検出することが難しい。このため、対象物の位置を正確に検出することが難しい。さらに、穴部のサイズによっては、穴部に属する画素がたとえば10−20画素程度と少ない場合もある。この場合、穴部に属する画素の輪郭はモザイク状となり、従来の技術によるエッジ検出はさらに困難となってしまう。 Therefore, when a hole is extracted from an image of a surface provided with a hole having a circular contour, it is difficult to detect a stable and accurate edge position by a method using a primary differential or a secondary differential. . For this reason, it is difficult to accurately detect the position of the object. Further, depending on the size of the hole, there are cases where the number of pixels belonging to the hole is as small as about 10-20 pixels, for example. In this case, the contours of the pixels belonging to the hole are in a mosaic shape, which makes it more difficult to detect edges using the conventional technique.
本発明は、上述した事情を考慮してなされたもので、円形状の輪郭を有する穴部の位置を画像から正確に検出することができる画像処理装置、立体形状計測装置および画像処理方法を提供することを目的とする。 The present invention has been made in consideration of the above-described circumstances, and provides an image processing apparatus, a three-dimensional shape measuring apparatus, and an image processing method that can accurately detect the position of a hole having a circular outline from an image. The purpose is to do.
本発明の一実施形態に係る画像処理装置は、上述した課題を解決するために、画像取得部、画素種別推定部および特徴量算出部を備える。画像取得部は、円形状の輪郭を有する穴部が設けられた表面の画像を取得する。画素種別推定部は、取得した画像の各画素の濃度が、表面に属する画素の濃度範囲ならびに穴部の輪郭に内包される画素および穴部の輪郭が属する画素の濃度範囲の2種の濃度範囲のいずれに属するかに応じて、穴部の輪郭に内包される画素および穴部の輪郭が属する画素を推定する。特徴量算出部は、穴部の輪郭に内包される画素および穴部の輪郭が属する画素の濃度分布にもとづいて穴部の半径および中心位置を求める。 In order to solve the above-described problem, an image processing apparatus according to an embodiment of the present invention includes an image acquisition unit, a pixel type estimation unit, and a feature amount calculation unit. The image acquisition unit acquires an image of a surface provided with a hole having a circular outline. The pixel type estimation unit has two types of density ranges in which the density of each pixel of the acquired image is a density range of pixels belonging to the surface, a pixel included in the outline of the hole, and a density range of the pixel to which the outline of the hole belongs. The pixel included in the outline of the hole and the pixel to which the outline of the hole belongs are estimated. The feature amount calculation unit obtains the radius and center position of the hole based on the density distribution of the pixels included in the outline of the hole and the pixel to which the outline of the hole belongs.
本発明に係る画像処理装置、立体形状計測装置および画像処理方法によれば、円形状の輪郭を有する穴部の位置を画像から正確に検出することができる。 According to the image processing device, the three-dimensional shape measurement device, and the image processing method according to the present invention, the position of a hole having a circular outline can be accurately detected from an image.
本発明に係る画像処理装置、立体形状計測装置および画像処理方法の実施の形態について、添付図面を参照して説明する。 Embodiments of an image processing apparatus, a three-dimensional shape measurement apparatus, and an image processing method according to the present invention will be described with reference to the accompanying drawings.
本発明の一実施形態に係る画像処理装置は、1次微分や2次微分を用いたエッジ検出を行うことなく円形状の輪郭を有する穴部の位置を画像から正確に検出するものである。なお、以下の説明において、表面は平面であるものとする。また、表面に設けられた穴部とは、表面上方から光を照射したときに表面における光の反射に比べて十分に反射の少ない箇所をいい、表面に設けられた凹部も含まれる。たとえば、本実施形態に係る穴としては、シリコン貫通ビア(TSV、Through-Silicon Via)や基板のブラインドビア、スルーホールビアなど、非貫通または貫通の穴であって穴の深さに対して穴の径が小さいものなどが挙げられる。 An image processing apparatus according to an embodiment of the present invention accurately detects the position of a hole having a circular outline from an image without performing edge detection using primary differentiation or secondary differentiation. In the following description, the surface is assumed to be a plane. Moreover, the hole provided in the surface refers to a portion that is sufficiently less reflected than the reflection of light on the surface when light is irradiated from above the surface, and includes a recess provided in the surface. For example, the holes according to the present embodiment include non-through or through holes such as through-silicon vias (TSVs), substrate blind vias, and through-hole vias, and have a depth corresponding to the depth of the hole. And the like having a small diameter.
(第1の実施形態)
図1は、本発明の第1実施形態に係る画像処理装置10の一構成例を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of an
画像処理装置10は、図1に示すように、表示部11、入力部12、記憶部13、ネットワーク接続部14および主制御部15を有する。
As illustrated in FIG. 1, the
表示部11は、たとえば液晶ディスプレイやOLED(Organic Light Emitting Diode)ディスプレイなどの一般的な表示出力装置により構成され、主制御部15の制御に従って各種画像を表示する。
The
入力部12は、少なくともポインティングデバイスを含み、たとえばマウス、トラックボール、キーボード、タッチパネル、テンキーなどの一般的な入力装置により構成され、ユーザの操作に対応した操作入力信号を主制御部15に出力する。
The
記憶部13は、磁気的もしくは光学的記録媒体または半導体メモリなどの、主制御部15のCPUにより読み書き可能な記録媒体を含んだ構成を有する。これら記憶媒体内のプログラムおよびデータの一部または全部は、電子ネットワークを介してダウンロードされるように構成してもよい。
The
ネットワーク接続部14は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部は、この各種プロトコルに従って画像処理装置10と他の電気機器とを接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
The
主制御部15は、CPU、RAMおよびROMをはじめとする記憶媒体などにより構成され、この記憶媒体に記憶されたプログラムに従って画像処理装置10の動作を制御する。主制御部15のCPUは、ROMをはじめとする記憶媒体に記憶された画像処理プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードする。主制御部15のCPUは、このプログラムに従って円形状の輪郭を有する穴部の位置を画像から正確に検出する処理を実行する。
The
主制御部15のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。主制御部15のROMをはじめとする記憶媒体は、画像処理装置10の起動プログラム、画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。
The RAM of the
なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。 A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network.
図1に示すように、主制御部15のCPUは、画像処理プログラムによって、少なくとも画像取得部21、画素種別推定部22、特徴量算出部23および補正部24として機能する。これらの機能実現部21〜24は、RAMの所要のワークエリアをデータの一時的な格納場所として利用する。また、これらの機能実現部21〜24は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。
As shown in FIG. 1, the CPU of the
図2は、画像取得部21により取得される画像の撮像対象となる物体30の一例を示す説明図である。
FIG. 2 is an explanatory diagram illustrating an example of an
画像取得部21は、円形状の輪郭31を有する穴部32が設けられた表面33の画像を取得する。この画像は、物体30を表面33の情報から撮像することにより得られる画像であり、距離画像であってもよい。
The
図3は、円形状の輪郭31を有する穴部32と画素との位置関係の一例を示す説明図である。
FIG. 3 is an explanatory diagram illustrating an example of a positional relationship between the
画像取得部21が取得した画像の各画素のうち、表面33に属する画素(以下、表面画素という)41は高濃度を有し、穴部32に属する画素(以下、穴所属画素という)42の濃度は低い。穴所属画素42のうち、穴部32の輪郭31に内包される画素(以下、穴内包画素という)44の濃度はほぼゼロであり、穴部32の輪郭31が属する画素(以下、穴輪郭画素という)43は、穴内包画素44よりも濃度がやや高い。これは、穴内包画素44がすべて穴部32の画像で構成されるのに対し、穴輪郭画素43は輪郭31が属する画素であり一部が表面33の画像で構成されるためである。
Among the pixels of the image acquired by the
そこで、画素種別推定部22は、取得した画像の各画素(xm,yn)の濃度G(xm,yn)が、表面画素41の濃度範囲および穴所属画素42の濃度範囲のいずれに属するかに応じて、表面画素41および穴所属画素42を推定する。また、画素種別推定部22は、穴所属画素42の濃度Gが、穴輪郭画素43の濃度範囲および穴内包画素44の濃度範囲のいずれに属するかに応じて、穴輪郭画素43および穴内包画素44を推定する。
Therefore, the pixel
特徴量算出部23は、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置C(xc,yc)を求める。
The feature
補正部24は、穴輪郭画素43のそれぞれについて、各画素の中心と特徴量算出部23により求められた中心位置Cとを結ぶ直線45を仮定する。また、補正部24は、この直線45と直交し画素を2分する画素分割線分46であって中心位置C側の分割領域が自身の濃度に応じた面積を有する画素分割線分46の位置を求める。そして、補正部24は、画素分割線分46の位置にもとづいて穴部32の半径rおよび中心位置Cを補正する。
The
次に、本実施形態に係る画像処理装置10の動作の一例について説明する。
Next, an example of the operation of the
図4は、図1に示す主制御部15のCPUにより、円形状の輪郭31を有する穴部32の位置を画像から正確に検出する際の手順の一例を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。
FIG. 4 is a flowchart showing an example of a procedure when the CPU of the
まず、ステップS1において、画像取得部21は、円形状の輪郭31を有する穴部32が設けられた表面33の画像を取得する。
First, in step S <b> 1, the
次に、ステップS2において、画素種別推定部22は、取得した画像の各画素(xm,yn)の濃度G(xm,yn)が、表面画素41の濃度範囲および穴所属画素42の濃度範囲のいずれに属するかに応じて、表面画素41および穴所属画素42を推定する。
Next, in step S <b> 2, the pixel
次に、ステップS3において、特徴量算出部23は、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置C(xc,yc)を求める。
Next, in step S <b> 3, the feature
次に、ステップS4において、補正部24は、穴輪郭画素43の濃度にもとづいて特徴量算出部23により求められた半径rおよび中心位置Cを補正する。なお、ステップS4は必ずしも実行されずともよい。ステップS4を実行しない場合、画像処理装置10は補正部24を備えずともよい。
Next, in step S <b> 4, the
以上の手順により、1次微分や2次微分を用いたエッジ検出を行うことなく円形状の輪郭31を有する穴部32の位置を画像から正確に検出することができる。
With the above procedure, the position of the
続いて、取得した画像から穴所属画素42を推定する際の手順を説明する。
Next, a procedure for estimating the
図5は、図4のステップS2で画素種別推定部22により実行される穴所属画素推定処理の手順の一例を示すサブルーチンフローチャートである。
FIG. 5 is a subroutine flowchart showing an example of the procedure of the hole belonging pixel estimation process executed by the pixel
ステップS21において、画素種別推定部22は、濃度Gがほぼゼロの画素に着目してラベリング処理を行うことにより、少なくとも穴内包画素44を含む領域を推定する。
In step S <b> 21, the pixel
図6は、ラベリング処理の結果の一例を示す説明図である。ステップS21におけるラベリング処理により、少なくとも穴内包画素44を含むモザイク状の領域が抽出される(図6参照)。
FIG. 6 is an explanatory diagram illustrating an example of a result of the labeling process. By the labeling process in step S21, a mosaic area including at least the
ラベリングにより、穴部32の位置が推定される。換言すれば、ラベリングされた画素を囲う所定の領域の画素は表面画素41であると考えられる。
The position of the
次に、ステップS22において、画素種別推定部22は、ラベリングされた画素を囲う所定の領域の複数の画素の平均濃度Gsur_aveを求める。なお、ラベリングされた画素を囲う(表面画素41の抽出対象となる)所定の領域は、ラベリングされた画素の上下左右端画素を囲う領域であればよい。たとえば上下左右端画素を(x2,y1)、(x3,y4)、(x1,y2)、(x4,y3)とすると、(x1−1,y1−1)、(x4+1,y4+1)を対角とする矩形領域や、ラベリングされた画素を2画素膨張させたに等しい領域などを表面画素の抽出対象とする所定の領域とするとよい。
Next, in step S22, the pixel
次に、ステップS23において、画素種別推定部22は、次の式(1)を用いて、所定の領域の画素の濃度Gを正規化して正規化濃度Tを算出する。
正規化値T0は、穴所属画素42(穴輪郭画素43および穴内包画素44)の最大濃度値より大きい値とするとよい。また、正規化値T0は、式(1)を用いて各画素の濃度の正規化を行う場合は穴所属画素42の正規化濃度の最大値よりも大きい値とするとよい。以下の説明では、式(1)を用いて各画素の濃度の正規化を行う場合であって正規化値T0が100である場合の例について示す。
The normalized value T 0 may be a value larger than the maximum density value of the hole belonging pixel 42 (the
次に、ステップS24において、画素種別推定部22は、正規化濃度Tが所定の閾値thT以上の画素を表面画素41と推定する。なお、閾値thTは正規化値T0以下の値とするとよい(たとえば正規化値T0が100である場合、thTを95とするなど)。また、画素種別推定部22は、表面画素41に囲われた画素を穴所属画素42と推定する。
Next, in step S <b> 24, the pixel
以上の手順により、取得した画像の穴所属画素42を推定することができる。
Through the above procedure, the hole-affiliated
続いて、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置Cを求める際の手順を説明する。
Next, a procedure for obtaining the radius r and the center position C of the
図7は、図4のステップS3で特徴量算出部23により実行される半径rおよび中心位置Cの算出処理の手順の一例を示すサブルーチンフローチャートである。この手順は、図5に示す手順のステップS24が実行されてスタートとなる。
FIG. 7 is a subroutine flowchart showing an example of the procedure of the radius r and center position C calculation process executed by the feature
図8は、表面画素41の濃度Gが正規化値T0で置換された様子の一例を示す説明図である。
Figure 8 is an explanatory diagram showing an example of a state in which the concentration G of the
ステップS31において、特徴量算出部23は、ステップS24で推定された表面画素41の濃度Gを正規化値T0で置換する(図8参照)。ステップS24では、正規化濃度Tが所定の閾値thT以上の画素が表面画素41と推定されている。このため、ステップS24とステップS31の処理は、次の式(2)のようにまとめることができる。
図9は、穴所属画素42の正規化濃度Tの一例を示す説明図である。また、図10は表面画素41および穴所属画素42の反転正規化濃度Tinvの一例を示す説明図である。
FIG. 9 is an explanatory diagram showing an example of the normalized density T of the
表面画素41の濃度Gを正規化値T0で置換すると、特徴量算出部23は、穴所属画素42(穴輪郭画素43および穴内包画素44)の濃度Gを、これらの画素の最大濃度値より大きい正規化値から減じることにより反転させる。
When the density G of the
具体的には、特徴量算出部23は、ステップS32において、式(1)を用いて穴所属画素42の正規化濃度Tを求める(図9参照)。次に、特徴量算出部23は、ステップS33において次式(3)を用いて正規化濃度Tを正規化値T0から減じ、反転した正規化濃度(反転正規化濃度)Tinvを求める(図10参照)。
次に、特徴量算出部23は、反転させた濃度の合計を正規化値で除すことにより穴部32の面積Aを求め、面積Aを用いて穴部32の半径rを求める。具体的には、特徴量算出部23は、次の式(4)に示すように、反転正規化濃度Tinvの合計を正規化値T0で除して穴部32の面積Aを求め(ステップS34)、次の式(5)を用いて面積Aから半径rを求める(ステップS35)。
次に、ステップS36において、特徴量算出部23は、穴所属画素42の反転した濃度または反転正規化濃度Tinvを用いて次式(6)および(7)に示す重心演算により穴部32の中心位置C(xc,yc)を求める。
以上の手順により、穴所属画素42の濃度分布にもとづいて、穴部32の半径rおよび中心位置Cを求めることができる。主制御部15は、この求めた半径rおよび中心位置Cの情報を示す文字情報などの画像を生成して、表面33の画像に重畳させて表示部11に表示させてもよい。
According to the above procedure, the radius r and the center position C of the
続いて、穴輪郭画素43の濃度にもとづいて特徴量算出部23により求められた半径rおよび中心位置Cを補正する際の手順を説明する。
Next, a procedure for correcting the radius r and the center position C obtained by the feature
図11は、図4のステップS4で実行される半径rおよび中心位置Cの補正処理の手順の一例を示すサブルーチンフローチャートである。この手順は、図7に示す手順のステップS36が実行され、特徴量算出部23により半径rおよび中心位置C(xc,yc)が求められてスタートとなる。また、図12は、図10の一部拡大図を用いて補正部24による特徴量補正処理を説明するための図である。
FIG. 11 is a subroutine flowchart showing an example of a procedure for correcting the radius r and the center position C executed in step S4 of FIG. This procedure is started when step S36 of the procedure shown in FIG. 7 is executed and the radius r and the center position C (xc, yc) are obtained by the feature
ステップS41において、画素種別推定部22は、穴輪郭画素43を推定する。たとえば、画素種別推定部22は、正規化濃度Tが表面画素41抽出時に用いた閾値thT(たとえば95など)より小さく、かつ穴内包画素44に属する値(たとえば5など)より大きい範囲に属する画素を穴輪郭画素43として推定する。
In step S <b> 41, the pixel
次に、ステップS42において、補正部24は、穴輪郭画素43のそれぞれについて、各画素の中心と特徴量算出部23により求められた中心位置Cとを結ぶ直線45を仮定する。
Next, in step S <b> 42, the
次に、ステップS43において、補正部24は、この直線45と直交し画素を2分する画素分割線分46であって、中心位置C側の分割領域が自身の濃度に応じた面積を有する画素分割線分46の位置を求める。ここで、自身の濃度に応じた面積としては、たとえば反転正規化濃度Tinvを用いることができる。反転正規化濃度Tinvは、画素に含まれる穴部32の割合に応じた値となるためである(図12参照)。
Next, in step S43, the
次に、ステップS44において、補正部24は、画素分割線分46の位置にもとづいて穴部32の半径rおよび中心位置Cを補正する。具体的には、補正部24は、穴輪郭画素43のそれぞれについて、直線45の傾きθiと、中心位置Cから画素分割線分46までの距離Riと、を求め、これらの傾きθiおよび距離Riにもとづいて次式(8)により半径rを補正するとともに次式(9)―(11)を用いて中心位置Cを補正する。ただし、式(8)、(10)、(11)においてnは補正計算に用いる穴輪郭画素43の総数を表す。
以上の手順により、穴輪郭画素43の濃度にもとづいて特徴量算出部23により求められた半径rおよび中心位置Cを補正することができる。
With the above procedure, the radius r and the center position C obtained by the feature
本実施形態に係る画像処理装置10は、1次微分や2次微分を用いたエッジ検出を行うことなく、穴所属画素42の濃度分布にもとづいて円形状の輪郭31を有する穴部32の位置を画像から正確に検出することができる。また、画像処理装置10が補正部24を備える場合、穴輪郭画素43の濃度にもとづいて穴部32の半径rおよび中心位置Cを補正することにより、穴部32の位置をさらに正確に求めることができる。
The
また、本実施形態に係る画像処理装置10は、1次微分や2次微分を用いたエッジ検出を行うことなく、各画素の濃度のみを用いて穴部32の半径rおよび中心位置Cを求めることができる。このため、画像処理装置10は、特に円形状の穴部32が占める画素数が少なく、穴輪郭画素43がモザイク状に並んでしまう場合にも好適である。
Further, the
(第2の実施形態)
図13は、本発明の第2実施形態に係る画像処理装置10Aを含む立体形状計測装置50の一例を示す全体構成図である。
(Second Embodiment)
FIG. 13 is an overall configuration diagram illustrating an example of a three-dimensional shape measurement apparatus 50 including an
この第2実施形態に示す画像処理装置10Aは、表面33に垂直な高さh方向に離散的な位置ごとに物体30を撮像することにより得られた画像を立体形状計測装置50の共焦点光学系を有する撮像部60から取得し、これらの画像から各画素の表面位置を決定可能に構成された点で第1実施形態に示す画像処理装置10Aと異なる。他の構成および作用については図1に示す画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。また、以下の説明では、物体30の表面33に垂直な高さh方向を光軸方向に沿った方向とするとともに、光軸方向(物体30の表面33に垂直な高さh方向)をZ軸、光軸方向に垂直な方向をX軸およびY軸とする場合の例について示す。すなわち、以下の例において、光軸方向、物体30の高さh方向、およびZ方向は互いに平行である。
The
図13に示すように、立体形状計測装置50は画像処理装置10Aおよび撮像部60を有する。
As illustrated in FIG. 13, the three-dimensional shape measurement apparatus 50 includes an
撮像部60は、光源61aを有する照明光学系61、主面が光軸方向に垂直となるよう配置された開口板62、対物レンズ63、焦点位置変更部64、物体30を載置するための載物台65、載物台65をXYZ各方向に移動させるための載物台駆動部66、載物台65および載物台駆動部66を支持する支持基台67、物体30からの反射光を入射される光検出部68、および画像処理装置10Aを有する。載物台駆動部66は、載物台Z変位部69および載物台XY変位部70を有する。
The
光源61aとしては、たとえばハロゲンランプやレーザなどを用いることができる。光源61aから出射された光は、照明レンズ71を介して面状の照明光束となる。この光は、偏光ビームスプリッタ72を介して開口板62を照明する。
For example, a halogen lamp or a laser can be used as the
開口板62は、それぞれ共焦点開口部として機能する複数の開口部73を有する。開口板62には複数の開口部73が形成されていればよく、開口板62としては開口部73が2次元に配列されて開口アレイが形成されたものを用いてもよいし、いわゆるニポウディスクを用いてもよい。ニポウディスクを用いる場合、ニポウディスクは図示しない駆動機構により回転駆動される。
The
各開口部73を通過した光は、焦点位置変更部64を介して対物レンズ63を照射し、対物レンズ63によって物体30に投光されつつ開口部73と共役なスポット(以下、物体側集光点という)に集光される。各物体側集光点は、Z方向(物体30の表面33に垂直な高さh方向、光軸方向)の所定の位置の光軸方向に垂直な面(以下、物体側集光面という)上に位置する。なお、対物レンズ63は、たとえば複数のレンズおよび絞りにより構成されて両側テレセントリック光学系を構成されてもよい。
The light that has passed through each
載物台Z変位部69は、ステッピングモータやサーボモータ、あるいはピエゾモータなどの一般的な駆動装置により構成され、Z方向に載物台65を変位させる。この変位の量、方向およびタイミングは、画像処理装置10AによりZ軸ドライバ74を介して制御される。載物台Z変位部69は、たとえば測定開始前に載物台65をZ方向に大まかに変位させる。
The mounting table
図14は、焦点位置変更部64の一構成例を示す斜視図である。
FIG. 14 is a perspective view illustrating a configuration example of the focal
対物レンズ63の光路中に透明体により構成された平行平板形の光路変更片75を配置すると、対物レンズ63の物体側集光面の位置がZ方向に移動する。この焦点移動幅は、光路変更片75の屈折率および厚さによって制御することができる。
When a parallel plate-shaped optical
このため、図14に示すように、回転板76に対して回転方向に沿って等間隔に互いに焦点移動幅が異なる光路変更片75を配設する。この回転板76をモータなどの駆動部77により所定の速度で連続回転させることにより、光路変更片75のそれぞれが対物レンズ63の光軸と交わるごとに離散的に(ステップ的に)対物レンズ63の物体側集光面の位置をZ方向に移動させることができる。なお、回転板76に配設された光路変更片75の一部は、他の光路変更片75と同一の屈折率および厚さを有し同一の焦点移動幅を有するものであってもよい。
For this reason, as shown in FIG. 14, optical
回転板76の回転状態はタイミングセンサ78により検知される。タイミングセンサ78の出力は画像処理装置10Aに与えられる。画像処理装置10Aは、あらかじめ各光路変更片75と物体側集光点のZ軸座標とを関連付けた情報を保持している。画像処理装置10Aがタイミングセンサ78の出力にもとづいて各光路変更片75と光軸とが交わるタイミングで光検出部68を露光させることを繰り返すことにより、表面33に垂直な高さh方向に離散的な位置のそれぞれで、容易かつ高速に物体30を撮像することができる。
The rotation state of the
駆動部77は、画像処理装置10Aにより制御可能に構成されてもよい。この場合、画像処理装置10Aは回転板76の回転速度を制御することができる。
The
なお、図14には光路変更片75の形状が円形である場合の例について示したが、これらの形状は楕円形、多角形等であってもよい。
In addition, although the example in case the shape of the optical path change
物体30による反射光のうち特に物体側集光点における反射光は、対物レンズ63により、物体側集光点と光学的共役関係にある点(以下、像側集光点という)に集光される。点光源としての開口部73と物体側集光点とは、1対1に対応する。本実施形態では、像側集光点が点光源としての開口部73に一致する場合の例について説明する。この場合、開口部73を通過した光は物体側集光点に集光されるとともに、この物体側集光点で反射されて開口部73に再度入射することになる。
Of the reflected light from the
開口部73に再度入射した光は、偏光ビームスプリッタ72により偏向されて結像光学系79に入射し、光検出部68を構成する撮像素子に入射する。ここで、結像光学系79は、開口部73の像を撮像素子の光電変換面に結ぶように構成される。開口部73(像側集光点)とこの開口部73に対応する位置に配設された撮像素子とは、偏光ビームスプリッタ72および結像光学系79により互いに共役関係となる。
The light that has entered the
光検出部68は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成されて、照射された光の強度に応じた信号を画像処理装置10Aに出力する。また、光検出部68は、画像処理装置10Aにより光検出のタイミングを制御される。
The
画像処理装置10Aは、この光検出部68から受けた信号にもとづいて、表面33に垂直な高さh方向に離散的な位置のそれぞれで物体30を撮像した画像を取得する。なお、画像処理装置10Aは、露光ごとに光検出部68の出力信号を得ることができれば、この出力信号にもとづいて物体30の立体形状計測を行うことが可能である。
Based on the signal received from the
載物台駆動部66の載物台XY変位部70は、載物台65をZ方向に垂直な方向に変位させる。たとえば、載物台XY変位部70は、測定の合間に測定対象領域をXY面内で移動させるために用いられる。
The mounting table
この載物台XY変位部70は、載物台65のX軸方向およびY軸方向の位置決めを行うX軸変位機構80およびY軸変位機構81を有する。X軸変位機構80およびY軸変位機構81は、たとえばサーボモータにより構成され、変位の量、方向およびタイミングは、画像処理装置10AによりXY軸ドライバ82を介して制御される。
The mounting table
図15は、本発明の第2実施形態に係る画像処理装置10Aの一構成例を示すブロック図である。
FIG. 15 is a block diagram showing a configuration example of an
画像処理装置10Aの主制御部15Aは、画像処理プログラムによって、画像取得部21A、画素種別推定部22A、特徴量算出部23、補正部24、撮像制御部25および表面特定部26として機能する。
The
撮像制御部25は、焦点位置変更部64、光検出部68、Z軸ドライバ74およびXY軸ドライバ82を制御し、表面33に垂直な高さh方向に離散的な位置のそれぞれで撮像部60に物体30の撮像を行わせる。
The
図16は、表面33に垂直な高さh方向に離散的な位置h1、h2、・・・、hpのそれぞれで得られる物体30の画像について説明するための図である。
FIG. 16 is a diagram for describing images of the
画像取得部21Aは、表面33に垂直な高さh方向に離散的な位置ごとに物体30を撮像することにより得られた複数の画像を取得する(図16参照)。
The
表面特定部26は、複数の画像にもとづいて各画素の高さh方向の濃度分布を取得し、取得した濃度分布にもとづいて、表面位置および各画素の表面位置における濃度を特定する。
The
複数の画像のそれぞれは互いに異なる高さh1、h2、・・・、hpと関連付けられている。また、複数の画像のxy平面における撮像領域は同一であるものとする。この場合、画素(xm、yn)は複数の画像のそれぞれに含まれることになる。このため、複数の画像のそれぞれから画素(xm、yn)の濃度Gを抽出することにより、画素(xm,yn)の高さh方向の濃度分布(G(xm,yn,h1)、G(xm,yn,h2)、・・・、G(xm,yn,hp))を得ることができる。これらの濃度G(xm,yn,h1)、G(xm,yn,h2)、・・・、G(xm,yn,hp)は、画像から測定される濃度であり、以下適宜測定濃度という。 Each of the plurality of images is associated with different heights h1, h2,. In addition, it is assumed that the imaging areas in the xy plane of the plurality of images are the same. In this case, the pixel (xm, yn) is included in each of the plurality of images. Therefore, by extracting the density G of the pixel (xm, yn) from each of the plurality of images, the density distribution (G (xm, yn, h1), G () in the height h direction of the pixel (xm, yn) is extracted. xm, yn, h2),..., G (xm, yn, hp)). These densities G (xm, yn, h1), G (xm, yn, h2),..., G (xm, yn, hp) are densities measured from the image, and are hereinafter referred to as measured densities as appropriate.
いま、この各画素の測定濃度のうち、最も高い測定濃度を与える位置をhsとする。各画素の最高濃度は、表面位置で得られると推定される。このため、各画素の表面位置は、この高さhsの位置の近傍にあると推定することができる。 Now, let hs be the position that gives the highest measured density among the measured densities of each pixel. It is estimated that the highest density of each pixel is obtained at the surface position. For this reason, it can be estimated that the surface position of each pixel is in the vicinity of the position of the height hs.
そこで、表面特定部26は、各画素の測定濃度の分布にもとづいて各画素の最高濃度を与える位置を推定し、この推定最高濃度を与える位置μを表面位置とするとよい。なお、撮像される高さh方向の位置間隔(サンプリング間隔)が十分に小さい場合は、表面特定部26は、高さhsそのものを表面位置と推定してもよい。
Therefore, the
画素種別推定部22Aは、表面特定部26により特定された各画素の表面位置における濃度を用いて、表面画素41および穴所属画素42を推定する。
The pixel
次に、本実施形態に係る画像処理装置10Aを含む立体形状計測装置50の動作の一例について説明する。
Next, an example of the operation of the three-dimensional shape measurement apparatus 50 including the
図17は、図15に示す主制御部15AのCPUにより、各画素の表面位置における濃度を求める際の手順の一例を示すフローチャートである。図17において、Sに数字を付した符号は、フローチャートの各ステップを示す。この手順は、図4のステップS1にかえて実行される。
FIG. 17 is a flowchart showing an example of a procedure for obtaining the density at the surface position of each pixel by the CPU of the
まず、ステップS51において、撮像制御部25は、表面33に垂直な高さh方向に離散的な位置h1、h2、・・・、hpのそれぞれで、撮像部60に物体30の撮像を行わせる。そして、画像取得部21Aは、各位置の画像を取得する。
First, in step S51, the
次に、ステップS52において、表面特定部26は、各画素の測定最高濃度G(hs)を抽出する。
Next, in step S52, the
次に、ステップS53において、表面特定部26は、測定最高濃度G(hs)が閾値以上の各画素について、推定最高濃度を与える高さμを求める。
Next, in step S <b> 53, the
ここで、推定最高濃度を与える高さμの算出方法について詳細に説明する。 Here, a method of calculating the height μ that gives the estimated maximum density will be described in detail.
図18は、各画素の高さh方向の濃度分布の一例を示す説明図である。推定最高濃度を与える高さμを求めるにあたり、まず、各画素の高さh方向の濃度分布のうち、最高濃度の近傍の分布が次の式(12)で示すガウス分布で近似されるものと考える(図18参照)。
ただし、μは頂点位置、σ2は分散を表すものとする。また、以下の説明では、濃度Gの分布をgで表すものとする。 However, μ represents the vertex position and σ 2 represents the variance. In the following description, the distribution of the density G is represented by g.
頂点μを求める方法としては、たとえば式(12)の1階微分に対してゼロクロッシングを行う方法が挙げられる。しかし、この方法は1階微分した結果が線形である場合にのみ適用することができる一方、式(12)の1階微分した結果は必ずしも線形とはならない。
いま、式(12)の対数を考える。
Now consider the logarithm of equation (12).
この式(14)から明らかなように、式(13)(式(12)の対数)の1階微分は1次式となる。このため、式(13)に対しては、ゼロクロッシングを適用することが可能であることがわかる。ここで、R(xm,yn,h)=ln[g(xm,yn,h)]と置き換えると、R(式(13))の1階微分は次のように表せる。
図19(a)は、RおよびRの1階微分R’のゼロクロッシングについて説明するための図であり、(b)は(a)を一部拡大してR’のゼロクロッシングについてより詳細に説明するための図である。 FIG. 19A is a diagram for explaining zero crossing of the first derivative R ′ of R and R, and FIG. 19B is a partially enlarged view of FIG. It is a figure for demonstrating.
R’のゼロクロッシングにより、μはRの頂点の位置として、測定最高濃度G(hs)を与える高さhsおよびその前後の測定位置hs−1、hs+1を用いて次の式(16)のように表すことができる(図19(a)および(b)参照)。
また、撮像位置h1、h2、・・・、hpの間隔(高さピッチ)が一定値Δhであるとき、式(16)は次のように変形される。
ここで、R(xm,yn,h)=ln[g(xm,yn,h)]であることから、次式(18)が成り立つ。
式(17)に式(18)を代入すると、μは次式(19)で与えられる。
図20は、各画素のそれぞれで推定最高濃度を与える高さμを算出することで得られる表面33の高さ分布の一例を示す説明図である。
FIG. 20 is an explanatory diagram showing an example of the height distribution of the
このように、表面特定部26は、各画素(xm,yn)のそれぞれについて、推定最高濃度を与える高さμ(xm,yn)を求めることができ、表面33の高さ分布を得ることができる(図20のハッチング部参照)。
As described above, the
次に、ステップS54において、表面特定部26は、μにもとづいて表面位置Zを求める。
Next, in step S54, the
具体的には、表面特定部26は、表面33の高さ分布を用いて、たとえば次式(20)に示す最小2乗法などの方法で1次近似することにより、表面33の位置Z(xm,yn)を決定する。
ただし、Z(x,y)は(x,y)における表面33の高さh方向の位置を表し、α、β、γは1次近似で求められた係数を表すものとする。
However, Z (x, y) represents the position of the
次に、ステップS55において、表面特定部26は、各画素(xm,yn)のそれぞれについて、推定した表面位置Zにおける濃度G(xm,yn,Z)を求める。
Next, in step S55, the
具体的には、表面特定部26は、1次近似した平面上の各点の濃度Gを式(12)を用いて推定する。いま、式(12)のμは式(17)または式(19)により求まっている。このため、σを求めることができれば、式(12)を用いて任意の高さhでの濃度Gを求めることができる。
Specifically, the
μを挟む2点hsおよびhs+1の濃度分布上の値g(hs)およびg(hs+1)の対数どうしを引くことで、次式(21)が得られる(式(13)参照)。
この式(21)を変形することで、σは次の式(22)ように表すことができる事がわかる。
測定濃度Gとgの規格化値は既知であるから、式(12)に示す濃度分布gのμおよびσを得ることができれば、各画素の任意の高さhにおける濃度Gを推定することができる。当然ながら、各画素の推定表面位置(式(20)参照)における濃度Gを推定することもできる。 Since the normalized values of the measured densities G and g are known, if the μ and σ of the density distribution g shown in Expression (12) can be obtained, the density G at an arbitrary height h of each pixel can be estimated. it can. Of course, it is also possible to estimate the density G at the estimated surface position of each pixel (see equation (20)).
このように、ステップS52−55において、表面特定部26は、複数の画像にもとづいて各画素の高さh方向の濃度分布を取得し、取得した濃度分布にもとづいて、表面位置および各画素の表面位置における濃度を特定する。
In this way, in step S52-55, the
表面位置および表面位置における濃度を推定した後は、第1実施形態に係る画像処理装置10と同様に図4のステップS2以降の処理を実行する。なお、本実施形態に係る画像処理装置10Aは、図4のステップS2の処理の一例を示す図5のステップS21(ラベリング処理)において、ステップS52で濃度が閾値より小さく表面位置Zの計算対象とならなかった画素に着目するとよい。
After the surface position and the density at the surface position are estimated, the processing after step S2 in FIG. 4 is executed in the same manner as the
なお、式(22)のσの計算に時間が掛かるなど、式(12)を用いて任意の高さhにおける濃度Gを推定する処理に時間がかかる場合は、測定最高濃度G(hs)を与える測定位置hsそのものを表面位置と推定してもよい。この場合、図5のステップS24で用いられる閾値thTは、撮像位置h1、h2、・・・、hpの間隔(高さピッチ)が広い場合は閾値を下げるなど、高さピッチに応じて決めてもよい。 In addition, when it takes time to estimate the concentration G at an arbitrary height h using the equation (12), such as it takes time to calculate σ in the equation (22), the measured maximum concentration G (hs) is set to The given measurement position hs itself may be estimated as the surface position. In this case, the threshold thT used in step S24 of FIG. 5 is determined according to the height pitch, such as lowering the threshold when the intervals (height pitch) of the imaging positions h1, h2,. Also good.
本実施形態に係る画像処理装置10Aもまた、第1実施形態に係る画像処理装置10と同様の効果を奏する。また、本実施形態に係る画像処理装置10Aは、共焦点光学系を有する撮像部60により撮像された複数の高さh方向位置の画像から表面位置を求めることにより、物体30の表面33に設けられた穴部32の位置を正確に求めることができる。
The
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
10、10A 画像処理装置
21、21A 画像取得部
22、22A 画素種別推定部
23 特徴量算出部
24 補正部
26 表面特定部
30 物体
31 輪郭
32 穴部
33 表面
41 表面画素
42 穴所属画素
43 穴輪郭画素
44 穴内包画素
46 画素分割線分
50 立体形状計測装置
60 撮像部
A 面積
r 半径
C 中心位置
G 測定濃度
Gsur_ave 平均濃度
g 濃度分布
T 正規化濃度
thT 閾値
T0 正規化値
Tinv 反転正規化濃度
10, 10A
Claims (10)
取得した画像の各画素の濃度が、前記表面に属する画素の濃度範囲ならびに前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度範囲の2種の濃度範囲のいずれに属するかに応じて、前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素を推定する画素種別推定部と、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度分布にもとづいて前記穴部の半径および中心位置を求める特徴量算出部と、
を備えた画像処理装置。 An image acquisition unit for acquiring an image of a surface provided with a hole having a circular outline;
The density of each pixel of the acquired image is one of the two density ranges: the density range of the pixel belonging to the surface, the pixel included in the outline of the hole, and the density range of the pixel to which the outline of the hole belongs. A pixel type estimation unit that estimates a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs, according to whether it belongs,
A feature amount calculating unit for obtaining a radius and a center position of the hole based on a density distribution of a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs;
An image processing apparatus.
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度を、これらの画素の最大濃度値より大きい正規化値から減じることにより反転させ、前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する各画素の反転させた濃度の合計を前記正規化値で除すことにより前記穴部の面積を求め、求めた面積を用いて前記穴部の半径を求める、
請求項1記載の画像処理装置。 The feature amount calculation unit includes:
The density of the pixel included in the outline of the hole and the density of the pixel to which the outline of the hole belongs are reversed by subtracting from a normalized value larger than the maximum density value of these pixels, and included in the outline of the hole. The area of the hole is obtained by dividing the sum of the inverted densities of the pixel to which the pixel belongs and the outline of the hole by the normalized value, and the radius of the hole is obtained using the obtained area. ,
The image processing apparatus according to claim 1.
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する各画素の前記反転させた濃度を用いて重心演算により前記穴部の中心位置を求める、
請求項2記載の画像処理装置。 The feature amount calculation unit includes:
The center position of the hole is obtained by a centroid calculation using the inverted density of each pixel included in the outline of the hole and the pixel to which the outline of the hole belongs.
The image processing apparatus according to claim 2.
取得した画像に対してラベリング処理することにより前記穴部の輪郭に内包される画素を含む領域を推定し、推定した領域を囲う所定の領域の複数の画素の平均濃度を求め、前記所定の領域の複数の画素のうち、画素の濃度を前記平均濃度で除し前記正規化値を乗じることにより求められる正規化濃度が所定の閾値以上である画素を前記表面に属する画素と推定し、
前記正規化値は前記所定の閾値より大きい、
請求項3記載の画像処理装置。 The pixel type estimation unit
A region including pixels included in the outline of the hole is estimated by performing a labeling process on the acquired image, an average density of a plurality of pixels in a predetermined region surrounding the estimated region is obtained, and the predetermined region Among the plurality of pixels, a pixel having a normalized density obtained by dividing the pixel density by the average density and multiplying by the normalized value is estimated as a pixel belonging to the surface,
The normalized value is greater than the predetermined threshold;
The image processing apparatus according to claim 3.
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素について前記正規化濃度を求め、前記正規化値から減じることにより、前記反転させた濃度を得る、
請求項4記載の画像処理装置。 The feature amount calculation unit includes:
Obtaining the normalized density for the pixel contained in the outline of the hole and the pixel to which the outline of the hole belongs, and subtracting from the normalized value to obtain the inverted density;
The image processing apparatus according to claim 4.
推定した前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の各画素の濃度が、前記穴部の輪郭に内包される画素の濃度範囲および前記穴部の輪郭が属する画素の濃度範囲のいずれに属するかに応じて、前記穴部の輪郭に内包される画素をさらに推定し、
前記穴部の輪郭が属する画素のそれぞれについて、各画素の中心と前記特徴量算出部により求められた前記穴部の中心位置とを結ぶ直線を仮定し、この直線と直交し画素を2分する画素分割線分であって前記穴部の中心位置側の分割領域が自身の濃度に応じた面積を有する画素分割線分の位置を求め、前記画素分割線分の位置にもとづいて前記穴部の半径および中心位置を補正する補正部、
をさらに備えた請求項1ないし5のいずれか1項に記載の画像処理装置。 The pixel type estimation unit
The density of each pixel of the pixel included in the estimated outline of the hole and the pixel to which the outline of the hole belongs belongs to the density range of the pixel included in the outline of the hole and the pixel to which the outline of the hole belongs. According to which of the density ranges, further estimate the pixels included in the contour of the hole,
For each pixel to which the outline of the hole belongs, a straight line connecting the center of each pixel and the center position of the hole obtained by the feature amount calculation unit is assumed, and the pixel is orthogonal to the straight line and divided into two. A pixel dividing line segment, which is a pixel dividing line segment whose area on the center position side of the hole portion has an area corresponding to its own density, is determined based on the position of the pixel dividing line segment. A correction unit for correcting the radius and the center position,
The image processing apparatus according to claim 1, further comprising:
前記表面に垂直な高さ方向に離散的な位置ごとに前記表面を含む物体を撮像することにより得られた前記物体の複数の画像を取得し、
前記複数の画像にもとづいて各画素の前記高さ方向の濃度分布を取得し、取得した濃度分布にもとづいて表面位置および各画素の前記表面位置における濃度を特定する表面特定部、
をさらに備え、
前記画素種別推定部は、
前記表面特定部により特定された各画素の前記表面位置における濃度に応じて前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素を推定する、
請求項1ないし6のいずれか1項に記載の画像処理装置。 The image acquisition unit
Obtaining a plurality of images of the object obtained by imaging the object including the surface for each discrete position in a height direction perpendicular to the surface;
A surface specifying unit that acquires the density distribution in the height direction of each pixel based on the plurality of images, and specifies the surface position and the density at the surface position of each pixel based on the acquired density distribution;
Further comprising
The pixel type estimation unit
Estimating a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs according to the density of each pixel specified by the surface specifying unit at the surface position;
The image processing apparatus according to claim 1.
前記高さ方向に離散的な位置ごとの画像における各画素の離散的な濃度分布をガウス分布で近似することにより、前記表面位置および各画素の前記表面位置における濃度を特定する、
請求項7記載の画像処理装置。 The surface specifying portion is
The surface position and the density of each pixel at the surface position are specified by approximating the discrete density distribution of each pixel in the image at each discrete position in the height direction with a Gaussian distribution.
The image processing apparatus according to claim 7.
共焦点光学系を有し、前記物体を前記高さ方向に離散的な位置ごとに撮像することにより、前記物体の複数の画像を生成する撮像部と、
を備えた立体形状計測装置。 An image processing device according to claim 7 or 8,
An imaging unit that has a confocal optical system, and generates a plurality of images of the object by imaging the object at discrete positions in the height direction;
A three-dimensional shape measuring apparatus.
前記画像の各画素の濃度が、前記表面に属する画素の濃度範囲ならびに前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度範囲の2種の濃度範囲のいずれに属するかに応じて、前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素を推定するステップと、
前記穴部の輪郭に内包される画素および前記穴部の輪郭が属する画素の濃度分布にもとづいて前記穴部の中心位置および半径を求めるステップと、
を有する画像処理方法。 Obtaining an image of a surface provided with a hole having a circular outline;
The density of each pixel of the image belongs to any one of two density ranges: a density range of the pixel belonging to the surface, a pixel included in the outline of the hole, and a density range of the pixel to which the outline of the hole belongs. Accordingly, estimating a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs,
Obtaining a center position and a radius of the hole based on a density distribution of a pixel included in the outline of the hole and a pixel to which the outline of the hole belongs;
An image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014055423A JP6282907B2 (en) | 2014-03-18 | 2014-03-18 | Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014055423A JP6282907B2 (en) | 2014-03-18 | 2014-03-18 | Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015178961A true JP2015178961A (en) | 2015-10-08 |
JP6282907B2 JP6282907B2 (en) | 2018-02-21 |
Family
ID=54263117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014055423A Active JP6282907B2 (en) | 2014-03-18 | 2014-03-18 | Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6282907B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019168280A (en) * | 2018-03-22 | 2019-10-03 | 東レエンジニアリング株式会社 | Void inspection device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08210820A (en) * | 1995-02-01 | 1996-08-20 | Hitachi Denshi Ltd | Method and device for recognizing part to be inspected in visual inspection device of parts-mounted board |
JP2011107320A (en) * | 2009-11-16 | 2011-06-02 | Ushio Inc | Method for detecting alignment mark |
CN103389309A (en) * | 2012-05-11 | 2013-11-13 | 三星泰科威株式会社 | Method and apparatus for inspecting via hole |
JP2015112151A (en) * | 2013-12-09 | 2015-06-22 | 富士通株式会社 | Image processing device, image processing method and image processing program |
-
2014
- 2014-03-18 JP JP2014055423A patent/JP6282907B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08210820A (en) * | 1995-02-01 | 1996-08-20 | Hitachi Denshi Ltd | Method and device for recognizing part to be inspected in visual inspection device of parts-mounted board |
JP2011107320A (en) * | 2009-11-16 | 2011-06-02 | Ushio Inc | Method for detecting alignment mark |
CN103389309A (en) * | 2012-05-11 | 2013-11-13 | 三星泰科威株式会社 | Method and apparatus for inspecting via hole |
JP2013238582A (en) * | 2012-05-11 | 2013-11-28 | Samsung Techwin Co Ltd | Method and device for inspecting via hole |
JP2015112151A (en) * | 2013-12-09 | 2015-06-22 | 富士通株式会社 | Image processing device, image processing method and image processing program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019168280A (en) * | 2018-03-22 | 2019-10-03 | 東レエンジニアリング株式会社 | Void inspection device |
Also Published As
Publication number | Publication date |
---|---|
JP6282907B2 (en) | 2018-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107071258B (en) | Chromatic aberration correction in imaging systems comprising variable focus lenses | |
US9830694B2 (en) | Multi-level image focus using a tunable lens in a machine vision inspection system | |
JP2009262161A (en) | Correcting apparatus, correcting method, control device, and program | |
CN101666957B (en) | Automatic focal point regulation process in filming apparatus | |
JPH11317429A (en) | Improved method and device for direct probe sensing | |
US20170061209A1 (en) | Object processing method, reference image generating method, reference image generating apparatus, object processing apparatus, and recording medium | |
TW201019056A (en) | Testing method for alignment mark and device thereof | |
US20160088213A1 (en) | Inspection apparatus, coordinate detection apparatus, coordinate detection method, and wavefront aberration correction method | |
CN103247548B (en) | A kind of wafer defect checkout gear and method | |
JP5508734B2 (en) | Pattern drawing apparatus and pattern drawing method | |
CN110057839A (en) | Focusing control apparatus and method in a kind of Optical silicon wafer detection system | |
CN105093479A (en) | Automatic focusing method and device used for microscope | |
JP5371928B2 (en) | Defect inspection method and apparatus | |
JP6282907B2 (en) | Image processing apparatus, three-dimensional shape measuring apparatus, and image processing method | |
CN106556350B (en) | The measuring method and a kind of microscope of microscopic slide curved surface height value | |
JP2015102694A (en) | Alignment device, microscopic system, alignment method, and alignment program | |
KR100508994B1 (en) | Critical dimension measurement method and apparatus capable of measurement below the resolution of an optical microscope | |
WO2019180899A1 (en) | Appearance inspection device | |
JP6326243B2 (en) | Image processing apparatus and three-dimensional shape measuring apparatus | |
JP2011259502A (en) | Imaging apparatus | |
JP2008209295A (en) | Device for measuring size | |
JP2009092852A (en) | Height measurement device | |
JP2015210396A (en) | Aligment device, microscope system, alignment method and alignment program | |
US20220358631A1 (en) | Optical Measurement of Workpiece Surface using Sharpness Maps | |
JP5843179B1 (en) | Inspection apparatus and wavefront aberration correction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6282907 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |