JP6408893B2 - 3次元位置情報取得方法及び3次元位置情報取得装置 - Google Patents

3次元位置情報取得方法及び3次元位置情報取得装置 Download PDF

Info

Publication number
JP6408893B2
JP6408893B2 JP2014254341A JP2014254341A JP6408893B2 JP 6408893 B2 JP6408893 B2 JP 6408893B2 JP 2014254341 A JP2014254341 A JP 2014254341A JP 2014254341 A JP2014254341 A JP 2014254341A JP 6408893 B2 JP6408893 B2 JP 6408893B2
Authority
JP
Japan
Prior art keywords
image
region
optical system
observed
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014254341A
Other languages
English (en)
Other versions
JP2016114520A (ja
Inventor
石渡 裕
裕 石渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014254341A priority Critical patent/JP6408893B2/ja
Priority to US14/970,924 priority patent/US9995924B2/en
Publication of JP2016114520A publication Critical patent/JP2016114520A/ja
Priority to US15/977,280 priority patent/US10754139B2/en
Application granted granted Critical
Publication of JP6408893B2 publication Critical patent/JP6408893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Description

本発明は被観察物体の3次元位置情報を取得する方法及び3次元位置情報を取得する装置に関する。
被観察物体を観察する装置として、例えば、顕微鏡がある。顕微鏡光学系は、一般的に、物体側から順に、対物レンズ、開口絞り、結像レンズ、撮像素子を有する。また、対物レンズの光軸と結像レンズの光軸とが一致し、開口絞りの開口の中心も光軸に一致している。
図1は、このような一般的な光学系における光束の様子を示す図であって、(a)は光束の集光状態を示す図、(b)と(c)は撮像素子上に形成された点像強度分布の様子を示す図である。
軸上物点からの光を光学系で集光すると、図1(a)において破線で示すように位置P2で集光する。幾何光学的には、位置P2に形成される像は点になる。しかしながら、実際には、像は点にはならない。図1(a)において実線で示すように、回折現象によってある広がりを持つ。このように広がりを持つ像を、ここでは、点像強度分布という。
被観察物体の位置と光学系の合焦位置との間にずれが生じると、点像強度分布における広がりが変化する。ただし、被観察物体の光学系の合焦位置からのずれ量が光学系の像側の焦点深度よりも小さい量に相当する場合、点像強度分布の広がりは大きく変化しない。被観察物体の光学系の合焦位置からのずれ量を、物体側ずれ量という。像側の焦点深度を焦点深度という。
図1(a)では、点像強度分布の広がりが大きく変化しない範囲を、斜線で示している。図1(b)では、点像強度分布の広がりを斜線で示している。また、所定の画素領域を、4画素×4画素の領域とする。
被観察物体の位置と光学系の合焦位置とが一致している場合、被観察物体からの光は位置P2に集光する。一方、被観察物体の位置が光学系の合焦位置からずれている場合、被観察物体からの光は位置P2よりも位置P1側や、位置P2よりも位置P3側に集光する。物体側ずれ量が焦点深度よりも小さい量に相当する場合、被観察物体の像は、位置P1から位置P3までの間に形成される。
物体側ずれ量が焦点深度よりも小さい量に相当する場合、図1(b)に示すように、点像強度分布の広がりは、位置P1、位置P2及び位置P3の各々で所定の画素領域内に収まる。より詳しくは、点像強度分布の広がりを示す円は、所定の画素領域に内接している。
位置P1、位置P2及び位置P3は、いずれも、焦点深度内の位置である。よって、物体側ずれ量が焦点深度よりも小さい量に相当する場合、物体側ずれ量の変化は、点像強度分布の明るさ、すなわち被観察物体の像の明るさの変化として現れない。
被観察物体の表面に凹凸がある場合、凸部の高さや凹部の深さが、物体側ずれ量に相当する。よって、凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合、被観察物体の表面の凹凸の変化は、点像強度分布の明るさ、すなわち被観察物体の像の明るさの変化として現れない。
また、位置P1、位置P2及び位置P3の各々で、点像強度分布は撮像素子上の同じ場所に位置している。よって、物体側ずれ量が焦点深度よりも小さい量に相当する場合、一般的な光学系では、物体側ずれ量の変化は、点像強度分布の位置の変化、すなわち被観察物体の像の位置の変化として現れない。
上述のように、物体側ずれ量は、凸部の高さや凹部の深さに相当する。凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合、被観察物体の表面の凹凸の変化は、点像強度分布の位置の変化、すなわち被観察物体の像の位置の変化として現れない。よって、凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合、一般的な光学系では、凸部の高さや凹部の深さを検出することができないことがわかる。
図1(a)において、斜線で示した範囲の長さdをデフォーカス量とする。画素サイズで決まる焦点深度は、点像強度分布の広がりを示す円が所定の画素(4×4画素)領域を超えない範囲として示される。図1(a)に示すように、結像光学系の像側の開口数をNA’とすると、点像強度分布の半径φは以下の式(1)で表される。
φ=(d/2)×NA’ (1)
撮像素子の分解能は、画素の大きさに置き換えることができる。撮像素子の分解能の逆数は、2画素分の大きさに相当する。1画素分の大きさをdpixとすると、2画素分の大きさは2dpixになる。この場合、φを2画素分の大きさで置き換えることができるので、デフォーカス量は以下の式(2)で表される。
d=4dpix/NA’ (2)
また、λを波長、δOBSを結像光学系の分解能とすると、結像光学系の分解能は以下の式(3)で表される。
δOBS=λ/(2×NA’) (3)
結像光学系の分解能と撮像素子の分解能が等しい場合、つまり結像光学系のカットオフ周波数と撮像素子のナイキスト周波数が等しいとき、δOBSを2画素分の大きさで置き換えることができるので、結像光学系の分解能は以下の式(3’)で表される。
2dpix=λ/(2×NA’) (3’)
式(2)と式(3’)から、デフォーカス量は以下の式(4)で表される。
d=λ/NA’ (4)
結像光学系の焦点深度はλ/NA’で表されるので、画素サイズで決まる焦点深度は結像光学系の焦点深度と一致する。よって、結像光学系の分解能と撮像素子の分解能が等しい場合、観察系の焦点深度は、結像光学系の焦点深度又は画素サイズで決まる焦点深度で表すことができる。
結像光学系の分解能が撮像素子の分解能より低い場合、点像強度分布を所定の画素領域以上でサンプリングすることになる。この場合、観察系の焦点深度は、結像光学系の焦点深度であるλ/NA’で表すことができる。
結像光学系が顕微鏡の光学系の場合、対物レンズを交換することで結像光学系の倍率が変化する。倍率の変化に伴ってNA’も変化するので、結像光学系の分解能も変化する。対物レンズの交換によって結像光学系の倍率を低くすることで、倍率が高い場合に比べてNA’が大きくなる場合がある。NA’が大きくなると、結像光学系の分解能が撮像素子の分解能よりも高くなる。
結像光学系の分解能が撮像素子の分解能よりも高い場合と、結像光学系の分解能と撮像素子の分解能が等しい場合とで比較する。まず、結像光学系の焦点深度について比較する。
NA’は、結像光学系の分解能が撮像素子の分解能よりも高い場合の方が、結像光学系の分解能と撮像素子の分解能が等しい場合よりも大きくなる。よって、結像光学系の焦点深度は、結像光学系の分解能が撮像素子の分解能よりも高い場合の方が、結像光学系の分解能と撮像素子の分解能が等しい場合よりも狭くなる。
次に、焦点深度を決めるデフォーカス量について比較する。図1(b)と図1(c)を比べると分かるように、点像強度分布の広がりは、結像光学系の分解能が撮像素子の分解能よりも高い場合の方が、結像光学系の分解能と撮像素子の分解能が等しい場合よりも狭い。上述のように、画素サイズで決まる焦点深度は、点像強度分布の広がりを示す円が所定の画素領域を超えない範囲である。よって、画素サイズで決まる焦点深度は、結像光学系の分解能が撮像素子の分解能よりも高い場合の方が、結像光学系の分解能と撮像素子の分解能が等しい場合よりも大きくなる。
このようなことから、結像光学系の分解能が撮像素子の分解能よりも高い場合では、画素サイズで決まる焦点深度は結像光学系の焦点深度よりも大きくなる。よって、結像光学系の分解能が撮像素子の分解能よりも高い場合、観察系の焦点深度は、結像光学系の焦点深度ではなく、画素サイズで決まる焦点深度で表されることになる。
観察系の焦点深度は、結像光学系の分解能が撮像素子の分解能よりも高い場合の方が、結像光学系の分解能と撮像素子の分解能が等しい場合よりも大きくなる。そのため、結像光学系の分解能と撮像素子の分解能が等しい場合に検出可能な物体側ずれ量が、結像光学系の分解能が撮像素子の分解能よりも高い場合では検出できなくなる可能性がある。
被観察物体の様々な情報を取得する装置として、被観察物体からの光を全て用いる装置や、被観察物体からの光の一部を用いる装置がある。被観察物体からの光の一部を用いる装置としては、特許文献1に記載の装置がある。
特許文献1に記載の装置は、上述の一般的な光学系とは異なる光学系をもつオートフォーカス装置である。この装置では、対物レンズ系の射出瞳位置と略共役な位置に複数の開口が配置されている。開口は、対物レンズ系の光軸から離れた位置に設けられている。この装置では、合焦位置からのずれ量を算出できる。そこで、この装置を利用すれば、被観察物体の高さ情報を得ることができる。
特開2013−235110号公報
特許文献1に記載された装置では、合焦位置からのずれ量は、被観察物体の1点についてしか算出できない。被観察物体の全体について高さ情報を得るためには、被観察物体と光学系を相対的に移動させてなくてはならい。そのため、移動機構が必要となり、また、3次元位置情報の取得に要する時間が長くなる。
本発明は、このような課題に鑑みてなされたものであって、被観察物体の光学系の合焦位置からのずれ量が光学系の焦点深度よりも小さい量に相当する場合であっても、このずれ量を効率よく検出することができ、光軸方向に高い分解能を有する3次元位置情報取得方法及び3次元位置情報取得装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の3次元位置情報取得方法は、
第1の像の画像を取得する第1の取得工程と、
第1の取得工程の後に第2の像の画像を取得する第2の取得工程と、
第1の像の画像データと第2の像の画像データを用いて所定の演算を行う工程と、を有し、
第1の取得工程は、第1の領域を通過した光束に基づいて実行され、
第2の取得工程は、第2の領域を通過した光束に基づいて実行され、
光学系の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れており、
第1の領域と第2の領域は、互いに重複しない領域を少なくとも有し、
所定の演算では、被観察物体の3次元位置情報を算出し、
第1の領域と第2の領域は、回転対称な位置に形成され、
所定の演算は、第1の画像のデータと第2の画像のデータを用いて差演算処理を行う工程を有し、
差演算処理によって、差演算画像が生成され、
差演算画像を複数の計測領域に分割する工程と、
計測領域の各々について、領域内における差演算画像をフーリエ変換する工程と、を有し、
フーリエ変換によって、計測領域の各々においてフーリエ係数が算出されることを特徴とする。
また、本発明の3次元位置情報取得装置は、
光源と、
光源からの光を被観察物体に導光する照明光学系と、
被観察物体の像を形成する結像光学系と、
被観察物体の像を撮像する撮像素子と、
開口素子と、
撮像で得た画像を演算処理する処理装置と、
開口素子を動かす駆動機構と、を有し、
開口素子は、被観察物体の各点からの光のうちの一部を通過させる開口部を有し、
開口部を第1の位置に移動させることで第1の領域が形成され、開口部を第2の位置に移動させることで第2の領域が形成され、
演算処理は、
第1の像の画像を取得する第1の取得工程と、
第1の取得工程の後に第2の像の画像を取得する第2の取得工程と、
第1の像の画像データと第2の像の画像データを用いて、所定の演算を行う工程とを有し、
第1の取得工程は、第1の領域を通過した光束に基づいて実行され、
第2の取得工程は、第2の領域を通過した光束に基づいて実行され、
光学系の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れており、
第1の領域と第2の領域は、互いに重複しない領域を少なくとも有し、
所定の演算では、被観察物体の3次元位置情報を算出し、
第1の領域と第2の領域は、回転対称な位置に形成され、
所定の演算は、第1の画像のデータと第2の画像のデータを用いて差演算処理を行う工程を有し、
差演算処理によって、差演算画像が生成され、
差演算画像を複数の計測領域に分割する工程と、
計測領域の各々について、領域内における差演算画像をフーリエ変換する工程と、を有し、
フーリエ変換によって、計測領域の各々においてフーリエ係数が算出されることを特徴とする。
本発明によれば、被観察物体の光学系の合焦位置からのずれ量が光学系の焦点深度よりも小さい量に相当する場合であっても、このずれ量を効率よく検出することができ、光軸方向に高い分解能を有する3次元位置情報取得方法及び3次元位置情報取得装置を提供することができる。
一般的な光学系における光束の様子を示す図であって、(a)は光束の集光状態を示す図、(b)と(c)は撮像素子上に形成された点像強度分布の様子を示す図である。 偏心状態における光束の様子を示す図であって、(a)は光束の集光状態を示す図、(b)、(c)及び(d)は撮像素子上に形成された点像強度分布の様子を示す図である。 偏心状態を生成するための光学系の構成例であって、(a)は第1の領域を通過した光束を示す図、(b)は第2の領域を通過した光束を示す図、(c)は第1の領域と第2の領域を示す図である。 画像の例であって、(a)は第1の画像、(b)は第2の画像である。 本実施形態の3次元位置情報取得方法のフローチャートである。 本実施形態の3次元位置情報取得方法のフローチャートである。 高さ情報を算出する第2の方法を説明するための図である。 本実施形態の3次元位置情報取得方法のフローチャートである。 本実施形態の3次元位置情報取得方法のフローチャートである。 計測領域の設定例を示す図である。 本実施形態の3次元位置情報取得方法のフローチャートである。 本実施形態の3次元位置情報取得方法のフローチャートである。 計測領域をフーリエ変換し、式(14)の演算を行った結果の画像であって、(a)は2次元の画像、(b)は(a)でY方向の空間周波数が0である1列の情報を示す画像である。 図13(b)のフーリエ係数の断面図とそのフーリエ係数を近似した直線を表す図である。 第1実施形態の3次元位置情報取得装置を示す図である。 第2実施形態の3次元位置情報取得装置を示す図である。 第3実施形態の3次元位置情報取得装置を示す図である。 第4実施形態の3次元位置情報取得装置を示す図である。 3次元位置情報取得方法の応用例1を説明する図であって、(a)は物体側のずれ量をδFで階層化する様子を示す図、(b)は被観察物体の形状を示す図、(c)は2値化した3次元画像情報を示す図である。 3次元位置情報取得方法の応用例2を説明する図であって、(a)は被観察物体の第1段目の面が合焦位置と一致している様子とそのときの画像を示す図、(b)は被観察物体の第2段目の面が合焦位置と一致している様子とそのときの画像を示す図、(c)被観察物体の第3段目の面が合焦位置と一致している様子とそのときの画像を示す図である。
以下に、本発明に係る3次元位置情報取得方法及び3次元位置情報取得装置の実施形態を、図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
本実施形態の3次元位置情報取得方法及び3次元位置情報取得装置を説明する前に、簡単に基本的な原理の説明を行う。原理の説明では第1の領域と第2の領域を用い、第1の領域の中心と第2の領域の中心が、共に、光学系の光軸と一致していない状態(以下、「偏心状態」という)について説明する。以下では、第1の領域を使って説明する。
図2は偏心状態における光束の様子を示す図であって、(a)は光束の集光状態を示す図、(b)、(c)及び(d)は撮像素子上に形成された点像強度分布の様子を示す図である。
図2(a)では、点像強度分布の広がりが大きく変化しない範囲を、斜線で示している。図2(b)〜(d)では、点像強度分布の広がりを斜線で示している。また、所定の画素領域を、4画素×4画素の領域とする。
被観察物体の位置と光学系の合焦位置とが一致している場合、被観察物体からの光は位置P2に集光する。一方、被観察物体の位置が光学系の合焦位置からずれている場合、被観察物体からの光は位置P2よりも位置P1側や、位置P2よりも位置P3側に集光する。
物体側ずれ量が焦点深度よりも小さい量に相当する場合、偏心状態では、図2(b)〜(d)に示すように、点像強度分布の広がりは、位置P1、位置P2及び位置P3の各々で、所定の画素領域内に収まる。より詳しくは、点像強度分布の広がりを示す円は、所定の画素領域に内接している。
位置P1、位置P2及び位置P3は、いずれも、焦点深度内の位置である。よって、物体側ずれ量が焦点深度よりも小さい量に相当する場合、偏心状態では、物体側ずれ量の変化は、点像強度分布の明るさ、すなわち被観察物体の像の明るさの変化として現れない。
被観察物体の表面に凹凸がある場合、凸部の高さや凹部の深さが、物体側ずれ量に相当する。よって、凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合、偏心状態では、被観察物体の表面の凹凸は、点像強度分布の明るさ、すなわち被観察物体の像の明るさの変化として現れない。
一方、位置P1の点像強度分布と位置P3の点像強度分布は、共に、位置P2の点像強度分布に対して|Δ|だけ移動している。ここでは、Δ=2画素である。点像強度分布の移動方向は、位置P2から位置P3への移動と位置P2から位置P1への移動とで、正反対になっている。よって、物体側ずれ量が焦点深度よりも小さい量に相当する場合、偏心状態では、物体側ずれ量の変化は、点像強度分布の位置の変化、すなわち被観察物体の像の位置の変化として現れる。
上述のように、物体側ずれ量は、凸部の高さや凹部の深さに相当する。凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合、偏心状態では、被観察物体の表面の凹凸の変化は、点像強度分布の位置の変化、すなわち被観察物体の像の位置の変化として現れる。よって、凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合、偏心状態では、凸部の高さや凹部の深さを検出することができる。
結像光学系によって被観察物体の像を形成し、その像を撮像素子で受光する場合、結像光学系の分解能と撮像素子の分解能を考慮する必要がある。結像光学系と撮像素子で構成される系を、観察系とする。
物体側のずれ量を被観察物体の像の明るさの変化として捉える方法では、物体側ずれ量が観察系の焦点深度よりも小さい量に相当する場合だと、上述の一般的な光学系であっても偏心状態であっても、その物体側ずれ量を検出できない。
一方、被観察物体の像の移動を捉える方法では、物体側ずれ量が観察系の焦点深度よりも小さい量に相当する場合、上述の一般的な光学系ではその物体側ずれ量を検出できないが、偏心状態だとその物体側ずれ量を検出できる。
また、結像光学系の分解能が撮像素子の分解能よりも高い場合では、結像光学系の分解能と撮像素子の分解能が等しい場合よりも観察系の焦点深度が大きくなる。そのため、小さな物体側ずれ量の検出が、結像光学系の分解能と撮像素子の分解能が等しい場合よりも難しくなる。
しかしながら、偏心状態だと、図2(b)〜(d)に示すように、Δが1画素以上になれば、点像強度分布の位置の変化、すなわち被観察物体の像の位置の変化を検出することができる。よって、偏心状態であれば、結像光学系の分解能が撮像素子の分解能よりも高い場合であっても、物体側ずれ量を検出することができる。
上述のように、物体側ずれ量は、凸部の高さや凹部の深さに相当する。凸部の高さや凹部の深さが観察系の焦点深度よりも小さい量に相当する場合、偏心状態では、被観察物体の表面の凹凸の変化は、点像強度分布の位置の変化、すなわち被観察物体の像の位置の変化として現れる。
よって、凸部の高さや凹部の深さが焦点深度よりも小さい量に相当する場合で、しかも結像光学系の分解能が撮像素子の分解能よりも高い場合であっても、偏心状態であれば、凸部の高さや凹部の深さを検出することができる。
図3は偏心状態を生成するための光学系の構成例であって、(a)は第1の領域を通過した光束を示す図、(b)は第2の領域を通過した光束を示す図、(c)は第1の領域と第2の領域を示す図である。
結像光学系OBSは、レンズL1と、レンズL2と、開口素子STOと、を有する。結像光学系OBSが顕微鏡の光学系の場合、レンズL1は対物レンズ、レンズL2は結像レンズである。結像光学系OBSを挟んで一方の側には被観察物体Sが位置し、他方の側には撮像素子IMが配置されている。撮像素子IMは、物体側ずれ量が0のときの被観察物体Sの像位置に配置されている。
開口素子STOは、被観察物体Sから被観察物体Sの像までの間に配置されている。より詳しくは、開口素子STOは、レンズL1とレンズL2との間に配置されている。開口素子STOの形状は円形であるが、これに限られない。開口素子STOは開口部APを有する。開口部APは、開口素子STOの中心から離れた位置に設けられている。開口部APの形状は円形であるが、これに限られない。
図3(a)、(b)では、軸上物点からの光を実線で示し、軸外物点からの光を破線で示している。軸上物点からの光と軸外物点からの光は、レンズL1に通過して開口素子STOに到達する。開口素子STOに到達した光束LFのうち、一部の光束が開口部APを通過し、残りの光束は開口素子STOで遮られる。開口部APを通過した光束はレンズL2を通過して、撮像素子IM上に集光する。その結果、撮像素子IM上に被観察物体Sの像が形成される。
図3(a)では、開口部APは光軸AXよりも上側に位置している。一方、図3(b)では、開口部APは光軸AXよりも下側に位置している。その結果、図3(c)に示すように、第1の領域AR1と第2の領域AR2が形成される。
開口部APは、開口素子STOに1つしか設けられていない。そのため、第1の領域AR1と第2の領域AR2は同時には存在しない。開口素子STOを光軸AXの周りに回転させ、2つの位置で回転を停止することで、第1の領域AR1と第2の領域AR2が形成される。
図3(c)では、第1の領域AR1の位置と第2の領域AR2の位置は光軸AXに対して回転対称になっているが、両者の位置は回転対称になっていなくても良い。
開口部APの中心位置は光軸AXから離れている。よって、結像光学系OBSの光軸AXと直交する面内で、第1の領域AR1の中心位置と第2の領域AR2の中心位置も、共に、光軸AXから離れている。
第1の領域の形状が円形の場合、第1の領域の中心位置は円の中心になる。第1領域の形状が正多角形の場合、第1の領域の中心位置は、正多角形に内接する円の中心又は外接する円の中心になる。第1の領域の形状が直交する2つの軸について線対称な形状の場合、第1の領域の中心位置は2つの軸の交点になる。また、第1の領域の重心位置を、中心位置としても良い。第2の領域の中心位置についても、第1の領域の中心位置と同じように考えれば良い。
また、開口部APの直径は開口素子STOの半径よりも小さく、開口部APは光軸AXを含んでいない。よって、第1の領域AR1と第2の領域AR2は、互いに重複していない。開口部APの直径を大きくして、開口部APが光軸AXを含むようにしても良い。このようにしても、開口部APの中心位置は光軸AXから離れているので、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有する。
また、被観察物体Sを挟んで、結像光学系OBSと対向する位置に照明光学系を配置して、照明光学系に開口素子STOを配置しても良い。この場合も、開口部APの中心位置は照明光学系の光軸から離れている。よって、照明光学系の光軸と直交する面内で、第1の領域AR1の中心位置と第2の領域AR2の中心位置も、共に、照明光学系の光軸から離れている。
開口素子STOは、軸上物点からの光と軸外物点からの光が、共に通過する位置に配置されることが好ましい。このような位置としては、結像光学系OBSの瞳位置、又は瞳と共役な位置がある。照明光学系の瞳位置、又は瞳と共役な位置に開口素子STOを配置しても良い。照明光学系の瞳位置は、結像光学系OBSの瞳と共役な位置とみなすことができる。
開口素子STOの配置は、瞳位置又は瞳と共役な位置と厳密に一致している必要はない。光学系の瞳リレーの収差を考慮すると、開口素子STOは、瞳位置の近傍又は瞳と共役な位置の近傍に配置されていれば良い。
結像光学系OBSの瞳位置に開口素子STOを配置すると、偏心状態になる。図2で示したように、偏心状態では、物体側ずれ量が焦点深度よりも小さい量に相当する場合であっても、被観察物体Sの像が光軸AXと直交する面内でΔだけ移動する。開口素子STOを光軸AXの周りに回転させると、開口部APの位置に応じて被観察物体Sの像の移動方向が変化する。
そこで、開口部APを第1の位置に移動させて、第1の領域を通過した光束を生成し、第1の像の画像を取得する。次に、第1の位置とは異なる位置に第2の位置に開口部APを移動させて、第2の領域を通過した光束を生成し、第2の像の画像を取得する。
図4は画像の例であって、(a)は第1の画像、(b)は第2の画像である。第1の画像と第2の画像は、同じ被観察物体を蛍光観察したときの画像である。被観察物体は、細胞の集合体である。図4では、細胞の集合体の輪郭が線画で表されている。
図4における第1の画像と第2の画像の取得は、開口部APを光軸AXに対して回転対称な2つの位置に移動させて行っている。第1の領域AR1の位置と第2の領域AR2の位置を、光軸AXに対して回転対称な位置にすると、第1の画像と第2の画像の各々には、絶対値が等しく、方向が正反対の画像のずれが発生している。画像に発生したずれ量は、物体側ずれ量に対応した量である。このように、第1の像の画像と第2の像の画像には、共に、被観察物体Sの3次元位置情報が含まれている。
本実施形態の3次元位置情報取得方法及び3次元位置情報取得装置を説明する。本実施形態の3次元位置情報取得方法は、第1の像の画像を取得する第1の取得工程と、第1の取得工程の後に第2の像の画像を取得する第2の取得工程と、第1の像の画像データと第2の像の画像データを用いて所定の演算を行う工程と、を有し、第1の取得工程は、第1の領域を通過した光束に基づいて実行され、第2の取得工程は、第2の領域を通過した光束に基づいて実行され、光学系の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れており、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有し、所定の演算では、被観察物体の3次元位置情報を算出することを特徴とする。
本実施形態の3次元位置情報取得方法のフローチャートを図5に示す。ステップS1は第1の取得工程である。第1の取得工程では、第1の像の画像を取得する。この取得は、被観察物体の各点からの光のうち、第1の領域を通過した光束に基づいて行われる。
ステップS2は第2の取得工程である。第2の取得工程は、第1の取得工程を実行した後に行われる。第2の取得工程では、第2の像の画像を取得する。この取得は、被観察物体の各点からの光のうち、第2の領域を通過した光束に基づいて行われる。
本実施形態の3次元位置情報取得方法では、光学系の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有する。よって、第1の領域の中心と第2の領域の中心は、共に、光学系の光軸と一致していない状態になる。
続いて、テップ3を実行する。ステップ3は所定の演算を行う工程である。所定の演算では、第1の画像データ(第1の像の画像データ)と第2の画像データ(第2の像の画像データ)が用いられる。第1の像の画像と第2の像の画像には、共に、被観察物体Sの3次元位置情報が含まれている。よって、所定の演算を行うことで、被観察物体Sの3次元位置情報が算出される。
本実施形態の3次元位置情報取得方法によれば、被観察物体の光学系の合焦位置からのずれ量が光学系の焦点深度よりも小さい量に相当する場合であっても、このずれ量を効率よく検出できるので、高い分解能で3次元位置情報を取得することができる。
また、本実施形態に係る3次元位置情報取得方法では、第1の領域と第2の領域は、回転対称な位置に形成されていることが好ましい。
開口部APを光軸AXに対して回転対称な2つの位置に移動させると、第1の領域AR1と第2の領域AR2は、回転対称な位置に形成されることになる。この場合、第1の画像と第2の画像の各々には、絶対値が等しく、方向が正反対の画像のずれが発生している。その結果、所定の演算における処理、例えば、合焦位置からのずれ量を求める処理が容易になる。
また、本実施形態に係る3次元位置情報取得方法では、所定の演算は、第1の画像のデータと第2の画像のデータを用いて差演算処理を行う工程を有し、差演算処理によって、差演算画像が生成されることが好ましい。
本実施形態の3次元位置情報取得方法のフローチャートを図6に示す。図5に示す工程と同じ工程には同じ番号を付し、説明は省略する。ステップS31は、差演算処理を行う工程である。差演算処理を行う工程では、第1の画像のデータと第2の画像のデータを用いて差演算処理が行われる。差演算処理を実行することで、差演算画像が生成される。
第1の画像と第2の画像は、それぞれ、同一の画像が+Δだけ横ずれしたものと−Δだけ横ずれしたものである。よって、差演算画像は、Δに対応した被観察物体の微分画像になる。このように、差演算処理を行うことで、被観察物体の微分画像が形成される。そして、微分干渉顕微鏡の像コントラストがシァー量(2つの偏光のずれ量)ΔDICの関数として表されるのと同様に、この微分画像の像コントラストもΔの関数として表される。
差演算画像から被観察物体の3次元位置情報を算出する方法の例として、2つの方法を説明する。
3次元位置情報を算出する第1の方法について説明する。差演算画像の像コントラストが0になっている部分では、Δが0になっている。これは、この部分では、物体側ずれ量δzが0になっていることを意味している。そこで、以下の3つの画像を用意する。(I)差演算画像そのもの、(II)差演算画像の絶対値をとった画像、(III)差演算画像にソーベルフィルターで処理した画像。
そして、3つの画像の各画素値が0近傍の値になる画素領域を抽出する。このようにすることで、被観察物体の各点の中から、結像光学系の合焦位置と一致している点を抽出することができる。
そこで、被観察物体の位置と結像光学系の位置を光軸方向で相対的に変化させて、各位置で、以下の(i)〜(iii)を繰り返し行うことで、被観察物体の3次元位置情報を取得することができる。(i)第1の画像と第2の画像の取得、(ii)差演算処理、(iii)3つの画像の少なくとも1つの画像を選択し、その画像の各画素が0近傍の値になる画素領域の抽出。
このように、第1の方法では、従来の像コントラストから求める方法に比べて、光軸方向の位置情報を高精度に得ることが可能になる。
3次元位置情報を算出する第2の方法について説明する。第1の方法では、Δが0になっている部分を抽出して、被観察物体の3次元位置情報を取得している。しかしながら、物体側ずれ量と点像強度分布の移動量との間には一意的な関係がある。よって、点像強度分布の移動量を物体側ずれ量に換算することが可能である。
図7は、高さ情報を算出する第2の方法を説明するための図である。図3と同じ構成については同じ番号を付し、説明は省略する。図7に示すように、結像光学系OBSの瞳位置に開口素子STOを配置すると、被観察物体Sからの光のうち、開口部APを通過した光だけが撮像素子IMに入射する。
図7において、位置POは、結像光学系OBSの合焦位置である。位置PO’は、結像光学系OBSの合焦位置からずれた位置である。位置POと位置PO’との間隔δzは、物体側ずれ量になる。
光線LC、光線LU及び光線LLは、いずれも位置POからの光である。光線LCは、開口APを通過した光束の中心の光線である。光線LUは、開口部APを通過した光束において、光軸AXから最も離れた位置を通過する光線である。光線LLは、開口部APを通過した光束において、光軸AXに最も近い位置を通過する光線である。光線LC’は位置PO’からの光である。光線LC’は、開口部APを通過した光束の中心の光線である。
NAは、結像光学系OBSの物体側の開口数で、NA’は、結像光学系OBSの像側の開口数である。NAは、レンズL1に入射する光線LUと光線LCとのなす角度により決まる。NA’は、レンズL2から出射する線LUと光線LCとのなす角度により決まる。Ωは、レンズL1に入射する光線LCと光軸AXとのなす角度、ωは、レンズL2から出射する光線LCと光軸AXとのなす角度である。
位置PIは、位置POと共役な位置である。位置PIには撮像素子IMが配置されている。位置PI’は、位置PO’と共役な位置である。位置PI’は、像位置PIからずれた位置である。位置PIと位置PI’との間隔βδzは、像側ずれ量になる。βは結像光学系OBSの倍率である。
被観察物体Sの位置が位置POと一致している場合、被観察物体Sの位置と結像光学系OBSの合焦位置との間にずれは生じていない。この場合、光線LU、LC及びLLで示すように、被観察物体Sからの光は位置PIで集光する。一方、被観察物体Sの位置が位置PO’と一致している場合、被観察物体Sの位置と結像光学系OBSの合焦位置との間にずれが生じている。この場合、光線LC’で示すように、被観察物体Sからの光は位置PI’で集光する。
位置POでは、被観察物体Sからの光線LCは、角度Ωで結像光学系OBSに入射する。ここで、被観察物体Sがδzだけ結像光学系OBSから遠ざかると、被観察物体Sからの光は光線LC’になる。位置POでは、光線LC’は光軸AXからhだけ離れた位置を通過する。hは以下の式(5)で表される。
h=δz×tanΩ (5)
ここで、
hは、位置POにおける光線LC’の高さ、
である。
式(5)に示すように、被観察物体Sのδzのずれは、位置POにおける物点OBが、光軸AXと直交する方向にhだけ移動したことと等価になる。
光線LC’は、結像光学系OBSを通過した後、位置PI’で光軸AXと交差して、位置PIに到達する。位置PIには撮像素子IMが配置されている。撮像素子IM上での光線LC’の入射位置は、光軸AXからh’だけ離れた位置になる。h’は以下の式(6)で表される。
h’=β×h=β×δz×tanΩ (6)
ここで、
h’は、位置PIにおける光線LC’の高さ、
である。
βδzが結像光学系OBSの焦点深度よりも小さい場合であっても、式(6)は成立する。h’=Δであることから、式(6)は以下の式(7)で表される。
Δ=β×δz×tanΩ (7)
ここで、
Δは、光軸と直交する面内における点像強度分布の移動量、
である。
したがって、撮像素子IMにおいて、ある画素でのΔが検出できれば、その画素に対応した被観察物体Sにおける位置のδzを求めることができる。その結果、被観察物体Sにおける3次元位置情報(x,y,δz)を求めることができる。
位相限定相関法では、第1の画像と第2の画像から、被観察物体Sの像(点像強度分布)の相対的な移動量を求めることは可能である。しかしながら、位相限定相関法では、一方の画像に対する他方の画像の移動方向は求めることはできない。よって、位相限定相関法では、被観察物体Sが合焦位置に対して前後のどちら側に位置しているかを求めることができない。
これに対して、本実施形態に係る3次元位置情報取得方法では、一方の画像に対する他方の画像の移動方向を求めることができる。第1の画像と第2の画像には、被観察物体Sの像の移動量と移動方向の情報が含まれている。そこで、第1の画像のデータと第2の画像のデータを用いて差演算処理を行い、差演算画像を形成する。
第1の画像と第2の画像には、被観察物体Sの像の移動方向の情報が含まれている。よって、差演算画像では、被観察物体Sの像の移動方向に応じて像コントラストが変化する。結像光学系OBSの合焦位置に対する被観察物体Sのずれの方向に応じて、被観察物体Sの像の移動方向が変化する。そこで、差演算画像の像コントラストの変化から、被観察物体Sの像の移動量を、移動方向も含めて求めることにより、被観察物体が合焦位置に対して前後のどちら側にずれているかを求めることができる。
このように、差演算画像の像コントラストを解析することにより、物体側ずれ量として被観察物体Sの3次元位置情報(x,y,δz)を求めることができる。また、物体側ずれ量が結像光学系OBSの焦点深度を超える量に相当する場合は、被観察物体Sと結像光学系OBSの相対距離を変化させれば良い。すなわち、光軸に沿う方向で走査を行えば良い。このようにすることで、物体側ずれ量が結像光学系OBSの焦点深度を超える量に相当する場合であっても、3次元位置情報の取得が可能になる。
また、本実施形態に係る3次元位置情報取得方法では、所定の演算は、差演算画像をフーリエ変換する工程を有することが好ましい。
本実施形態の3次元位置情報取得方法のフローチャートを図8に示す。図6に示す工程と同じ工程には同じ番号を付し、説明は省略する。ステップS32は、差演算画像をフーリエ変換する工程である。
被観察物体が蛍光標本である場合を例に説明する。被観察物体の蛍光像の強度分布は、以下の式(8)で表される。説明を簡略化するために1次元モデルを用いている。
ここで、
は、空間周波数、
I(x)は、蛍光像の強度分布、
M(f)は、結像光学系の伝達関数、
O(f)は、蛍光の発光分布o(x)のフーリエ変換、
である。
第1の画像と第2の画像を用いて差演算を行うと、差演算画像における像強度分布は以下の式(9)で表せる。
ここで、
+Δ(x)は、第1の画像の像強度分布、
−Δ(x)は、第2の画像の像強度分布、
である。
また、第1の画像と第2の画像を用いて和演算を行うと、和演算画像における像強度分布は以下の式(10)で表せる。
差演算画像の像強度分布と和演算画像の像強度分布の各々を、フーリエ変換する。フーリエ変換後の強度分布は、それぞれ、以下の式(11)、(12)で表される。ここでF[ ]はフーリエ変換を表す演算子である。
差演算画像をフーリエ変換することで、3次元位置情報が三角関数で表される。よって、容易に3次元位置情報を取得することができる。
また、本実施形態に係る3次元位置情報取得方法は、差演算画像を複数の計測領域に分割する工程と、計測領域の各々について、領域内における差演算画像をフーリエ変換する工程と、を有し、フーリエ変換によって、計測領域の各々においてフーリエ係数が算出されることが好ましい。
本実施形態の3次元位置情報取得方法のフローチャートを図9に示す。図5に示す工程と同じ工程には同じ番号を付し、説明は省略する。ステップS33は、差演算画像を複数の計測領域に分割する工程である。ステップS34は、各計測領域の各々について、領域内における差演算画像をフーリエ変換する工程である。
計測領域の設定例を図10に示す。差演算画像SIMは、複数の細胞の集合体の画像である。本実施形態に係る3次元位置情報取得方法では、差演算画像SIMを複数の計測領域に分割する。図10には、分割された1つの計測領域MAが示されている。この計測領域MAに対して、式(11)と式(12)を用いてフーリエ変換を行う。フーリエ変換によって、計測領域MAにおいてフーリエ係数が算出される。
本実施形態の3次元位置情報取得方法では、差演算画像SIM内の任意の位置に計測領域MAを設定し、設定した位置で計測領域MAの領域内における差演算画像をフーリエ変換する。次に、別の位置に計測領域MAを移動させ、移動させた位置で計測領域MAの領域内における差演算画像をフーリエ変換する。このように、計測領域MAの移動と移動した位置でのフーリエ変換を繰り返し行う。このようにすることで、差演算画像を複数の計測領域に分割することと同等の作用効果が得られる。
差演算画像を複数の計測領域に分割し、計測領域を差演算画像内で走査することで、XY面内の分解能を向上させることができる。その結果、高い分解能で3次元位置情報を取得することができる。
また、本実施形態の3次元位置情報取得方法は、フーリエ係数のうち、空間周波数が所定の帯域内のフーリエ係数を抽出する工程を有し、抽出したフーリエ係数を用いて、計測領域に対応する被観察物体の領域について、3次元位置情報を算出することが好ましい。
本実施形態の3次元位置情報取得方法のフローチャートを図11に示す。図9に示す工程と同じ工程には同じ番号を付し、説明は省略する。ステップS35は、フーリエ係数のうち、空間周波数が所定の帯域内のフーリエ係数を抽出する工程である。ステップS36では、フーリエ係数のうち、空間周波数が所定の帯域内のフーリエ係数を抽出し、抽出したフーリエ係数を用いて、計測領域に対応する被観察物体の領域について、3次元位置情報を算出する。
フーリエ変換を行うことで、フーリエ係数が求まる。式(11)の虚部Im{ }と式(12)の実部Re{ }の比を求めると、以下の式(13)が得られる。
式(13)は、差演算画像におけるフーリエ係数と、和演算画像におけるフーリエ係数との比を取ったものである。更に式(13)のアークタンジェントを求めると、以下の式(14)が得られる。
このように、式(14)に基づいて、フーリエ変換後のスペクトル画像(フーリエ空間での画像)の各画素値から近似的にΔfが求まる。式(14)におけるΔは画素数を単位とした値である。一方、物体側ずれ量は長さを単位とした値である。撮像素子の1つの画素の大きさは、μm等の長さの単位で表されるので、画素の大きさと画素数から、物体側ずれ量を長さの単位として求めることができる。
計測領域の画像をフーリエ変換すると、計測領域のフーリエ係数が求まる。計測領域内の各画素には電気的なノイズを含め様々なノイズ成分が含まれていることがある。このノイズ成分は画素単位で独立的に含まれることから、フーリエ変換されると高い空間周波数成分に多く含まれてくる。一方、ノイズの影響は低い空間周波数成分では小さくなる。したがって、低い空間周波数成分を用いてΔを求めることでノイズの影響が低減される。
そこで、所定の帯域を設定して、空間周波数が所定の帯域内のフーリエ係数を抽出する。設定する帯域を、空間周波数が0に近い帯域とすることで、空間周波数が低いフーリエ係数を抽出することができる。その結果、ノイズが少なく、正確な3次元位置情報を取得することができる。
また、本実施形態の3次元位置情報取得方法では、抽出したフーリエ係数を直線近似し、近似した直線の傾きを算出する工程を有し、傾きから被観察物体の3次元位置情報を算出することが好ましい。
本実施形態の3次元位置情報取得方法のフローチャートを図12に示す。図11に示す工程と同じ工程には同じ番号を付し、説明は省略する。ステップS36は、抽出したフーリエ係数を直線近似し、近似した直線の傾きを算出する工程である。ステップ36では、抽出したフーリエ係数を直線近似し、近似した直線の傾きから被観察物体の3次元位置情報を算出する。
直線近似の例を示す。図13は、計測領域をフーリエ変換し、式(14)の演算を行った結果の画像であって、(a)は2次元の画像、(b)は(a)の矢印で示している、Y方向の空間周波数が0である1列の情報を示す画像である。図14は、図13(b)のフーリエ係数の断面図とそのフーリエ係数を近似した直線を表す図である。
計測領域MAの領域内における差演算画像をフーリエ変換することで、計測領域MAのフーリエ係数が求まる。更に、フーリエ変換を用いて、式(13)と式(14)の処理を行い、計測領域MAのフーリエ係数を演算した結果を直線近似することで、直線の傾きからΔが求まる。
上述のように、空間周波数が低いフーリエ係数を用いると、ノイズが少なく、正確な3次元位置情報を取得することができる。ステップ35では、空間周波数が所定の帯域内のフーリエ係数が抽出されている。そこで、図14に示すように、抽出したフーリエ係数を直線近似し、近似した直線の傾きを算出する。この傾きは、差演算を行った2つの画像の計測領域MAにおける横ずれ量に相当する。横ずれ量が求まると、式(7)からδzを求めることができる。よって、この傾きは、3次元位置情報に対応している。
図14で求めた直線の傾きは、図13(b)に示した16の画素のうちの中央の画素(0周波数)近傍における傾きとみなすことができる。図14では、1列の画素のフーリエ係数を使って、空間周波数が所定の帯域内のフーリエ係数の抽出と、抽出したフーリエ係数の直線近似を行っている。しかしながら、Y方向の周波数が0前後の複数列の画素を使って平均化を行い、平均化した画素のフーリエ係数を使っても良い。このようにすることで、ノイズの少ない結果が得られる。
画像内の任意の位置に計測領域MAを設定し、設定した位置で、空間周波数が所定の帯域内のフーリエ係数の抽出と、抽出したフーリエ係数の直線近似と、近似した直線の傾きの算出を行う。そして、算出した傾きを、計測領域MAの中央の画素における傾きにする。次に、別の位置に計測領域MAを移動させ、移動した位置で、空間周波数が所定の帯域内のフーリエ係数の抽出と、抽出したフーリエ係数の直線近似と、近似した直線の傾きの算出を行う。そして、算出した傾きを、計測領域MAの中央の画素における傾きにする。このように、計測領域MAの移動と移動した位置での処理を繰り返し行う。その結果、画像の画素に対応した傾きが求まる。
本実施形態の3次元位置情報取得方法では、各画素における傾きから各画素での横ずれ量が符号の正負を含めて求まる。そのため、δzについても、合焦位置に対して前後のどちらにずれているかを含めてδzを求めることができる。そして、このδzと画素の位置情報から3次元位置情報を求めている。このようなことから、本実施形態の3次元位置情報取得方法によれば、ノイズが少なく、より正確な3次元位置情報を取得することができる。
また、本実施形態の3次元位置情報取得装置は、光源と、光源からの光を被観察物体に導光する照明光学系と、被観察物体の像を形成する結像光学系と、被観察物体の像を撮像する撮像素子と、開口素子と、撮像で得た画像を演算処理する処理装置と、開口素子を動かす駆動機構と、を有し、開口素子は、被観察物体の各点からの光のうちの一部を通過させる開口部を有し、開口部を第1の位置に移動させることで第1の領域が形成され、開口部を第2の位置に移動させることで第2の領域が形成され、演算処理は、第1の像の画像を取得する第1の取得工程と、第1の取得工程の後に第2の像の画像を取得する第2の取得工程と、第1の像の画像データと第2の像の画像データを用いて所定の演算を行う工程と、を有し、第1の取得工程は、第1の領域を通過した光束に基づいて実行され、第2の取得工程は、第2の領域を通過した光束に基づいて実行され、光学系の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れており、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有し、所定の演算では、被観察物体の3次元位置情報を算出することを特徴とする。
第1実施形態の3次元位置情報取得装置について説明する。図15は第1実施形態の3次元位置情報取得装置を説明するための図であって、(a)は3次元位置情報取得装置を示す図、(b)は開口部の位置を示す図、(c)は演算処理を示す図である。
3次元位置情報取得装置11は蛍光顕微鏡である。蛍光観察では、被観察物体に励起光が照射されていれば蛍光が発せられる。そのため、図15(a)では、励起光を照射する照明光学系を、透過型の照明光学系にしている。しかしながら、透過型の照明光学系の代わりに、落射型の照明光学系を使用することに問題はない。
また、暗視野照明では、結像光学系の開口数より大きい角度で照明光を照射するが、このような照明光学系を、透過型また落射型のいずれの構成で用いることでも良い。更に、暗視野照明の入射角を大きくして、被観察物体に対して略垂直な方向から照明する照明光学系を用いても良い。
図15(a)に示すように、3次元位置情報取得装置11は、光源1と、照明光学系2と、結像光学系3と、撮像素子4と、開口素子5と、処理装置6と、駆動機構7と、を有する。被観察物体Sを挟んで一方の側に照明光学系2が配置され、他方の側に結像光学系3が配置されている。
照明光学系2は、レンズ2aとレンズ2bを有する。3次元位置情報取得装置11は蛍光顕微鏡であるため、照明光学系2と被観察物体Sとの間に励起フィルタ8が配置されている。励起フィルタ8は、光源1から被観察物体Sまでの間であれば、どの位置に配置されていても良い。
照明光学系2と結像光学系3との間には、ステージ9が配置されている。被観察物体Sはステージ9の上に載置されている。ステージ9は光軸AXに沿う方向と、光軸AXと直交する方向に移動可能になっている。
結像光学系3は、レンズ3aとレンズ3bを有する。レンズ3aは対物レンズ、レンズ3bは結像レンズである。レンズ3aとレンズ3bとの間には、バリアフィルタ10が配置されている。バリアフィルタ10は、被観察物体Sから撮像素子4までの間であれば、どの位置に配置されていても良い。
また、開口素子5は被観察物体Sから撮像素子4までの間に配置されている。図15(a)では、レンズ3aとレンズ3bとの間に開口素子5が配置されている。図15(b)に示すように、開口素子5の形状は円形であるが、これに限られない。
開口素子5は、開口部5aを有している。開口部5aは、開口素子5の中心から離れた位置に設けられている。開口部5aの直径は、開口素子5の半径より小さい。よって、図15(b)に示すように、開口部5aの領域は、開口素子5の中心を含まない。
開口部5aは、開口素子5の中心から離れた位置に設けられていれば、開口部5aの直径は開口素子5の半径よりも大きくても良い。図15(b)では、開口部5aの形状は円形であるが、これに限られない。
開口素子5は、不透明な基板、例えば、金属板で構成することができる。この場合、開口部5aは、金属板に形成された空孔である。また、開口素子5は、透明な基板、例えば、ガラス板やプラスチック板で構成することもできる。この場合、開口部5aは基板そのものになる。開口部5a以外の部分には、不透明な物質が塗布又は蒸着されている。
また、開口素子5は、液晶素子で構成することもできる。液晶を動作させる領域を変化させることで、開口部5a以外の部分を不透明にすることができる。開口素子5を液晶素子で構成した場合、開口素子5を常時、結像光学系3の光路中に配置しておくことができる。
撮像素子4は、被観察物体Sの像位置に配置されている。被観察物体Sの位置と結像光学系3の合焦位置が一致したときに、被観察物体Sの像が形成される。撮像素子4の位置は、この時の像位置である。
撮像素子4は被観察物体Sの像を撮像する。撮像素子4では、被観察物体Sの像の光強度が電気信号に変換される。これにより、被観察物体Sの像の画像が取得される。撮像素子4からの電気信号は処理装置6に入力され、処理装置6に被観察物体Sの像の画像データが保持される。
処理装置6には、駆動機構7が接続されている。駆動機構7は開口素子5を、例えば、開口素子5を回転又はスライドさせる。開口素子の動きに対応して、開口部5aの位置が変化する。
図15(a)では、駆動機構7は、光軸AXを回転軸として開口素子5を回転させている。これより、開口部5aの位置が変化する。開口素子5と移動機構7は、結像光学系3の光路に対して挿脱可能になっている。そのために、3次元位置情報取得装置11は、不図示の移動機構を備えている。結像光学系3の光路中に開口素子5を位置させることで、3次元位置情報の取得を行うことができ、光路の外に開口素子5を位置させることで、蛍光像の観察や撮像を行うことができる。
光源1から出射した照明光は照明光学系2を通過して、励起フィルタ8に入射する。励起フィルタ8では、特定の波長域の光のみが励起フィルタ8を透過する。励起フィルタ8を透過した光、いわゆる励起光は被観察物体Sに入射する。励起光が照射された被観察物体Sでは、蛍光が発生する。
図15(a)では、軸上の点で発生した蛍光が実線で示され、軸外の点で発生した蛍光が破線で示されている。励起光と蛍光は、レンズ3aに入射する。レンズ3aを通過した励起光と蛍光は、開口素子5に到達する。開口素子5では、開口部5aを励起光と蛍光が通過する。開口部5aは、被観察物体Sの各点からの光のうちの一部を通過させる。開口部5aは、軸上物点からの光と軸外物点からの光が共に通過する位置に配置することが好ましい。
開口部5aを通過した励起光と蛍光は、バリアフィルタ10に入射する。バリアフィルタ10では、蛍光のみがバリアフィルタ10を透過する。蛍光はレンズ3bに入射し、レンズ3bで撮像素子4上に集光される。撮像素子4上には、被観察物体Sの蛍光像が形成される。
3次元位置情報の取得について説明する。第1の取得工程が実行される。処理装置6から指示に基づいて、駆動機構7は開口素子5を回転させる。そして、第1の位置で、駆動機構7は開口素子5の回転を止める。図15(a)は、開口部5aが第1の位置に移動した状態を示している。光軸AXに沿う方向から見た場合、図15(b)に示すように、開口部5aは0°の位置に移動している。0°の位置とは、X軸よりも0°の表示側の位置で、且つ、Y軸上の位置(Y軸上で正の領域)である。
開口部5aを第1の位置に移動させることで、第1の領域が形成される。被観察物体Sの各点からの光のうち、第1の領域を通過した光束によって、第1の蛍光像が撮像素子4上に形成される。第1の蛍光像は撮像素子4によって撮像され、これにより第1の蛍光像の画像の取得が行われる。
第1の取得工程が終了すると、第2の取得工程が実行される。処理装置6から指示に基づいて、駆動機構7は開口素子5を回転させる。そして、第2の位置で、駆動機構7は開口素子5の回転を止める。第2の位置は、第1の位置から180°回転した位置である。光軸AXに沿う方向から見た場合、図15(b)では、開口部5aは180°の位置に移動している。180°の位置とは、X軸よりも180°の表示側の位置で、且つ、Y軸上の位置(Y軸上で負の領域)である。180°の位置と0°の位置は、X軸に対して線対称になっている。
開口部5aを第2の位置に移動させることで、第2の領域が形成される。被観察物体Sの各点からの光のうち、第2の領域を通過した光束によって、第2の蛍光像が撮像素子4上に形成される。第2の蛍光像は撮像素子4によって撮像され、これにより第2の蛍光像の画像の取得が行われる。第1の蛍光像と第2の蛍光像は、被観察物体Sの同一領域の像である。
開口部5aは、開口素子5の中心から離れた位置に設けられている。よって、結像光学系3の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
本実施形態の3次元位置情報取得装置では、第1の像と第2の像は、同一の撮像素子上に形成されることが好ましい。
同一の撮像素子上に第1の像と第2の像を形成することにより、第1の像と第2の像を画像として取り込む際に発生する位置ずれを防止できる。その結果、第1の画像と第2の画像の全体としての位置合わせの処理が不要になるので、3次元位置情報取得装置11の構成を簡素にすることができる。
本実施形態の3次元位置情報取得装置では、開口素子は、照明光学系の瞳位置、結像光学系の瞳位置及び瞳位置と共役な位置の何れか一つの位置に配置されていることが好ましい。
このようにすることで、軸上物点からの光と軸外物点からの光が共に通過する位置に、第1の領域と第2の領域を形成することができる。
第2の取得工程が終わると、所定の演算を行う工程を実行する。第1の画像と第2の画像を用いて3次元位置情報を取得する方法については既に説明したので、以下簡単に説明する。
所定の演算を行う工程では、第1の蛍光像の画像データと第2の蛍光像の画像データを用いて差演算を行う。第1の画像の像強度分布Iと第2の画像の像強度分布I180を用いて差演算を行い、差演算画像I−I180を生成する。また、2つの画像を用いて和演算を行い、和演算画像I+I180を生成する。
そして、差演算画像I−I180と和演算画像I+I180の各々を、複数の計測領域に分割する。図14(c)において、MA(Xm,Ym)は、1つの計測領域である。MA(Xm,Ym)は、中心座標がCP(Xm,Ym)で、X方向の幅がWx、Y方向の幅がWyであり、X方向にXm±Wx/2、Y方向にYm±Wy/2の領域である。
MA(Xm,Ym)について、点像強度分布の移動量を算出する。この算出は、式(14)に基づいて行われる。ここで、第1の領域と第2の領域では、開口部5aはY軸上に位置しているので、点像強度分布の移動方向はY軸に沿う方向になる。CP(Xm,Ym)における点像強度分布の移動量をΔ(Xm,Ym)とすると、Y軸に沿う方向の点像強度分布の移動量はΔ(Xm,Ym)で表すことができる。式(14)から、Δ(Xm,Ym)が求まる。
被観察物体S上には、CP(Xm,Ym)の共役点が存在する。CP(Xm,Ym)の共役点の位置をcp(xm、ym)とする。Δ(Xm,Ym)が求まると、式(7)からδzを算出できる。ここで、Δ(Xm,Ym)は、CP(Xm,Ym)における量である。式(7)から算出したδzはcp(xm、ym)における量であるから、δz(xm、ym)と表すことができる。
δz(xm、ym)は、被観察物体S上の点cp(xm、ym)における物体側z方向のずれ量である。すなわち、δz(xm、ym)は、点cp(xm、ym)における被観察物体Sの表面から合焦位置までの距離を表している。
計測領域MAを所定の量でY方向に移動させながら各位置でΔを算出し、算出したΔからδzを求める。このようにすることで、Y方向の各位置における被観察物体Sの表面から合焦位置までの距離が求まる。更に、計測領域MAを所定の量でX方向に移動させながら各位置でΔを算出し、算出したΔからδzを求める。このように、計測領域MAをXY走査させることで、被観察物体Sの3次元位置情報を取得することができる。
このように、本実施形態の3次元位置情報取得装置によれば、被観察物体の光学系の合焦位置からのずれ量が光学系の焦点深度よりも小さい量に相当する場合であっても、このずれ量を検出できるので、高い分解能で3次元位置情報を取得することができる。
また、本実施形態の3次元位置情報取得装置では、開口部を第3の位置に移動させることで第3の領域が形成され、開口部を第4の位置に移動させることで第4の領域が形成されるようにしても良い。
例えば、被観察物体Sの構造が繊維状だと、計測領域MAのY方向の幅Wyより長い領域でエッジ等が無く略一様になっている場合がある。このような被観察物体では、被観察物体が合焦位置からz方向にずれた位置にある時でも、その差演算画像は計測領域MAの範囲内で像コントラストが低くなる。そのため、傾きΔが正確に求められなくなることがある。このような被観察物体では、計測領域MAのX方向にエッジ等が存在する。よって、x方向の差画像からΔを求めることで、δzを求めることが可能になる。
そこで、0°の位置(第1の位置)や180°の位置(第2の位置)とは別に、90°の位置(第3の位置)と270°の位置(第4の位置)に開口部5aを移動させて、第3の画像と第4の画像を取得する。
第1の画像の像強度分布Iと第2の画像の像強度分布I180を用いて差演算を行い、差演算画像I−I180を生成する。また、2つの画像の像強度分布を用いて和演算を行い、和演算画像I+I180を生成する。差演算画像I−I180と和演算画像I+I180からΔが求まる。
次に、第3の画像の像強度分布I90と第4の画像の像強度分布I270を用いて差演算を行い、差演算画像I90−I270を生成する。また、2つの画像の像強度分布を用いて和演算を行い、和演算画像I90+I270を生成する。差演算画像I90−I270と和演算画像I90+I270からΔが求まる。
Δの値とΔの値について、所定の値との比較を行う。計測領域MAの範囲内で、計測被検物体Sの表面に境界やエッジ等が存在する場合、X方向とY方向の差演算画像の像コントラストは略同じになるので、検出されるΔの値とΔの値は略同じ値になる。そこで、ΔとΔの平均値又はΔとΔのどちらかの値をΔの値とする。そして、このΔを用いてδzを求める。
しかし、被観察物体の構造が繊維状で繊維がY方向に伸びている場合、Y方向の差演算画像の像コントラストは低くなる。この状態で、Δの値が所定の値よりも小さくなると、被観察物体が合焦位置と一致しているのか否かの区別が付かなくなる。このようなときでも、X方向の差演算画像の像コントラストからΔの値が求められる場合は、Δの値をΔの値とする。逆に、繊維がX方向に伸びている場合は、Δの値では、被観察物体が合焦位置と一致しているのか否かの区別が付かなくなる。このようなときには、Δの値をΔの値とする。そして、このΔを用いてδzを求める。
上述したように、例えば被観察物体の構造が繊維状であり、繊維がY方向に伸びている場合では、Y方向の差演算画像の像コントラストが小さくなるので、Δの値が所定の値よりも小さくなることがある。この場合、被観察物体が合焦位置と一致していると判定されるので、δzを求めることができない。これに対して、第1の画像の像強度分布I、第3の画像の像強度分布I90、第2の画像の像強度分布I180及び第4の画像の像強度分布I270を取得している場合は、Δの値が所定の値よりも大きくなるので、δzを求めることができる。
第2実施形態の3次元位置情報取得装置について説明する。図16は第2実施形態の3次元位置情報取得装置を示す図である。図15と同じ構成には同じ番号を付し、説明は省略する。
3次元位置情報取得装置20は、金属等の表面を観察する落射型顕微鏡である。第2実施形態の3次元位置情報取得装置は、結像光学系3の瞳位置PP以外の瞳位置に、開口素子5を配置した例である。このような構成においても、第1実施形態の3次元位置情報取得装置と同様の効果が得られることを示す。図16では、照明光は破線で示され、観察物体Sからの光は実線で示されている。
3次元位置情報取得装置20は、光源1と、照明光学系2と、結像光学系3と、撮像素子4と、開口素子5と、を有する。処理装置と駆動機構は図示を省略している。照明光学系2と結像光学系3は、被観察物体Sよりも撮像素子4側に配置されている。
光源1から出射した照明光は照明光学系2を通過して、開口素子5に到達する。開口素子5では、開口部5aを照明光が通過する。開口部5aは、照明光のうちの一部を通過させる。開口部5aを通過した照明光は、ハーフミラー21で反射され、レンズ3aに入射する。レンズ3aに入射した照明光は、被観察物体Sに照射される。被観察物体Sはステージ22に載置されている。
図16では、照明光が1点に集光している様子を示している。しかしながら、光源1は面光源なので、被観察物体S上の必要な範囲に照明光が照射されている。
被観察物体Sからの光はレンズ3aに入射し、ハーフミラー21を透過し、レンズ3bに入射する。レンズ3bに入射した被観察物体Sからの光は、レンズ3bで撮像素子4上に集光される。撮像素子4上には、被観察物体Sの像が形成される。
3次元位置情報取得装置20では、開口素子5は結像光学系3の瞳位置PPに配置されていない。開口素子5は照明光学系2に配置されている。開口素子5の配置位置は照明光学系2の瞳位置で、この位置は結像光学系3の瞳位置PPと共役な位置である。3次元位置情報取得装置20においても、開口部5aの位置を変えることで、第1の領域と第2の領域が形成される。
図16に示すように、3次元位置情報取得装置20においても、開口部5aは、開口素子5の中心から離れた位置に設けられている。よって、照明光学系2の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
また、結像光学系3の瞳位置PPにおいても、結像光学系3の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
3次元位置情報の取得について説明する。第1の取得工程が実行される。第1の取得工程では、開口素子5の回転が行われ、第1の位置で開口素子5の回転が停止する。開口部5aを第1の位置に移動させることで、第1の領域が形成される。第1の領域を通過した光束によって、被観察物体Sが照明される。被観察物体Sの第1の像が撮像素子4上に形成される。第1の像は撮像素子4によって撮像され、これにより第1の像の画像の取得が行われる。
第1の取得工程が終了すると、第2の取得工程が実行される。第2の取得工程では、開口素子5の回転が行われ、第2の位置で開口素子5の回転が停止する。開口部5aを第2の位置に移動させることで、第2の領域が形成される。第2の領域を通過した光束によって、被観察物体Sが照明される。被観察物体Sの第2の像が撮像素子4上に形成される。第2の像は撮像素子4によって撮像され、これにより第2の像の画像の取得が行われる。
第2の取得工程が終わると、所定の演算を行う工程を実行する。第1の画像の像強度分布Iと第2の画像の像強度分布I180を用いて3次元位置情報を取得する方法は既に説明したので、ここでの説明は省略する。
第3実施形態の3次元位置情報取得装置について説明する。図17は第3実施形態の3次元位置情報取得装置を示す図である。図15と同じ構成には同じ番号を付し、説明は省略する。
3次元位置情報取得装置30は、微分干渉顕微鏡である。第3実施形態の3次元位置情報取得装置は、結像光学系3の瞳位置PP以外の瞳位置に、開口素子5を配置した例である。このような構成においても、第1実施形態の3次元位置情報取得装置と同様の効果が得られることを示す。
3次元位置情報取得装置30は、光源1と、照明光学系2と、結像光学系3と、撮像素子4と、開口素子5と、を有する。ステージ、処理装置及び駆動機構は図示を省略している。被観察物体Sを挟んで一方の側に照明光学系2が配置され、他方の側に結像光学系3が配置されている。
光源1から出射した照明光は位相変調器31を通過して、照明光学系2に入射する。照明光は、レンズ2aを通過して、開口素子5に到達する。開口素子5では、開口部5aを照明光が通過する。開口部5aは、照明光のうちの一部を通過させる。開口部5aを通過した照明光は、ノマルスキープリズム32を通過して、レンズ2bに入射する。レンズ2bに入射した照明光は、被観察物体Sに照射される。
図17では、照明光が1点に集光している様子を示している。しかしながら、光源1は面光源なので、被観察物体S上の必要な範囲に照明光が照射されている。
被観察物体Sからの光はレンズ3aに入射し、ノマルスキープリズム33と偏光素子34を通過し、レンズ3bに入射する。レンズ3bに入射した被観察物体Sからの光は、レンズ3bで撮像素子4上に集光される。撮像素子4上には、被観察物体Sの像が形成される。
3次元位置情報取得装置30では、開口素子5は結像光学系3の瞳位置PPに配置されていない。開口素子5は照明光学系2に配置されている。開口素子5の配置位置は照明光学系2の瞳位置PPで、この位置PPは結像光学系3の瞳位置PPと共役な位置である。3次元位置情報取得装置30においても、開口部5aの位置を変えることで、第1の領域と第2の領域が形成される。
図17に示すように、3次元位置情報取得装置30においても、開口部5aは、開口素子5の中心から離れた位置に設けられている。よって、照明光学系2の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
また、結像光学系3の瞳位置PPにおいても、結像光学系3の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
3次元位置情報の取得について説明する。第1の取得工程が実行される。第1の取得工程では、開口素子5の回転が行われ、第1の位置で開口素子5の回転が停止する。開口部5aを第1の位置に移動させることで、第1の領域が形成される。第1の領域を通過した光束によって、被観察物体Sが照明される。被観察物体Sの第1の像が撮像素子4上に形成される。第1の像は撮像素子4によって撮像され、これにより第1の像の画像の取得が行われる。
第1の取得工程が終了すると、第2の取得工程が実行される。第2の取得工程では、開口素子5の回転が行われ、第2の位置で開口素子5の回転が停止する。開口部5aを第2の位置に移動させることで、第2の領域が形成される。第2の領域を通過した光束によって、被観察物体Sが照明される。被観察物体Sの第2の像が撮像素子4上に形成される。第2の像は撮像素子4によって撮像され、これにより第2の像の画像の取得が行われる。
3次元位置情報取得装置11や3次元位置情報取得装置20では、取得された画像は蛍光や散乱光による光の強度のみを表す画像である。一方、3次元位置情報取得装置30は微分干渉顕微鏡を用いた装置なので、被観察物体が持つ位相分布が、像強度分布として可視化される。よって、3次元位置情報取得装置30では、被観察物体の像は、位相が光の強度に置き換えられた画像として取得される。この画像は位相分布以外にも被観察物体を透過した背景光の成分を含んでいる。そのため、被観察物体の位相分布から3次元位置情報を取得するには、第2の取得工程を実行する前に、取得した画像を、背景光成分を取り除いた画像に変換する必要がある。
そのために、第1の取得工程において、相変調器のリターデーション量を+θに設定した画像と、相変調器のリターデーション量を−θに設定した画像を取得する。それぞれの画像を、I(+θ、0°)、I(−θ、0°)とする。
同様に、第21の取得工程において、相変調器のリターデーション量を+θに設定した画像と、相変調器のリターデーション量を−θに設定した画像を取得する。それぞれの画像を、I(+θ、180°)、I(−θ、180°)とする。
更に、90°の位置(第3の位置)と270°の位置(第4の位置)に開口部5aを移動させて、第3の画像と第4の画像を取得する。この時も、相変調器のリターデーション量を+θに設定した画像と、相変調器のリターデーション量を−θに設定した画像を取得する。各画像を、I(+θ、90°)、I(−θ、90°)、I(+θ、270°)及びI(−θ、270°)とする。
以下の式(15)〜(18)で表される演算を行なって、第1の画像の像強度分布I、第2の画像の像強度分布I180、第3の画像の像強度分布I90及び第4の画像の像強度分布I270を生成する。
={I(+θ、0°)−I(−θ、0°)}
/{I(+θ、0°)+I(−θ、0°)} (15)
90={I(+θ、90°)−I(−θ、90°)}
/{I(+θ、90°)+I(−θ、90°)} (16)
180={I(+θ、180°)−I(−θ、180°)}
/{I(+θ、180°)+I(−θ、180°)} (17)
270={I(+θ、270°)−I(−θ、270°)}
/{I(+θ、270°)+I(−θ、270°)} (18)
第1の画像の像強度分布I、第2の画像の像強度分布I180、第3の画像の像強度分布I90及び第4の画像の像強度分布I270を用いて3次元位置情報を取得する方法は既に説明したので、ここでの説明は省略する。
第4実施形態の3次元位置情報取得装置について説明する。図18は第4実施形態の3次元位置情報取得装置を示す図である。図15と同じ構成には同じ番号を付し、説明は省略する。
3次元位置情報取得装置40は、共焦点蛍光顕微鏡である。図18では、照明光は破線で示され、観察物体Sからの光は実線で示されている。照明光と観察物体Sからの光が同じ光路を進む箇所は、実線になっている。
3次元位置情報取得装置40は、光源1と、照明光学系2と、結像光学系3と、撮像素子4と、開口素子5と、を有する。処理装置と駆動機構は図示を省略している。照明光学系2と結像光学系3は、被観察物体Sよりも撮像素子4側に配置されている。
光源1から出射した照明光は照明光学系2を通過して、励起フィルタ8に入射する。励起フィルタ8では、特定の波長域の光のみが励起フィルタ8を透過する。励起フィルタ8を透過した光、いわゆる励起光は、ダイクロイックミラー41で反射されてピンホールディスク42に入射する。励起光は照明光学系2によって、ピンホールディスク42上に集光される。励起光はピンホールディスク42内のピンホールを通過して、結像光学系3に入射する。
レンズ3bを通過した励起光は、開口素子5に到達する。開口素子5では、開口部5aを励起光が通過する。開口部5aは、励起光のうちの一部を通過させる。開口部5aを通過した励起光はレンズ3aを介して、被観察物体Sに入射する。励起光が照射された被観察物体Sでは、蛍光が発生する。
図18では、照明光が1点に集光している様子を示している。しかしながら、光源1は面光源なので、ピンホールディスク42の全体に励起光が照射される。よって、ピンホールディスク42内の各ピンホールから励起光が出射する。その結果、被観察物体S上の必要な範囲に、ピンホールディスク42内のピンホールと共役な点像の集合体として、励起光が照射される。
励起光と蛍光は、レンズ3aに入射する。レンズ3aを通過した励起光と蛍光は、開口素子5に到達する。開口素子5では、開口部5aを励起光と蛍光が通過する。開口部5aは、被観察物体Sの各点からの光のうちの一部を通過させる。
開口部5aを通過した励起光と蛍光は、レンズ3bを通過して、ピンホールディスク42上に集光する。励起光と蛍光はピンホールディスク42内のピンホールを通過して、ダイクロイックミラー41を透過し、バリアフィルタ10に入射する。バリアフィルタ10では、蛍光のみがバリアフィルタ10を透過する。蛍光はレンズ43に入射し、レンズ43で撮像素子4上に集光される。撮像素子4上には、被観察物体Sの蛍光像が形成される。
3次元位置情報取得装置40では、開口素子5は結像光学系3の瞳位置PPに配置されている。3次元位置情報取得装置40においても、開口部5aの位置を変えることで、第1の領域と第2の領域が形成される。
図18に示すように、3次元位置情報取得装置40においても、開口部5aは、開口素子5の中心から離れた位置に設けられている。よって、結像光学系3の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
3次元位置情報の取得について説明する。第1の取得工程が実行される。第1の取得工程では、開口素子5の回転が行われ、第1の位置で開口素子5の回転が停止する。開口部5aを第1の位置に移動させることで、第1の領域が形成される。第1の領域を通過した光束によって、被観察物体Sが照明される。被観察物体Sの第1の像が撮像素子4上に形成される。第1の像は撮像素子4によって撮像され、これにより第1の像の画像の取得が行われる。
第1の取得工程が終了すると、第2の取得工程が実行される。第2の取得工程では、開口素子5の回転が行われ、第2の位置で開口素子5の回転が停止する。開口部5aを第2の位置に移動させることで、第2の領域が形成される。第2の領域を通過した光束によって、被観察物体Sが照明される。被観察物体Sの第2の像が撮像素子4上に形成される。第2の像は撮像素子4によって撮像され、これにより第2の像の画像の取得が行われる。
第2の取得工程が終わると、所定の演算を行う工程を実行する。第1の画像の像強度分布Iと第2の画像の像強度分布I180を用いて3次元位置情報を取得する方法は既に説明したので、ここでの説明は省略する。
3次元位置情報取得装置40では、結像光学系3によって、ピンホールディスク42上には点像が形成される。ピンホールディスク42内のピンホールの直径は、この点像の直径と略同じに設定されている。これは、結像光学系3の倍率が高い場合の共焦点効果を十分に確保するためと、撮像素子4上に形成される蛍光像の明るさを十分に確保するためである。
図1(b)で示した4×4画素の領域を、ピンホール内の領域とみなす。結像光学系3の倍率が高い場合、ピンホールディスク42上に形成された点像の強度分布は、図1(b)に示す斜線の範囲になる。結像光学系3の倍率が低い場合は、結像光学系3の倍率が高い場合に比べてNA’が大きくなることが多い。NA’が大きいと、ピンホールディスク42上に形成された点像の強度分布は、図1(c)に示す斜線の範囲になる。
結像光学系3のNA’が大きい場合、点像強度分布における広がりはピンホールの直径よりも小さくなる。この場合、点像強度分布における広がりが大きくなるまで、像の明るさには変化が生じない。そのため、従来の共焦点顕微鏡では、NA’が大きい光学系、例えば結像光学系3の倍率が低い場合は、結像光学系3の倍率が高い場合に比べて共焦点効果が低下する。その結果、結像光学系3の倍率が低い場合は、光軸方向の分解能が低下する。
しかしながら、3次元位置情報取得装置40では、結像光学系3の瞳位置に開口素子5が配置されている。これにより、結像光学系3の光軸と直交する面内で、第1の領域の中心位置と第2の領域の中心位置は、共に、光軸から離れている。また、第1の領域と第2の領域は、互いに重複しない領域を少なくとも有している。
そのため、被観察物体Sが結像光学系3の合焦位置からずれると、ピンホール内の点像強度分布がピンホールディスク42の面内で移動し、これに伴って、撮像素子4上に投影される点像も撮像素子4上を移動する。
しかも、物体側ずれ量が焦点深度よりも小さい量に相当する場合であっても、点像強度分布はピンホール内で移動する。これに伴って、撮像素子4上に投影される点像も、撮像素子4上を移動する。物体側ずれ量が焦点深度よりも小さい量に相当する場合であっても、そのずれ量を検出することができる。
このように、3次元位置情報取得装置40では、Δを求めることにより、被観察物体Sの各点について合焦位置からのずれ量を求めることができる。よって、3次元位置情報取得装置40では、結像光学系3の倍率が低い場合であっても、実質的に共焦点効果が低下しないので、3次元位置情報を取得することができる。
また、3次元位置情報取得装置40では、物体側ずれ量が焦点深度よりも大きい量に相当する場合は、ピンホールディスク42内のピンホールによって、物体側ずれ量が大きい部分からの発した蛍光は、ピンホールによってその大半が遮光されてしまう。よって、撮像素子上には、被観察物体Sのボケ像は形成されない。
このように、3次元位置情報取得装置40では、3次元位置情報の取得精度と、被観察物体Sの3次元蛍光画像のS/Nを向上させることができる。
3次元位置情報取得方法の応用例1を説明する。図19は、3次元位置情報取得方法の応用例1を説明する図であって、(a)は物体側のずれ量をδFで階層化する様子を示す図、(b)は被観察物体の形状を示す図、(c)は2値化した3次元画像情報を示す図である。
ここでは、第1の画像と第2の画像から、各画素におけるΔが式(14)に基づいて算出され、被観察物体におけるδzが式(7)に基づいて求まっているものとする。
図19(a)に示すように、結像光学系の被観察物体側の焦点深度を等間隔でN分割した値をδFとし、被観察物体が結像光学系の合焦位置から遠ざかる方向をマイナスとし、被観察物体が結像光学系の合焦位置近づく方向をプラスとする。
δz(xm,ym)をδFで階層化すると、以下の式(19)で表される。
δz(xm,ym)=nδF (ただし、nδF−δF/2≦δz(xm,ym)<nδF+δF/2)) (19)
ここで、n=0、±1、±2、・・・・・±Nである。
階層化されたδzのなかから、1つの階層を選択する。階層化されたδzに対応するΔは、式(7)から逆算できるので、選択した階層に該当するΔ’を求め、Δ’の値を持つ画素の値を1、それ以外の画素の値を0にする。画素の値が1のときは、被観察物体が存在することを表し、画素の値が0のときは、被観察物体が存在しないことを表す。
このようにすることで、2値化した3次元画像情報S(Xm,Ym,Δ’(Xm,Ym))が生成される。S(Xm,Ym,Δ’(Xm,Ym))から被観察物体をδFでセクショニングした3次元位置情報を取得することができる。
例えば、図19(a)における、Q1〜Q6の各点の物体側ずれ量は、以下のように表される。
Q1(xQ1,yQ1)については、δzQ1(xQ1,yQ1)=−2δF。
Q2(xQ2,yQ2)については、δzQ2(xQ2,yQ2)= 1δF。
Q3(xQ3,yQ3)については、δzQ3(xQ3,yQ3)= 1δF。
Q4(xQ4,yQ4)については、δzQ4(xQ4,yQ4)= 3δF。
Q5(xQ5,yQ5)については、δzQ5(xQ5,yQ5)= 1δF。
Q6(xQ6,yQ6)については、δzQ6(xQ6,yQ6)= 1δF。
1δFを選択すると、階層化された値1δFの持つ点は、Q2、Q3、Q5及びQ6なのでこれらの点が抽出される。1δFに該当するΔ’は、Δ1δF’になる。上述のように、第1の画像と第2の画像から、Δを算出した画像が生成されている。そこで、この画像を使って、Δ1δF’値を持つ画素の値を1とし、それ以外の画素の値を0として、2値化した3次元画像情報Sを生成する。
図19(b)では、被観察物体において階層化された値1δF持つ場所が、斜線で示されている。よって、2値化した3次元画像情報Sは、図19(c)のようになる。
第1の画像や第2の画像は、被観察物体の光の強度情報を有している。よって、これらの画像と値化した3次元画像情報Sから、被観察物体をδFでセクショニングした画像を取得することができる。
更に、光軸に沿う方向で、被観察物体と結像光学系の合焦位置の相対位置を変化させても良い。いわゆるz走査を行うことで、結像光学系の合焦位置を被観察物体に対してz方向に移動させることが可能になる。このようにすることで、各合焦位置での3次元位置情報とz走査の間隔の値を用いて、広範囲な3次元位置情報を取得することができる。
3次元位置情報取得方法の応用例2を説明する。図20は、3次元位置情報取得方法の応用例2を説明する図であって、(a)は被観察物体の第1段目の面が合焦位置と一致している様子とそのときの画像を示す図、(b)は被観察物体の第2段目の面が合焦位置と一致している様子とそのときの画像を示す図、(c)被観察物体の第3段目の面が合焦位置と一致している様子とそのときの画像を示す図である。
本実施形態の3次元位置情報取得装置では、第1の取得工程を実施することで第1の像の画像が取得され、第2の取得工程を実施することで第2の像の画像が取得される。更に、第1の位置や第2の位置とは別に、第3の位置と第4の位置に開口部5aを移動させることで、第3の像の画像と第4の像の画像を取得する。4つの像の画像は光強度を示す画像で、図20ではI(Xm,Ym)で示されている。
所定の演算を行う工程では、第1の画像の像強度分布Iと第2の画像の像強度分布I180を用いて差演算を行い、差演算画像I−I180を生成する。また、2つの画像の像強度分布を用いて和演算を行い、和演算画像I+I180を生成する。次に、第3の画像の像強度分布I90と第4の画像の像強度分布I270を用いて差演算を行い、差演算画像I90−I270を生成する。また、2つの画像の像強度分布を用いて和演算を行い、和演算画像I90+I270を生成する。
更に4つの画像の像強度分布を用いて、規格化された差演算画像INと差演算画像INを形成する。差演算画像INと差演算画像INは、それぞれ、以下の式(20)と(21)で表される。
IN=(I−I180)/(I+I180) (20)
IN=(I90−I270)/(I90+I270) (21)
を形成する。
続いて、0に近い値を閾値δTとして設定する。そして、INとINの各画素の値に対して、画素の値が閾値以下のときはその画素の値を1とし、画素の値が閾値よりも大きいときはその画素の値を0にする。このようにして、INに関する2値化画像MとINに関する2値化画像Mを形成する。2値化画像は、図20ではI(Xm,Ym)×M(Xm,Ym)で示されている。
2値化画像Mと2値化画像Mは、それぞれ、以下の式(22)と(23)で表される。
(Xm,Ym)=1 (ただし、IN(Xm,Ym)<|δT|)
(Xm,Ym)=0 (ただし、IN(Xm,Ym)>|δT|) (22)
(Xm,Ym)=1 (ただし、IN(Xm,Ym)<|δT|)
(Xm,Ym)=0 (ただし、IN(Xm,Ym)>|δT|) (23)
INとINの各画素の値は、点像強度分布の移動量Δ(Xm,Ym)とΔ(Xm,Ym)に対応する。よって、INとINの各画素の値が0近傍の値であるということは、Δ(Xm,Ym)とΔ(Xm,Ym)がそれぞれ0近傍の値であること表している。この場合、式(7)から求めたδz(xm,ym)とδz(xm,ym)も0近傍の値になる。従って、M(Xm,Ym)とM(Xm,Ym)において、値が1の画素は、被観察物体Sのなかで合焦位置と一致している部分を表し、値が0の画素は、被観察物体Sのなかで合焦位置から外れた部分を表している。
各画素について、以下の式(24)で画像情報を計算すると、被観察物体Sの画像から結像光学系の合焦位置と一致している部分のみを抽出した画像ISEC(Xm,Ym)を得ることができる。この画像は、図19ではM(Xm,Ym)で示されている。
SEC(Xm,Ym)={I(Xm,Ym)+I90(Xm,Ym)
+I180(Xm,Ym)+I270(Xm,Ym)}
×M(Xm,Ym)×M(Xm,Ym) (24)
被観察物体Sと結像光学系3の相対位置をδTに対応する量だけ変化させて、被観察物体Sの画像を取得し、各位置においてI(Xm,Ym)を算出することにより、各位置における被観察物体Sのセクショニング画像を検出することができる。
δTに対応するz変化量を用いてM(Xm,Ym)×M(Xm,Ym)を再構成することで、被観察物体の3次元位置情報を求めることができる。更に、I(Xm,Ym)を再構成することで、被観察物体の3次元位置構造を求めることができる。
INの代わりにINにX方向のソーベルフィルターを演算した画像を用いてM(Xm,Ym)を算出し、INの変わりにINにY方向のソーベルフィルターを演算した画像を用いてM(Xm,Ym)を算出しても良い。
また、開口部を0°、90°、180°、270°の位置に回転させて画像を取得する例を示したが、回転対称な位置である0°と180°の位置に、開口部の位置を回転させて画像を取得しても良い。取得した第1の画像の像強度分布Iと第2の画像の像強度分布I180の2つの画像だけを用いても、同様の結果が得られる。
3次元位置情報取得方法の応用例3を説明する。δzを求めるときに、各計測領域でΔとΔが算出される。Δは第3の画像の像強度分布I90と第4の画像の像強度分布I270とのx方向の像の横ずれ量であることから、第3の画像の像強度分布I90と第4の画像の像強度分布I270とを合成したときに、合成画像のΔに対応する画素部分ではx方向に像のボケが生じる。同様に第1の画像の像強度分布Iと第2の画像の像強度分布I180とを合成したときに、合成画像のΔに対応する画素部分ではy方向に像のボケが発生する。
そこで、x方向にΔの横ずれを補正した後に第3の画像の像強度分布I90と第4の画像の像強度分布I270とを合成すると、Δに対応する画素部分では像の横ずれ量が0となるので、合焦位置での画像を生成することができる。一方、像の横ずれ量が0であった画素部分には、−Δxの像移動が発生する。本来、この画素部分ではボケは発生していない。それにもかかわらず、Δxの補正によって像にボケが発生する。よって、像の横ずれ量が0であった画素部分については、横ずれの補正は行わないようにする。
このように、像の横ずれ量を調整して画素毎に合焦位置を変化させて、ボケ像を回復させる処理をリフォーカスと呼ぶ。Y方向についても同様に、Δの横ずれを補正した後に第1の画像の像強度分布Iと第2の画像の像強度分布I180とを合成することでリフォーカス処理が可能である。
リフォーカスの手法としては、一方の画像を他方の特定の画素に対して、X方向では第3の画像の像強度分布I90と第4の画像の像強度分布I270とのでΔだけ相対移動させて画像を合成し、Y方向では第1の画像の像強度分布Iと第2の画像の像強度分布I180との間でΔだけ相対移動させて画像を合成する。このXY2方向の合成画像を更に合成することもある。しかしながら、ΔとΔは整数とは限らない。一方、画像の移動では画素の数は整数で表される。
そこで、ΔとΔに基づいて画像を移動させるために、Δに対応する整数画素数Δx’とΔに対応する整数画素数Δy’を算出する。そして、第3の画像の像強度分布I90と第4の画像の像強度分布I270とのリフォーカスでは画像をΔx’だけ相対移動させて合成し、第1の画像の像強度分布Iと第2の画像の像強度分布I180とのリフォーカスでは画像をΔy’だけ相対移動させ合成する。
以上、画素単位で画像を移動させてリフォーカスを行う方法について説明したが、リフォーカスの手法としては式(12)を用いる方法もある。式(10)や式(12)から横ずれ量Δと和演算画像の関係が分かるので、Δが計測により既知になれば補正(リフォーカス)が可能になる。上述のように、Δは式(14)から求めることができる。
式(12)では、説明を簡略化するために1次元での演算を表しているが、実際には2次元の演算を行っている。よって、式(12)におけるΔもx方向とy方向のそれぞれの成分を持つ。そこで、x成分にはΔを用い、y成分にはΔを用い、式(12)の両辺をcos(2πΔf)で割り算する。この割り算によって、式(12)の右辺ではΔを含む項が消滅するので、割り算を行った後の式(12)の右辺の結果には横ずれが含まれないことになる。
式(12)の左辺は、和演算画像の像強度分布を表しているので、式(12)の右辺の演算結果も、和演算画像の像強度分布を表している。そこで、割り算を行った後の右辺の演算結果をフーリエ変換することで、横ずれのない和演算画像の像強度分布が得られる。すなわち、像のx方向とy方向のそれぞれについて横ずれが補正できるので、合焦画像が形成できる。
この時、割り算には、整数化されたΔx’とΔy’ではなく、整数化されていないΔとΔが用いられる。すなわち、Δは整数値に限定されない。よって、1画素より小さい横ずれ量でのリフォーカスが可能になる。その結果、より正確なボケ像補正(リフォーカス)が可能になる。
第1実施形態の3次元位置情報取得装置11では、蛍光像の画像が取得される。そこで、I、I90、I180及びI270において、各画素について、Δ(Xm,Ym)に対応する整数画素数Δx’(Xm,Ym)と、Δ(Xm,Ym)に対応する整数画素数Δy’(Xm,Ym)を算出する。
整数画素数Δx’(Xm,Ym)を用いて、第3の画像の像強度分布I90と第4の画像の像強度分布I270に対してリフォーカス処理を行い、Δx’(Xm,Ym)に対応した画素部分のx方向のボケ像の回復を行う。続いて、整数画素数Δy’(Xm,Ym)を用いて、第1の画像の像強度分布Iと第2の画像の像強度分布I180に対してリフォーカス処理を行い、Δy’(Xm,Ym)に対応した画素部分のy方向のボケ像の回復を行う。
各画素についてリフォーカス処理を行うことで、x方向のボケ像を回復した合焦位置での蛍光画像Iが生成され、y方向も同様にボケ像を回復した合焦位置での蛍光画像Iが生成される。蛍光画像Iと蛍光画像Iから合成した蛍光画像Iを形成する。蛍光画像Iと蛍光画像Iは、共にボケのない合焦位置の画像となる。よって、蛍光画像Iもボケのない合焦位置での画像になる。このように、リフォーカス処理を行うことで、蛍光画像Iは全ての画素が合焦位置での画像になるので、z方向の距離情報が無くなったように見える画像(全焦点画像)を形成することが出来る。
更に、この蛍光画像Iと2値化した3次元画像情報S(Xm,Ym,Δ’(Xm,Ym))を用いることにより、被観察物体内の各位置情報に蛍光強度を対応させることができる。その結果、被観察物体の3次元蛍光画像を形成することができる。
3次元位置情報取得方法の応用例4を説明する。第3実施形態の3次元位置情報取得装置30では、微分位相像の画像が取得される。取得された画像は光の位相を表す画像なので、位相分布を求めることができる。
第1の画像の像強度分布I、第3の画像の像強度分布I90、第2の画像の像強度分布I180及び第4の画像の像強度分布I270のそれぞれに、デコンボリューション処理を行い、被観察物体の位相分布φ(Xm,Ym)、φ90(Xm,Ym)、φ180(Xm,Ym)及びφ270(Xm,Ym)を再生する。
整数画素数Δx’(Xm,Ym)を用いて、φ90(Xm,Ym)とφ270(Xm,Ym)に対してリフォーカス処理を行い、2つの画像を合成した全画素でボケがない位相分布φ(Xm,Ym)を形成する。続いて、整数画素数Δy’(Xm,Ym)を用いて、φ(Xm,Ym)とφ180(Xm,Ym)に対してリフォーカス処理を行い、2つの画像を合成した全画素でボケがない位相分布φ(Xm,Ym)を形成する。φ(Xm,Ym)とφ(Xm,Ym)から、被観察物体のボケの影響のない位相分布φ(Xm,Ym)を算出する。
更に、位相分布φ(Xm,Ym)、2値化した3次元画像情報S(Xm,Ym,Δ’(Xm,Ym))及びδFから観察物体の3次元位相分布を得ることができる。
以上のように、本発明の3次元位置情報取得方法及び3次元位置情報取得装置では、被観察物体の光学系の合焦位置からのずれ量が光学系の焦点深度よりも小さい量に相当する場合であっても、このずれ量を効率よく検出できる。よって、光軸方向に高い分解能で3次元位置情報を取得できる方法や装置に適している。
1 光源
2 照明光学系
2a、2b レンズ
3 結像光学系
3a、3b レンズ
4 撮像素子
5 開口素子
5a 開口部
6 処理装置
7 駆動機構
8 励起フィルタ
9 ステージ
10 バリアフィルタ
11、20、30、40 3次元位置情報取得装置
21 ハーフミラー
22 ステージ
31 位相変調器
32、33 ノマルスキープリズム
34 偏光素子
41 ダイクロイックミラー
42 ピンホールディスク
43 レンズ
PP 光学系の瞳

Claims (6)

  1. 第1の像の画像を取得する第1の取得工程と、
    前記第1の取得工程の後に第2の像の画像を取得する第2の取得工程と、
    前記第1の像の画像データと前記第2の像の画像データを用いて所定の演算を行う工程と、を有し、
    前記第1の取得工程は、第1の領域を通過した光束に基づいて実行され、
    前記第2の取得工程は、第2の領域を通過した光束に基づいて実行され、
    光学系の光軸と直交する面内で、前記第1の領域の中心位置と前記第2の領域の中心位置は、共に、前記光軸から離れており、
    前記第1の領域と前記第2の領域は、互いに重複しない領域を少なくとも有し、
    前記所定の演算では、被観察物体の3次元位置情報を算出し、
    前記第1の領域と前記第2の領域は、回転対称な位置に形成され、
    前記所定の演算は、前記第1の画像のデータと前記第2の画像のデータを用いて差演算処理を行う工程を有し、
    前記差演算処理によって、差演算画像が生成され、
    前記差演算画像を複数の計測領域に分割する工程と、
    前記計測領域の各々について、領域内における前記差演算画像をフーリエ変換する工程と、を有し、
    前記フーリエ変換によって、前記計測領域の各々においてフーリエ係数が算出されることを特徴とする3次元位置情報取得方法。
  2. 前記フーリエ係数のうち、空間周波数が所定の帯域内のフーリエ係数を抽出する工程を有し、
    前記抽出したフーリエ係数を用いて、前記計測領域に対応する前記被観察物体の領域について、3次元位置情報を算出することを特徴とする請求項1に記載の3次元位置情報取得方法。
  3. 前記抽出したフーリエ係数を直線近似し、近似した直線の傾きを算出する工程を有し、
    前記傾きから被観察物体の3次元位置情報を算出することを特徴とする請求項1に記載の3次元位置情報取得方法。
  4. 光源と、
    前記光源からの光を被観察物体に導光する照明光学系と、
    前記被観察物体の像を形成する結像光学系と、
    前記被観察物体の像を撮像する撮像素子と、
    開口素子と、
    前記撮像で得た画像を演算処理する処理装置と、
    前記開口素子を動かす駆動機構と、を有し、
    前記開口素子は、前記被観察物体の各点からの光のうちの一部を通過させる開口部を有し、
    前記開口部を第1の位置に移動させることで第1の領域が形成され、前記開口部を第2の位置に移動させることで第2の領域が形成され、
    前記演算処理は、
    第1の像の画像を取得する第1の取得工程と、
    前記第1の取得工程の後に第2の像の画像を取得する第2の取得工程と、
    前記第1の像の画像データと前記第2の像の画像データを用いて所定の演算を行う工程と、を有し、
    前記第1の取得工程は、前記第1の領域を通過した光束に基づいて実行され、
    前記第2の取得工程は、前記第2の領域を通過した光束に基づいて実行され、
    光学系の光軸と直交する面内で、前記第1の領域の中心位置と前記第2の領域の中心位置は、共に、前記光軸から離れており、
    前記第1の領域と前記第2の領域は、互いに重複しない領域を少なくとも有し、
    前記所定の演算では、前記被観察物体の3次元位置情報を算出し、
    前記第1の領域と前記第2の領域は、回転対称な位置に形成され、
    前記所定の演算は、前記第1の画像のデータと前記第2の画像のデータを用いて差演算処理を行う工程を有し、
    前記差演算処理によって、差演算画像が生成され、
    前記差演算画像を複数の計測領域に分割する工程と、
    前記計測領域の各々について、領域内における前記差演算画像をフーリエ変換する工程と、を有し、
    前記フーリエ変換によって、前記計測領域の各々においてフーリエ係数が算出されることを特徴とする3次元位置情報取得装置。
  5. 前記第1の像と前記第2の像は、同一の撮像素子上に形成されることを特徴とする請求項4に記載の3次元位置情報取得装置。
  6. 前記開口素子は、前記照明光学系の瞳位置、前記結像光学系の瞳位置及び前記瞳位置と共役な位置の何れか一つの位置に配置されていることを特徴とする請求項4又は5に記載の3次元位置情報取得装置。
JP2014254341A 2014-12-16 2014-12-16 3次元位置情報取得方法及び3次元位置情報取得装置 Active JP6408893B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014254341A JP6408893B2 (ja) 2014-12-16 2014-12-16 3次元位置情報取得方法及び3次元位置情報取得装置
US14/970,924 US9995924B2 (en) 2014-12-16 2015-12-16 Three-dimensional position information acquiring method and three-dimensional position information acquiring apparatus
US15/977,280 US10754139B2 (en) 2014-12-16 2018-05-11 Three-dimensional position information acquiring method and three-dimensional position information acquiring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014254341A JP6408893B2 (ja) 2014-12-16 2014-12-16 3次元位置情報取得方法及び3次元位置情報取得装置

Publications (2)

Publication Number Publication Date
JP2016114520A JP2016114520A (ja) 2016-06-23
JP6408893B2 true JP6408893B2 (ja) 2018-10-17

Family

ID=56111643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014254341A Active JP6408893B2 (ja) 2014-12-16 2014-12-16 3次元位置情報取得方法及び3次元位置情報取得装置

Country Status (2)

Country Link
US (2) US9995924B2 (ja)
JP (1) JP6408893B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015221991A1 (de) * 2015-11-09 2017-05-11 Carl Zeiss Microscopy Gmbh Mikroskopierverfahren zur Ermittlung eines Kontrastbildes und Mikroskop
EP3505641A1 (en) * 2015-12-18 2019-07-03 Paris Sciences et Lettres - Quartier Latin Optical device for measuring the position of an object
WO2017175303A1 (ja) * 2016-04-05 2017-10-12 オリンパス株式会社 標本形状測定方法及び標本形状測定装置
DE102017115021A1 (de) * 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digitale Bestimmung der Fokusposition
EP3712596A4 (en) * 2017-11-14 2021-11-24 Nikon Corporation QUANTITATIVE PHASE IMAGE GENERATION PROCESS, QUANTITATIVE PHASE IMAGE GENERATION DEVICE AND PROGRAM
US11422349B2 (en) * 2017-11-28 2022-08-23 Leica Biosystems Imaging, Inc. Dual processor image processing
US10365554B1 (en) * 2018-04-04 2019-07-30 Intuitive Surgical Operations, Inc. Dynamic aperture positioning for stereo endoscopic cameras
JP7043555B2 (ja) * 2020-09-04 2022-03-29 Ckd株式会社 三次元計測装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW527518B (en) * 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
JP3603204B2 (ja) * 2001-03-12 2004-12-22 株式会社東京大学Tlo 立体構造検証支援装置、立体構造検証支援方法、及びプログラム
JP2005502907A (ja) * 2001-09-11 2005-01-27 ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー 対象物の光学的検査をするための方法および装置
US20040105074A1 (en) * 2002-08-02 2004-06-03 Peter Soliz Digital stereo image analyzer for automated analyses of human retinopathy
US7539340B2 (en) * 2003-04-25 2009-05-26 Topcon Corporation Apparatus and method for three-dimensional coordinate measurement
KR20060129433A (ko) * 2004-03-01 2006-12-15 이아티아 이미징 피티와이 엘티디 깊이 정보를 포함하는 영상을 생성하기 위한 방법 및 장치
JP4652745B2 (ja) * 2004-08-19 2011-03-16 株式会社ミツトヨ 光学的変位測定器
WO2006106522A2 (en) * 2005-04-07 2006-10-12 Visionsense Ltd. Method for reconstructing a three- dimensional surface of an object
WO2008133960A1 (en) * 2007-04-23 2008-11-06 California Institute Of Technology An aperture system with spatially-biased aperture shapes for 3-d defocusing-based imaging
US7835561B2 (en) * 2007-05-18 2010-11-16 Visiongate, Inc. Method for image processing and reconstruction of images for optical tomography
JP5202936B2 (ja) * 2007-12-14 2013-06-05 オリンパス株式会社 走査型顕微鏡
JP5397704B2 (ja) * 2008-03-11 2014-01-22 株式会社ニコン 形状測定装置
JP2011525271A (ja) * 2008-05-23 2011-09-15 ザ オーストラリアン ナショナル ユニヴァーシティ 画像データ処理
JP5099704B2 (ja) * 2008-08-06 2012-12-19 独立行政法人産業技術総合研究所 高さを測定する方法及び高さ測定装置
US8314837B2 (en) * 2009-10-15 2012-11-20 General Electric Company System and method for imaging with enhanced depth of field
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5843454B2 (ja) * 2011-03-15 2016-01-13 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP2525385A1 (en) * 2011-05-16 2012-11-21 Fei Company Charged-particle microscope
WO2013001710A1 (ja) * 2011-06-29 2013-01-03 コニカミノルタホールディングス株式会社 対応点探索装置
JP2013235110A (ja) 2012-05-08 2013-11-21 Nikon Corp オートフォーカス装置およびこれを有する顕微鏡
JP6039371B2 (ja) * 2012-11-07 2016-12-07 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、および撮像装置
US9384540B2 (en) * 2013-12-03 2016-07-05 Sunedison Semiconductor Limited (Uen201334164H) Systems and methods for interferometric phase measurement

Also Published As

Publication number Publication date
JP2016114520A (ja) 2016-06-23
US10754139B2 (en) 2020-08-25
US9995924B2 (en) 2018-06-12
US20160171679A1 (en) 2016-06-16
US20180259763A1 (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6408893B2 (ja) 3次元位置情報取得方法及び3次元位置情報取得装置
JP6503221B2 (ja) 3次元情報取得装置、及び、3次元情報取得方法
JP5577885B2 (ja) 顕微鏡及び合焦点方法
US8019136B2 (en) Optical sectioning microscopy
JP5982405B2 (ja) オートフォーカス装置を有する顕微鏡及び顕微鏡でのオートフォーカス方法
US9823458B2 (en) Imaging system and method for multi-scale three-dimensional deformation or profile output
US10613312B2 (en) Scanning imaging for encoded PSF identification and light field imaging
CN113671681A (zh) 光片显微镜以及用于运行光片显微镜的方法
CN103038692A (zh) 基于差分测量的自动聚焦
JP2014098835A (ja) 顕微鏡用照明光学系およびこれを用いた顕微鏡
JP2008102294A (ja) 位相物体の可視化方法とその顕微鏡システム
KR100721512B1 (ko) 분산 광학계를 이용한 실시간 공초점 현미경
TWI414818B (zh) 使用空間光調變器的超解析率廣視野光切片顯微鏡
US10731971B1 (en) Method of measuring 3D profile
Komuro et al. Object plane detection and phase-amplitude imaging based on transport of intensity equation
WO2018141560A1 (de) Verfahren zum bestimmen einer abweichung auf einem verschiebeweg einer zoom-optik und verfahren zur korrektur sowie bildaufnahmevorrichtung
Han et al. Optimization of structured illumination microscopy with designing and rotating a grid pattern using a spatial light modulator
JPH095046A (ja) 立体形状測定装置
KR20140071901A (ko) 공초점 광학식 검사 장치 및 공초점 광학식 검사 방법
Kang et al. High-speed three-dimensional surface profile measurement with the HiLo optical imaging technique
JP2013088570A (ja) 顕微鏡装置
Qu et al. Nonmechanical and multiview 3D measurement microscope for workpiece with large slope and complex geometry
JP2008111726A (ja) 3次元位相計測方法とそれに使われる微分干渉顕微鏡
JP2008181778A (ja) 荷電粒子ビーム装置の自動軸合わせ方法及び荷電粒子ビーム装置
Luo Adaptive measurement method for area chromatic confocal microscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180921

R151 Written notification of patent or utility model registration

Ref document number: 6408893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250