JP6039236B2 - 画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法 - Google Patents

画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法 Download PDF

Info

Publication number
JP6039236B2
JP6039236B2 JP2012112227A JP2012112227A JP6039236B2 JP 6039236 B2 JP6039236 B2 JP 6039236B2 JP 2012112227 A JP2012112227 A JP 2012112227A JP 2012112227 A JP2012112227 A JP 2012112227A JP 6039236 B2 JP6039236 B2 JP 6039236B2
Authority
JP
Japan
Prior art keywords
image
optical system
image data
frequency
estimation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012112227A
Other languages
English (en)
Other versions
JP2013239061A5 (ja
JP2013239061A (ja
Inventor
輝 江口
輝 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012112227A priority Critical patent/JP6039236B2/ja
Priority to DE112013002529.9T priority patent/DE112013002529T5/de
Priority to PCT/JP2013/064140 priority patent/WO2013172477A1/en
Priority to US14/391,900 priority patent/US20150062325A1/en
Publication of JP2013239061A publication Critical patent/JP2013239061A/ja
Publication of JP2013239061A5 publication Critical patent/JP2013239061A5/ja
Application granted granted Critical
Publication of JP6039236B2 publication Critical patent/JP6039236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、任意のフォーカス位置での画像を推定する画像推定方法、プログラム、記録媒体、画像推定装置、ネットワーク機器および画像データの取得方法に関する。
バーチャルスライドシステムではバーチャルスライドとよばれるデジタル撮像装置を用いて被写体のデジタル画像を取得する。一般に医療分野では試料を光学素子(カバーグラス)で覆い固定したもの(プレパラート)が被写体として用いられる。バーチャルスライドは顕微光学系、撮像素子、情報処理装置によって構成され、プレパラートをデジタル画像化し、データを保存する。この種の装置ではプレパラートのデジタル画像のみが保存されるため、撮像後に参照できるのは撮像を行ったフォーカス位置での画像だけである。医師はフォーカス位置を変えた一連の画像から試料の立体的構造を判断することが多いため、フォーカス位置を変えた複数枚の画像を撮像しておくことが求められる。
しかし、多数の画像を取得すると、撮像時間が大幅に増大し、データ量も膨大になる。そのため、撮像枚数は最小限に抑えることが望ましい。しかし一方で、撮像枚数を減らすと、診断時に医師の求めるフォーカス位置での画像を提供できない場合が生じる。撮像枚数の削減と任意のフォーカス位置での画像の提供という2つの要望を実現する方法として、必要なフォーカス位置での画像を画像処理で推定する方法が提案されている(特許文献1、非特許文献1)。
特許文献1は、複数のフォーカス位置で取得した画像に対し、光学系の焦点ボケフィルタを利用することで画像を推定する方法を提案している。非特許文献1は、画像をフォーカス位置zの関数とし、zの多項式展開することで近似的に画像を推定する方法を提案している。
特開2001−223874号公報
Kenji Yamazoe and Andrew R. Neureuther, "Modeling of through−focus aerial image with aberration and imaginary mask edge effects in optical lithography simulation" Applied Optics, Vol.50, No.20, pp.3570−3578,10 July 2011, USA
特許文献1の方法は、光学系の焦点ボケフィルタを予め知る必要があり、煩雑な予備計測等が必要となる。加えて、顕微鏡のような部分コヒーレント結像系には適用できない。また、非特許文献1の方法は、展開に用いる関数がzの多項式であるため、得られる画像は近似解である。近似の精度を高めるには、高次まで展開する必要があるため、計算時間が膨大になる。
本発明では、任意のフォーカス位置での画像を簡単かつ精度良く推定する画像推定方法、プログラム、記録媒体、画像推定装置、ネットワーク機器および画像データの取得方法を提供することを例示的な目的とする。
本発明の画像推定手法は、Nを2以上の整数として、撮像光学系の光軸方向に間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、前記撮像光学系を有する撮像装置を用いて取得した被写体の画像データから、zの最大値をzmax、zの最小値をzminとして、前記光軸方向の位置z(zmin≦z≦zmax)での画像データを推定する画像推定方法であって、N枚の画像データに対して、前記光軸方向に周波数変換を行い、N枚の変換画像データを算出する画像変換ステップと、zmax、zmin、z及びΔzから前記N枚の変換画像データに対して定まる複素数を、前記N枚の変換画像データに乗算し、和をとる結合ステップと、を有することを特徴とする。
本発明によれば、任意のフォーカス位置での画像を簡単かつ精度良く推定する画像推定方法、プログラム、記録媒体、画像推定装置、ネットワーク機器および画像データの取得方法を提供することができる。
本発明のバーチャルスライドのブロック図である。(実施例1、2、3、4、5、6、7、8) 本発明による被写体の画像取得から表示までのフローチャートである。(実施例1、2、3、4、5、6、7、8) 本発明による画像取得のフローチャートである。(実施例1、2、3、4、5、6、7、8) 本発明の原理を説明するための光学系である。(実施例1、2、3、4、5、6、7、8) CTFのf=0での断面である。(実施例1、2、3、4、5、6、7、8) 被写体の振幅透過率分布である。(実施例1、2、3、4、5、6、7、8) フォーカス位置を変えて取得した被写体の画像である。(実施例1、2、3、4、5、6、7、8) 本発明の画像推定方法によって得られた推定画像である。(実施例1) 本発明の画像推定方法によって画像推定を行ったフォーカス位置とPSNRである。(実施例1) 本発明の画像推定方法によって得られた推定画像である。(実施例2) 本発明の画像推定方法によって画像推定を行ったフォーカス位置とPSNRである。(実施例2) 本発明の画像推定方法のフローチャートである。(実施例3、4) 本発明の画像推定方法によって得られた推定画像である。(実施例3) 本発明の画像推定方法によって画像推定を行ったフォーカス位置とPSNRである。(実施例3) 本発明の画像推定方法によって得られた推定画像である。(実施例4) 本発明の画像推定方法によって画像推定を行ったフォーカス位置とPSNRである。(実施例4) 本発明の画像推定方法によって得られた推定画像である。(実施例5) 本発明の画像推定方法によって画像推定を行ったフォーカス位置とPSNRである。(実施例5) 本発明の画像推定方法によって得られた推定画像である。(実施例6) 本発明の画像推定方法によって画像推定を行ったフォーカス位置とPSNRである。(実施例6) PSNRの最悪値を画像取得ステップΔzと撮像光学系の瞳の中心遮蔽の大きさεを変えて求めたものである。(実施例7) PSNRの最悪値が35の場合の画像取得ステップΔzを撮像光学系の瞳の中心遮蔽の大きさεを変えて求めたものである。(実施例7) PSNRの最悪値を画像取得ステップΔzと照明光学系の瞳の中心遮蔽の大きさεを変えて求めたものである。(実施例8) PSNRの最悪値が35の場合の画像取得ステップΔzを照明光学系の瞳の中心遮蔽の大きさεを変えて求めたものである。(実施例8) 本発明のネットワーク機器から表示位置を指定する場合に行う動作のフローチャートである。(実施例9)
本発明は、撮像光学系を用いて撮像装置によって撮像された試料の画像を、任意のフォーカス位置における画像を推定する画像推定方法に関する。画像推定方法は、コンピュータによって実行可能なプログラムとして具現化され、記録媒体などに記録されてもよい。
画像の推定は、撮像装置において行ってもよいし、撮像装置の画像を格納する記憶装置(メモリ)に接続された画像推定装置(コンピュータ)が行ってもよい。撮像装置は画像推定手段として機能してもよい。また、取得した画像の表示は、撮像装置や画像推定装置に接続された表示手段(ディスプレイ)やこれらと(LAN、WAN、インターネットなどの)ネットワークを介して接続されたネットワーク機器において行ってもよい。この場合、画像推定方法はクラウドコンピューティングを利用することもでき、ネットワーク機器は位置の指定(入力)と画像データの受信を行うデスクトップ型のパーソナルコンピュータ(PC)であってディスプレイなどの表示手段に接続されてもよい。あるいは、ネットワーク機器はタッチスクリーンなどの表示手段を備えた携帯端末(iPad(登録商標))やラップトップPC、専用端末(PDAなど)であってもよい。これによって遠隔診断が可能になる。
図1は本発明の実施に係るバーチャルスライドのブロック図である。バーチャルスライドは、撮像ユニット(撮像装置)100、制御ユニット200、情報処理ユニット(画像推定装置)400から構成される。
制御ユニット200は搬送部201、制御部202から構成される。搬送部201は制御部202の命令に基づき被写体103を可動ステージ102上へ移動する。可動ステージ102は制御部202からの命令に従い光軸方向に動くことが可能である。可動ステージ102は光軸と垂直方向に移動する機能を備えていてもよい。可動ステージ102を用いることでフォーカス位置を変えて画像を取得することができる。
撮像ユニット100は被写体103の画像を取得する装置であり、照明系101、可動ステージ102、光学系(撮像光学系)104、撮像素子105からなる。
照明系101により可動ステージ102に載置された被写体103が照明され、光学系104によって撮像素子105上に被写体の拡大光学像が形成される。撮像素子105は被写体の拡大光学像を光電変換する光電変換手段(光電変換素子)である。撮像素子105から出力された電気信号は画像データとして情報処理ユニット400に伝送される。
情報処理ユニット400はコンピュータ(演算手段)401、画像処理部402、データ保存部(メモリ)403、表示部(表示手段)404によって構成される。
画像処理部402は撮像素子105から送られた画像データをデジタル信号に変換する。このデジタル信号を輝度信号と呼ぶ。画像処理部402は輝度信号に変換した画像データ対して、例えば、ノイズ除去や圧縮等の画像処理を施し、コンピュータ401に伝送する。送られた画像データをコンピュータ401はデータ保存部403に転送する。データ保存部403は送られた画像データを保存する。診断時は、コンピュータ401が保存部403から画像データを読み出す。読み出された画像データに対してコンピュータ401は画像処理を施し、ユーザーが指定したフォーカス位置の画像データへ変換する。変換された画像データを表示部404へ転送し、画像が表示される。
コンピュータ401、画像処理部402、データ保存部403、表示部404及び制御部202は1つのコンピュータに含まれていてもよい。また、データはネットワーク450を介して接続された外部の不図示のサーバーに保存してもよく、この場合、複数の人がリモートでデータにアクセスすることができる。コンピュータ401は、ネットワーク450を介して様々なネットワーク機器に接続されている。これらのネットワーク機器は、ラップトップPC460、デスクトップPC462、タッチスクリーン機能を有する携帯端末464、PDAなどの専用端末466を含む。
ネットワーク機器は、演算手段、表示手段、指定手段、通信手段、記憶手段を有する。演算手段はコンピュータ(プロセッサ)から構成され、各部を制御や必要な演算を行う。表示手段は、ネットワーク機器460、464、466のようにネットワーク機器の筺体と一体であってもよいし、ネットワーク機器462のようにネットワーク機器に接続されたディスプレイ等であってもよい。指定手段は、ユーザーに光学系104の光軸方向の任意の位置zを指定させることを可能にするタッチスクリーン、キーボード、スタイラスペン、マウス等の入力手段を含む。通信手段は、ネットワーク450に接続されて画像推定装置に位置zの情報を送信し、画像推定装置から位置zにおける被写体103の画像データの情報を受信する。画像データの情報は、jpegなどの静止画像でもよいし、それを表す後述する輝度分布(画素値の分布)を表す関数I(x,y,z)であってもよい。記憶手段は、位置zの指定を可能にするためのアプリケーションプログラムを格納したメモリである。ネットワーク機器460、464、466は通信手段を介して受信した画像データの情報に基づいて位置zの画像を表示する表示手段を更に有する。
図2に被写体の画像取得から表示までのフローチャートを示す。ここで、「S」はステップ(工程)の略であり、これは他のフローチャートにおいても同様である。なお、被写体103の拡大像を撮像素子105、画像処理部402、コンピュータ401を用いて画像データとして取得することを画像取得と呼ぶ。
S1で被写体103を搬送部201を用いて可動ステージ102に設置し、S2で被写体103の画像を複数のフォーカス位置で取得する。取得した一連の画像をS3でデータ保存部403に保存する。診断時には、保存されたデータをS4で読み込む。被写体103の画像取得と診断が同時に行われる場合、データは一時保存でもよい。S5で所望のフォーカス位置をユーザーが設定する。フォーカス位置は予め設定されていた値を読み込んでもよいし、予備計測で得た試料の表面形状から算出してもよい。設定したフォーカス位置に対してS6で画像推定を行う。推定された画像をS7で表示部404に送り画像を表示する。以上の流れで被写体の画像取得と表示が行われる。
次に、S2における被写体103の画像取得に関して詳細に説明する。図3に画像取得のフローチャートを示す。
始めに、S201でステージ位置を光軸方向(z方向)に変える範囲と移動幅を指定する。直進光の伝搬方向へのフォーカスずれ量をzとし、光学系104に対して撮像素子105と共役な位置を原点とする。zはフォーカス位置及び光軸方向のステージ位置と同義である。S201で画像を取得するzの範囲zmax〜zminと画像を取得するステージの移動幅(間隔)Δzを指定する。
即ち、光学系104の光軸方向に間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、光学系104を用いて被写体103を撮像することによって被写体103の画像データを取得する。zの最大値をzmax、zの最小値をzminとする。
これらの値はS201を行う前に予め測定しておいた試料の表面形状から決めてもよいし、ユーザーが任意に設定してもよい。また予め設定しておいた既定の値を用いてもよい。次に、S202で可動ステージ102をzminの位置まで移動させ、S203で被写体103の画像を取得する。画像取得が終了した後、S204で可動ステージ102をΔz移動させ、S205で画像を取得する。S204からS205を可動ステージ102の位置がzmax以上となるまで繰り返す。以上によりフォーカス位置を変えた複数の(即ち、N枚の)被写体103の画像データが取得される。
なお、可動ステージ102の移動方法はこれに限ることはない。例えば、S202で可動ステージ102をzmaxに移動した後、−Δz移動させて画像を取得してもよい。
本発明では、任意のフォーカス位置での画像を、取得した複数のフォーカス位置での画像データから推定する。その原理を説明する。
撮像光学系によって撮像素子面上に形成される光学像の強度分布を与える式を説明する。
原理を説明するための光学系を図4に示す。図4(a)は被写体501の像が撮像光学系502によって撮像素子503上に結像している場合の光学系を示す。図4(b)は図4(a)の場合に対して被写体501が光軸方向にzだけずれた場合の光学系を示す。
始めに照明光が垂直入射の完全コヒーレント光である場合を考える。被写体501の像が撮像素子503上に結像している場合の結像式は次式で表される。
I(x,y)は撮像素子503上での像強度分布、O(f,f)は物体からの回折光分布である。また、P(f,f)は光学系の瞳関数、x、yは像面での光軸に垂直な直交座標、f、fはそれぞれx方向の空間周波数、y方向の空間周波数、はフーリエ変換を表す。の下付き添え字の2は光軸方向に直交する2方向であるxとy方向に2次元フーリエ変換(周波数変換)を行うことを示し、上付き添え字の−1は逆フーリエ変換(逆周波数変換)を行うことを示す。図4(b)に示したように、被写体501が光軸方向にzだけ移動した場合の結像式は数式2で表される。
ここでP(f,f;z)は数式3で表され、被写体のフォーカスずれと等価なデフォーカス収差を加えた瞳関数である。
λは照明光の波長、NAは撮像光学系の被写体側の開口数、kz0は照明光の波数のz方向成分、k--zは回折光の波数のz方向成分である。f=(f +f 1/2である。簡単のため倍率は1倍とする。撮像光学系の瞳面の中心に円形の遮蔽部があるとし、その半径が瞳の半径のε倍であるとする。本実施例では瞳面の中心付近が遮光されている場合を想定しているが、これに限ることはない。瞳面の中心付近の光強度が周囲の光強度よりも弱くなっていれば同様の効果が期待できる。また、遮蔽部は撮像光学系の瞳面に配置される必要はない。円形である必要もない。瞳面での光強度分布が中心付近で弱くなるように設計されたフィルタが撮像光学系の光路中に配置されていればよい。また、中心遮蔽がない場合は数式3の波括弧を省略した式を考えればよい。
波数のz方向成分は数式4及び数式5で表される。
x0、fy0はそれぞれ入射光のx、y方向の波数成分を2πで割った値である。fr0=(fx0 +fy0 1/2である。今は垂直入射を考えているためfx0=fy0=0である。またcirc関数は数式6で表される。
フォーカス位置を変えて取得した画像データは数式2のI(x,y,z)をzを変えて取得していることに相当する。数式2では被写体が光軸方向に移動した場合を想定しているが、撮像素子を光軸方向に動かした場合も同様に議論することができる。
ここで、I(x,y,z)のスペクトルが非0となる領域を考える。I(x,y,z)を各座標に対してフーリエ変換する。すると数式2は数式7に変形される。
ここで、CTF(f,f,f)は数式8で表され、瞳関数をzに対してフーリエ変換したものであり、撮像光学系の特性を表す関数である。は畳み込み積分を示し、添え字の3はf、f、fの3つの座標に対して畳み込み積分を行うことを表す。上付きの*は複素共役を示す。の下付き添え字の3はx、y、zの3つの座標に対する3次元フーリエ変換を行うことを示す。
CTF(f,f,f)のf=0での断面を図5に示す。数式8よりCTFはcirc関数とδ関数の積である。δ関数の特性からCTFは、f+1/λ−(1/λ−f 1/2=0を満たす曲面でのみ非0となる。これは空間周波数空間で中心がf=−1/λ、半径が1/λの球面を表している。更に、circ関数の特性からCTF(f,f,f)はNAε/λ≦f≦NA/λでのみ非0となる。よって、CTF(f,f,f)が非0となるのは図5の太線部分のみとなる。図5よりCTF(f,f,f)が非0となるfの領域は数式9に限られる。
O(f,f)は一般に空間周波数空間の全域で非0となるため、I(x,y,z)のスペクトルが非0となる領域はCTF(f,f,f)が非0となる領域によって決定される。I(x,y,z)のスペクトルが非0となる領域を明確にするため、O(f,f)=1という場合を考える。すると、I(x,y,z)のスペクトルはCTF(f,f,f)の自己相関で表される。自己相関の結果、I(x,y,z)のスペクトルが非0となるfの領域は数式10となる。
この結果は任意のO(f,f)に対して成立する。
部分コヒーレント結像系を考える場合では数式2の代わりに数式11を用いればよい。
S(fx0,fy0)は有効光源の強度分布である。有効光源とは試料がない場合に結像光学系の瞳面に形成される光強度分布である。数式11における瞳関数Pは数式3の瞳関数をfx0及びfy0だけ平行移動させたものであるため、数式11における瞳関数Pから求められるCTF(f,fy、)の形状は図5に示した太線と変わらない。よって、数式11における被積分関数の絶対値2乗の項に対して、完全コヒーレントの場合と同様にスペクトルが非0となるfの領域が定まる。従って、部分コヒーレント結像系においてもI(x,y,z)のスペクトルが非0となるfの領域は数式10で表される。
インコヒーレント結像系はS(fx0,fy0)=1という場合に等価なため、インコヒーレント結像系においてもI(x,y,z)のスペクトルが非0となるfの領域は数式10で表される。
以上より、撮像方式にかかわらずI(x,y,z)のスペクトルが非0となるfの領域は数式10に限られる。
任意のフォーカス位置での画像を推定する手法を説明する。以下ではI(x,y,z)をフォーカス位置zで取得した画像データの輝度分布として取り扱う。また、簡単のためzmin=0として考える。zmin≠0の場合は以下に示す式のzをz−zminに置き換えればよい。
I(x,y,z)を数式12に従ってzに対し、iを虚数単位としてフーリエ級数展開(複素形フーリエ級数展開)する。
I’(x,y;fzn)はフォーカス位置を変えて取得した画像データI(x,y,z)から数式13に示した離散フーリエ変換によって求まるフーリエ係数(複素フーリエ係数)である。ここで、z方向の空間周波数fは画像を取得するzの範囲が有限であるため、空間周波数fは離散的なfzn(fzn=n/(zmax−zmin+Δz))となり、zの範囲zmax−zminより数式14によって定まる。nはフーリエ係数I’(x,y;fzn)を指定する整数であり、−N/2≦n<N/2を満たす整数である。
Nは撮像枚数であり、2以上の整数である。I’(x,y;fzn)は数式10を満たす領域でのみ非0となるため数式12は数式15に示した−n〜nの範囲の級数と同一である。
ここで、nは数式16を満たす最大のnである。
数式16は両辺を(zmax−zmin+Δz)で割ると数式14から次式のようになる。
数式15はフォーカス位置を変えて取得した画像データI(x,y,z)から数式13に従ってフーリエ係数を求め、それを係数としてexp(−2πifznz)を線型結合すれば、任意のフォーカス位置zでの画像が推定できることを意味している。即ち、2次元データであるフーリエ係数I’(x,y;fzn)を線型結合することで画像推定が可能となる。
また、サンプリング定理より取得した画像の間隔Δzから、fznの最大値fzmaxが数式18と定まる。
zmaxが数式10の右辺よりも小さいと折り返し雑音が発生し画像の推定精度が低下する。画像を精度よく推定するためにはfzmaxが数式10の右辺よりも大きくなければならない。よって、画像を誤差なく推定するため要求されるΔzの条件は数式18と数式10より数式19のように定まる。
画像を取得する幅Δzを数式19の範囲で設定しておけば、任意のフォーカス位置での画像が精度良く推定可能となる。数式19より瞳に中心遮蔽がある場合はない場合に比べてΔzの大きさをM倍に広げてよいことを示している。ここでMは数式20で表わされる。
ただし、生体試料の画像や、人物、風景などを撮像した画像のスペクトルは一般にf、f、fの絶対値が大きくなると値が小さくなる。そのため、数式19よりもさらに大きなΔzで画像を取得しても、一定の誤差を許容すれば画像の推定は可能である。この場合、Δzはユーザーが求める画像推定精度から事前にまたは撮像時に設定すればよい。
本実施形態では撮像光学系の瞳に中心遮蔽がある場合を説明したが、照明光学系の瞳に中心遮蔽を配置した場合にも同様の効果が期待できる。
数式12はz方向のみのフーリエ級数展開だが、同時にx、y方向に対してもフーリエ級数展開をしてもよいため、次のような展開も可能である。
係数I’(fxs,fyt,fzn)はI(x,y,z)から数式22より求められるフーリエ係数である。
数式21は数式12より煩雑で計算時間も多くなるが、画像処理においてローパスフィルタ等を施す場合は数式21の形で計算をする方が便利である。
画像推定に用いる関数としてsinc関数を採用してもよい。すなわち画像を数式23で計算してもよい。
ここで、sinc関数とはsin(πx)/πxで表される関数である。Bは画像を取得した間隔Δzから定まる定数で数式24である。
数式23は無限級数であるが、取得した画像データはN枚であるため和は有限枚の画像に対してしかとれない。そこで、画像を取得したzの範囲外では画像が周期的に繰り返されると仮定して、数式23を数式25に変更する。この場合、次式で示すように、N枚の画像データに、sinc((z−z)/Δz)を乗算し、和をとることが行われる。
ここでTは画像がz方向に繰り返される周期でT=zmax−zmin+Δzである。Nは0以上の整数で、ユーザーが自由に設定できる値である。
画像推定方法として、数式12に示したフーリエ級数展開を用いたが、級数展開の方法はこれに限ることはない。他にも、コサイン変換を用いることで推定が可能である。その方法を簡単に述べる。
コサイン変換を用いる方法では、I(x,y,z)に対する展開係数I’(x,y;fzn)を数式26に示す離散コサイン変換を用いて求め、空間周波数fznを数式14に従って求める。
先のフーリエ級数展開を用いる方法と異なり、ここではnを0≦n≦N−1を満たす整数とする。求められたI’(x,y;fzn)を数式25に従って線形結合することで、位置zでの画像が求められる。
また、コサイン変換を用いる場合、式27に示されるcosの括弧内の係数が式12で示されるexpの括弧内の係数と2だけ異なるため、数式17に相当する条件は次式で表される。
この式を満たす最大のnをnとすれば、式15を導出した過程と同様の議論を行うことで、式27は式29と等価となる。
以上の手順で任意のzでの画像を推定することができる。
また、画像推定に用いる式は数式26、数式27に限ることはない。cosを用いた類似の変換方法はすべて本手法に含まれる。また、sinを用いても同様の議論は可能である。
以下、実施例1における任意のフォーカス位置での画像推定方法について説明する。図3で示したフローチャートに従って取得した被写体の画像をシミュレーションによって示す。撮像光学系の開口数を0.7、結像倍率を10倍、波長を550nmで単色、中心に円形の遮蔽部がある光学系を仮定し、円形遮蔽部の半径は瞳の絞りの3割とする。照明は部分コヒーレント照明とし、有効光源は輪帯状とする。照明光学系の開口数をNA、有効光源の中心遮蔽部に対する開口数をNAi_inとした時、NA/NA=0.7、NAi_in/NA=0.3を仮定する。
被写体の振幅透過率を図6に示す。被写体としてy方向の幅が0.5μmのラインチャートを用いた。計算上では被写体を2次元の物体と仮定している。もちろん、被写体に厚みがあっても本手法は適用可能である。フォーカス位置は−4μm(Zmin)から4μm(Zmax)まで1.0μmごとに変化させた。図7にフォーカス位置を、Z=2μm、−1μm、0μmと変えて取得した被写体の画像の一例を示す。図7の軸は物体側の座標を示している。
次に、画像の推定方法について説明する。フォーカス位置zでの画像の輝度分布をI(x,y,z)とする。I(x,y,z)に対して数式13に従い、z方向に対して周波数変換である離散フーリエ変換を施し、N枚の変換画像データであるI’(x,y;f)を取得する(画像変換ステップ)。また、ZmaxとZminから数式14に従って複数の変換画像データに対する周波数fznを算出する(周波数算出ステップ)。
続いて、観察したいフォーカス位置zを指定する。例えば、z=−1.5μmとz=−0.5μmを指定する。これらの値を数式12に代入し計算を行う。即ち、N枚の変換画像データに対してfzn及びzから定まる複素数をN枚の変換画像データに乗算し、和をとる(結合ステップ)。
得られた画像を図8(a)に示す。比較対象として、推定を行わずに取得した場合の画像を図8(b)に示す。両者を見比べると、視認できる差はない。画像の違いを定量化するためにPSNR(Peak Signal toNoise Ratio)を計算する。PSNRとは数式30と数式31を用いて計算される値で、画像の類似性を定量化したものである。0以上の値をとり、値が大きいほど画像の類似度が高いことを示す。一般的にはPSNRが35dBを超えると高品質な画像とされる。
ここで、Iest(x,y,z)は推定した画像データである。数式30は8−bit画像に対応した式である。
図9に推定を行ったフォーカス位置(z[μm])(横軸)とPSNR[dB](縦軸)を示す。フォーカス位置を−4μmから4μmまで0.125μm刻みで変化させて推定を行った。ただし、実際に画像を取得した箇所は除いている。推定した全領域でPSNRが35dBを超えており推定画像が実際に取得した画像を良く再現していることを示している。
生体試料の画像や、人物、風景などを撮像した画像のスペクトルは一般にf、f、fの絶対値が大きくなると値が小さくなる。このことからΔzをλ/2(1−(1−NA1/2)より大きくしても、高い精度で画像が推定できると考えられる。この結果に関しては実施例7で説明する。
本実施例では、被写体からの光の波長を550nmの単色光と仮定したが、これに限ることはない。例えば、発光ダイオードを複数利用することで多色光による照明及び撮像を行ってもよいし、ハロゲンランプ等を利用することで波長に広がりを持った照明光で照明及び撮像を行ってもよい。この時利用する波長は、生体イメージングや一般的な写真撮影で利用される波長領域、即ち、300nm〜1500nmに含まれていることが望ましい。この場合、撮像素子も前記波長領域に対して応答することが望ましい。また、撮像装置は波長領域の分光データを取得してもよい。
本実施例で撮像装置の結像倍率を10倍としたが、これに限ることはない、例えば、縮小光学系でもよい。撮像光学系が縮小光学系で照明光学系がインコヒーレント系の場合は一般的なカメラによる撮像を行っている場合に相当する。すなわち、一般的なカメラを用いた写真撮影においても、本発明は実施可能である。
本実施例では収差がない場合を仮定しているが、これに限ることはない。収差が存在しても本実施例は適用可能であることを発明者がシミュレーションによって確認している。本実施例では取得した画像に対してノイズ除去や像ずれの補正等の画像処理を行っていないが、これらの画像処理を施してもよい。本実施例では画像を等間隔に取得した場合を示しているが、これに限ることはない。
また、周波数算出ステップは、fznを数式14に従って算出するものに限定されない。
本実施例では画像を取得する位置zの間隔Δzを等間隔としているが、これに限ることはない。実際の計測ではステージの駆動誤差等により等間隔とならない場合が生じるが、この場合でも本手法が適用可能であることを本発明者は確認している。
以下、実施例2における任意のフォーカス位置での画像推定方法について説明する。図3で示したフローチャートに従って取得した被写体の画像をシミュレーションによって求める。計算条件は実施例1と同じであり、得られる画像も図7と同一である。取得した画像の輝度分布I(x,y,z)を数式22に従いx、y、zに対して3次元離散フーリエ変換を施しI’(f,f,f)を取得する。I’(f,f,f)を用いて推定画像を数式21によって計算する。推定するフォーカス位置は実施例1と同じである。
推定した画像の一例を図10(a)に示す。比較対象として、推定を行わずに取得した場合の画像を図10(b)に示す。両者を見比べると、視認できる差はない。画像の違いを定量化するためにPSNRを計算する。
図11に推定を行ったフォーカス位置(z[μm])(横軸)とPSNR[dB](縦軸)を示す。推定したフォーカス位置は実施例1と同じであり、画像を取得した箇所は除いている。推定した全領域でPSNRが35dBを超えており、推定画像が実際に取得した画像を良く再現していることが分かる。また、Δzをλ/2(1−(1−NA1/2)の1.5倍の値まで大きくしても、十分な画質が得られることを確認している。
実施例2ではxとyに関するフーリエ変換を行うため計算時間が多くなるが、ノイズ除去などの画像処理を同時に行う場合は好適に使用することができる。ノイズ除去としては、画像に対してローパスフィルタを施す方法が知られている。これは画像のスペクトルに対して高周波成分を減衰させるフィルタを乗算することで実施できる。実施例2ではxとyにフーリエ変換を行うことで、画像のスペクトルを求めているため、画像推定の過程でノイズ除去を施すことが可能となる。
以下、実施例3における任意のフォーカス位置での画像推定方法について説明する。図3で示したフローチャートに従って取得した被写体の画像をシミュレーションによって求める。計算条件は実施例1と同じであり、得られる画像も図7と同一である。
実施例3では図12に示したフローチャートに従って画像を推定する。取得した画像データに対してS601で数式13に従いzに対して離散フーリエ変換(周波数変換)を施し、変換画像データを取得する(画像変換ステップ)。次に、S602で取得した変換画像データに対して、|f|>1/2Δの領域(周波数fznの最大値よりも高周波領域と最小値よりも低周波領域)に0行列(0値)を付加し、変換画像データを拡張する。この拡張操作をゼロパディングと呼ぶ(ゼロパディングステップ)。ゼロパディングされたデータに対してS603でfに対して逆フーリエ変換(逆周波数変換)を行う(逆周波数変換ステップ)。
なお、画像変換ステップの周波数変換はフーリエ変換または逆フーリエ変換であれば足りる。周波数算出ステップは、fznを数式14に従って算出する。以上により、取得したΔzより小さい間隔で画像が等間隔に再現される。S601及びS603では高速フーリエ変換のアルゴリズムを用いることで計算が速くできる。
推定した画像の一例を図13(a)に示す。比較対象として、推定を行わずに取得した場合の画像を図13(b)に示す。両者を見比べると、視認できる差はない。画像の違いを定量化するためにPSNRを計算する。
図14に推定を行うフォーカス位置(z[μm])(横軸)とPSNR[dB](縦軸)を示す。推定した全領域で推定したフォーカス位置は実施例1と同じであり、画像を取得した箇所は除いている。推定した全領域でPSNRが35dBを超えており、推定画像が実際に取得した画像を良く再現していることが分かる。
また、Δzをλ/2(1−(1−NA1/2)の1.5倍の値まで大きくしても、十分な画質が得られることを確認している。
以上のようにして、撮像を行っていないフォーカス位置での画像を推定することができる。実施例3の場合は複数の推定画像を高速逆フーリエ変換により一度に生成するため、xz断面の観察を行いたい場合などに好適に使用することができる。
以下、実施例4における任意のフォーカス位置での画像推定方法について説明する。図3で示したフローチャートに従って取得した被写体の像をシミュレーションによって求める。計算条件は実施例1と同じであり、得られる画像も図7と同一である。
実施例4においても図12に示したフローチャートに従って画像を推定する。ただし、実施例4ではS601の離散フーリエ変換をx、y、zの3つの座標に対して実行する。またステップS603の逆フーリエ変換もf、f、fの3つの座標に対して実行する。
推定した画像の一例を図15(a)に示す。比較対象として、推定を行わずに取得した場合の画像を図15(b)に示す。両者を見比べると、視認できる差はない。画像の違いを定量化するためにPSNRを計算する。
図16に推定を行うフォーカス位置(z[μm])(横軸)とPSNR[dB](縦軸)を示す。推定したフォーカス位置は実施例1と同じであり、画像を取得した箇所は除いている。推定した全領域でPSNRが35dBを超えており、推定画像が実際に取得した画像を良く再現していることが分かる。
また、Δzをλ/2(1−(1−NA1/2)の1.5倍の値まで大きくしても、十分な画質が得られることを確認している。
実施例4の場合は複数の推定画像を逆フーリエ変換により一度に生成するため、xz断面の観察を行いたい場合などに好適に使用することができる。実施例4ではxとyに関するフーリエ変換を行うため計算時間が多くなるが、ノイズ除去などの画像処理を同時に行う場合は好適に使用することができる。ノイズ除去としては、画像に対してローパスフィルタを施す方法が知られている。これは画像のスペクトルに対して高周波成分を減衰させるフィルタを乗算することで実施できる。実施例4ではxとyにフーリエ変換を行うことで、画像のスペクトルを求めているため、画像推定の過程でノイズ除去を施すことが可能となる。
以下、実施例5における任意のフォーカス位置での画像推定方法について説明する。図3で示したフローチャートに従って取得した被写体の像をシミュレーションによって求める。計算条件は実施例1と同じであり、得られる画像も図7と同一である。
取得した画像の輝度分布I(x,y,z)を用いて、推定画像を数式25によって計算する。推定するフォーカス位置は実施例1と同じであり、N=2とした。推定した画像の一例を図17(a)に示す。比較対象として、推定を行わずに取得した場合の画像を図17(b)に示す。両者を見比べると、視認できる差はない。画像の違いを定量化するためにPSNRを計算する。
図18に推定を行うフォーカス位置(z[μm])(横軸)とPSNR[dB](縦軸)を示す。推定したフォーカス位置は実施例1と同じであり、画像を取得した箇所は除いている。推定した全領域でPSNRが35dBを超えており、推定画像が実際に取得した画像を良く再現していることが分かる。
また、Δzをλ/2(1−(1−NA1/2)の1.5倍の値まで大きくしても、十分な画質が得られることを確認している。実施例5ではフーリエ変換を伴わないため、より高速に画像を推定することが可能である。
以下、実施例6における任意のフォーカス位置での画像推定方法について説明する。図3で示したフローチャートに従って取得した被写体の画像をシミュレーションによって求める。計算条件は実施例1と同じであり、得られる画像も図7と同一である。取得した画像の輝度分布I(x,y,z)を数式26に従ってzに対して離散コサイン変換を施しI’(x,y;f)を取得する。I’(x,y;f)を用いて推定画像を数式27によって計算する。推定するフォーカス位置は実施例1と同じである。
推定した画像の一例を図19(a)に示す。比較対象として、推定を行わずに取得した場合の画像を図19(b)に示す。両者を見比べると、視認できる差はない。画像の違いを定量化するためにPSNRを計算する。
図20に推定を行ったフォーカス位置(z[μm])(横軸)とPSNR[dB](縦軸)を示す。推定したフォーカス位置は実施例1と同じであり、画像を取得した箇所は除いている。推定した全領域でPSNRが35dBを超えており、推定画像が実際に取得した画像を良く再現していることが分かる。また、Δzをλ/2(1−(1−NA1/2)の1.5倍の値まで大きくしても、十分な画質が得られることを確認している。
実施例6ではzに関する周波数変換の方法としてコサイン変換を採用している。コサイン変換は実数で計算できるため、フーリエ変換を用いる方法に比べ使用するメモリが少なくて済む。また、コサイン変換の特性からI(x,y,zmin)とI(x,y,zmax)の差分が大きい場合、例えば光学系に大きな収差がある場合でも高い精度で推定が可能となる。
以下、実施例7における任意のフォーカス位置での画像推定方法について説明する。実施例7では画像取得間隔と推定精度の関係、及び撮像光学系の瞳に配置する中心遮蔽の効果について説明する。この場合、照明光学系は瞳面の中心部近傍において光強度が周辺部に比べて低い領域を有することになる。
図3で示したフローチャートに従って取得した被写体の画像をシミュレーションによって求める。計算条件として。撮像光学系の開口数を0.7、結像倍率を10倍、波長を550nmで単色とし、撮像光学系の中心に配置した円形の遮蔽部の半径を瞳の大きさのε倍とする。εは0から1までの値をとり0の時は中心遮蔽が存在しない場合に相当する。照明は部分コヒーレント照明とし、有効光源は円形とする。照明光学系の開口数をNAとし、NA/NA=0.7を仮定する。以上の条件を用いて、図6に示した被写体に対して撮像される画像をシミュレーションによって求める。画像を取得するフォーカス位置の範囲は−8μm(Zmin)から8μm(Zmax)までとし、画像を取得する間隔をΔzとする。取得した画像から、位置zでの画像を実施例1に示した方法を用いて推定する。推定を行うzは−8μm(Zmin)から8μm(Zmax)の範囲で0.1μmごとに指定した。各zに対して推定された画像を推定を行わずに取得した場合の画像と比較するためPSNRを計算した。得られたPSNRから最悪値(縦軸)を抽出し、その値を取得間隔Δz(横軸)に対して示したグラフが図21である。図21ではΔzをλ/2(1−(1−NA1/2)で規格化している。εを変えた結果をマークの違いで分けて示している。
まずε=0の場合を考える。Δzが増加するとPSNRが減少する。これは取得間隔を広げると推定誤差が大きくなることを示す。画像取得の際には、図19に示したΔzとPSNRの関係から、ユーザーが求める精度目標が達成できるようにΔzを設定すればよい。例えば、良好な画像をPSNRが35dB以上とすれば、Δzを1.4以下にすればよい。規格化しない大きさに変換すると、Δzは1.4×λ/2(1−(1−NA1/2)以下にすればよいことになる。
また、図21よりεが大きい方がΔzに対してPSNR最悪値の減衰が緩やかになる。すなわち撮像光学系の瞳に配置される中心遮蔽が大きい方が、Δzを大きくしても推定精度を高く保つことができる。
更にΔzの許容範囲に関して考察する。図22にPSNRの最悪値が35となるΔz(縦軸)をε(横軸)に対して示す。図22の理論予測値はε=0での結果に対して、数式20で示されるMを乗じた結果を示している。図22よりεが大きくなると、PSNRの最悪値が35となるΔzが増加する。すなわち、撮像光学系の瞳の中心遮蔽が大きくなると、推定誤差が許容値に収まるΔzが大きくなるということを示している。さらに、理論予測値はシミュレーション結果をほぼ再現している。すなわち、ε=0でのΔzの許容範囲が1.4×λ/2(1−(1−NA1/2)以下であったことを考えると、ε≠0の時のΔzの許容範囲は数式32となる。
この式はε=0を包含している。
以下、実施例8における任意のフォーカス位置での画像推定方法について説明する。実施例8では照明光学系の瞳に中心遮蔽を配置した場合、すなわち有効光源を輪帯にした場合の効果について説明する。
図3で示したフローチャートに従って取得した被写体の画像をシミュレーションによって求める。計算条件として。撮像光学系の開口数を0.7、結像倍率を10倍、波長を550nmで単色とし、瞳は円形とする。照明は部分コヒーレント照明とし、有効光源は照明光学系の瞳に配置される中心遮蔽によって輪帯状となっているとする。照明光学系の開口数をNA、中心遮蔽部に対する開口数をεとした時、NA/NA=0.7を仮定する。
以上の条件を用いて、図6に示した被写体に対して撮像される画像をシミュレーションによって求める。画像を取得するフォーカス位置の範囲、取得間隔Δz、推定する位置zは実施例7と同じである。更に実施例7と同様に、各zに対して推定された画像と推定を行わずに取得した場合の画像からPSNRを計算し、得られたPSNRから最悪値(縦軸)を抽出した。その値を取得間隔Δz(横軸)に対して示したグラフが図23である。図23ではΔzをλ/2(1−(1−NA1/2)で規格化している。εを変えた結果をマークの違いで分けて示している。
図23よりεが大きい方がΔzに対してPSNR最悪値の減衰が緩やかになる。すなわち照明光学系の瞳に配置される中心遮蔽が大きい方が、Δzを大きくしても推定精度を高く保つことができる。
Δzの許容範囲に関して考察する。図24にPSNRの最悪値が35となるΔz(縦軸)をε(横軸)に対して示す。図24の理論予測値はε=0での結果に対して、数式20で示されるMを乗じた結果を示している。図22よりεが大きくなると、PSNRの最悪値が35となるΔzが増加する。すなわち、照明光学系の瞳に配置される中心遮蔽が大きくなると、推定誤差が許容値に収まるΔzが大きくなるということを示している。さらに、理論予測値はシミュレーション結果をほぼ再現している。すなわち、ε=0でのΔzの許容範囲が1.4×λ/2(1−(1−NA1/2)以下であったことを考えると、ε≠0の時のΔzの許容範囲は式27と同じになる。
以上、本実施形態について説明したが、本発明は本実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
なお、本発明を適用可能な撮像装置は、被写体の拡大画像データを取得する顕微鏡であってもよいし、被写体の縮小画像データを取得するカメラであってもよい。また、撮像装置が画像データを取得する波長の範囲が300nmから1500nmの範囲に含まれており、被写体を照明する照明光の波長が300nmから1500nmの範囲に含まれていてもよい。
以下、画像推定装置にネットワーク450を介して接続されたネットワーク機器460、462、464、466(以下、「460」で代表させる)から表示位置zを指定する場合の動作について説明する。ユーザーは、ネットワーク機器460から直ちに表示装置zを入力することができないので、まず、表示すべき位置zを決定するために画像データを確認することが必要である。このため、ネットワーク機器460は、位置zの指定(入力)と画像データの受信を行う機能を有すると共に、ディスプレイなどの画像表示手段を有するか、これに接続されている。
図25に、本実施例のネットワーク機器460が行う動作のフローチャートを示す。このフローチャートはアプリケーションプログラムとしてネットワーク機器460にインストールされていてもよいし、画像推定装置またはサーバーにインストールされて、そこにアクセスしたネットワーク機器460が実行してもよい。
まず、ユーザーはネットワーク機器460を操作してネットワーク450を介して画像推定装置または不図示のサーバーにアクセスする。不図示のサーバーには不図示の記憶装置(ストレージ)が接続されている。この場合には、画像推定装置は画像データを保存しておらず、推定すべき画像データは記憶装置に保存され、画像推定装置は、推定すべき画像データを記憶装置から取得する。ネットワーク機器460が画像推定装置にアクセスする場合には推定すべき画像データを保存する記憶装置は画像推定装置に直接に、または、LAN等のネットワークを介して接続されている。以下、ネットワーク機器460は、画像推定装置である情報処理ユニット400にアクセスするものとする。
ネットワーク機器460は情報処理ユニット400にアクセスすると、ユーザー名とパスワードの入力を求められ、これによって認証が行われる。
認証されたユーザー(例えば、医師)は、例えば、患者のIDを入力することによってデータ保存部403に保存されている患者の情報にアクセスする。データ保存部403には、Nを2以上の整数として、撮像光学系の光軸方向に間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、その撮像光学系を有する撮像装置を用いて取得した被写体(患者)のN枚の画像データが保存されている。そこで、ユーザーは、N枚の画像データのサムネイルやファイル名から少なくとも1枚を選択する。その後、ユーザーは、この画像をネットワーク上で閲覧するか、ダウンロードして保存するか、別の画像を選択するか、をメニューに従って選択する。なお、取得すべき画像は、リストから順次送られてくる画像であってもよい。また、ユーザーは、既に推定された画像データがあればそれを選択してもよい。
ここでは、ユーザーはネットワーク機器460において画像データのダウンロードを選択し、画像を取得する(S510)。必要があれば、この時点で、情報処理ユニット400とのネットワーク接続を一旦切断してもよい。
続いて、ネットワーク機器460は、受信した画像データを表示手段に表示させる(S502)。これにより、ユーザーは表示手段に表示された画像を確認することができる。この時点で診断に値する画像が表示されていれば(S503のYes)、以降の動作は不要となる。画像データが表示される際には、N枚の画像データのフォルダのIDと、閲覧している画像データのファイルのIDも表示される。
但し、一般には、表示される画像は所望の部位にフォーカスが合っているとは限らない(S503のNo)。そのため、ネットワーク機器460は、再び、情報処理ユニット400にアクセスし、認証を受け、保存されている他の画像データがあれば、それを閲覧またはダウンロードする。しかし、z位置の画像データがなければメニューから画像データの推定ボタンをクリックする。
するとネットワーク機器460の表示手段には、N枚の画像データのフォルダのIDを入力するか、患者のIDに基づいて検索してN枚の画像データのフォルダを選択するかのメニューが表示される。ユーザーは、ネットワーク機器460の指定手段を介して、N枚の画像データのフォルダを指定すると、次に、ネットワーク機器460の表示手段にはN枚の画像データの中で最も近い1枚または2枚の画像データの選択を促すメニューが表示される。例えば、ユーザーが2枚の画像データの間にある画像データを取得したいとして、2枚の画像データのファイルを選択すると、それらの画像データのサムネイルまたはファイル名の下にそれらのz位置が表示される。その際、ネットワーク機器460の表示手段には、入力可能なz位置の範囲(即ち、最小値zmin≦z≦最大値zmax)の情報が併せて表示されてもよい。
次に、ユーザーが所望のz位置を入力する。このz位置の指定ステップにおいては、ユーザーは、ネットワーク機器460の指定手段を介して、その2つのz位置の間の位置を所望のz位置の候補として入力し(S504)、エンターキーを押して画像推定装置へ送信する(S505)。その際、ネットワーク機器460は入力されたz位置がその最大値zmaxまたは最小値zminを超えていればエラーメッセージを表示してもよい。あるいは、入力されたz位置が選択された2枚の画像データの中間でない場合にはエラーメッセージを表示してもよい。あるいは、ユーザーが2枚の画像データを選択すると、その中間のz位置を2つのz位置の平均値などによって計算して自動的に決定してもよい。ユーザーが1枚の画像データを選択してz位置を入力した場合に、それが隣りの画像データのz位置に近かったり、隣りの画像データのz位置を超えていたりした場合にはその旨が表示されてもよい。また、これに加えて隣の画像データを(そのz位置と共に)表示するかどうか、z位置を変更するかなどを表示してもよい。
ネットワーク機器460は画像推定装置が画像の推定を完了するまで待機する(S506)。画像推定が終了したら、ネットワーク機器460は推定された画像を、ネットワーク450を通じて受信し(S507)、表示手段に表示させる(S508)。ユーザーは表示された画像を観察し、所望の画像が得られていれば処理を終了する(S503のYes)。もし、他のz位置での画像を望む場合は(S503のNo)、S504からS508までの動作を繰り返す。この場合は、2枚の画像は今回推定された画像データと、前回推定された画像データのどちらかであってもよい。以上のフローでネットワーク機器460はユーザーが求めるz位置での画像を提供する。
本発明の画像推定方法は、試料の画像を照明光学、撮像光学系及びデジタルセンサを用いて取得する撮像装置に好適に使用することが可能であり、特にデジタル顕微鏡やデジタルカメラにおいて有用である。
103…被写体、104…光学系(撮像光学系)、105…撮像素子(光電変換手段)、400…情報処理ユニット(画像推定装置)、401…コンピュータ(演算手段)、450…ネットワーク、460〜464…ネットワーク機器

Claims (22)

  1. Nを2以上の整数として、撮像光学系の光軸方向に間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、前記撮像光学系を有する撮像装置を用いて取得した被写体の画像データから、zの最大値をzmax、zの最小値をzminとして、前記光軸方向の位置z(zmin≦z≦zmax)での画像データを推定する画像推定方法であって、
    N枚の画像データに対して、前記光軸方向に周波数変換を行い、N枚の変換画像データを算出する画像変換ステップと、
    max、zmin、z及びΔzから前記N枚の変換画像データに対して定まる複素数を、前記N枚の変換画像データに乗算し、和をとる結合ステップと、
    を有することを特徴とする画像推定方法。
  2. 前記周波数変換はフーリエ変換または逆フーリエ変換であり、
    前記画像推定方法は、zmax、zmin及びΔzから、前記N枚の変換画像データに対応する周波数fznを算出する周波数算出ステップを含み、
    前記周波数算出ステップは、前記周波数fznを次式に従って算出することを特徴とし、
    前記複素数は虚数単位をiとしてexp(−2πifznz)またはexp(2πifznz)であること、
    を特徴とする請求項1に記載の画像推定方法。
  3. 前記N枚の変換画像データに対して、zmax、zmin及びΔzから、前記N枚の変換画像データに対応する周波数fznを算出する周波数算出ステップと、
    前記周波数fznの最大値よりも高周波領域に0値を付加し、前記周波数fznの最小値よりも低周波領域に0値を与えることで前記N枚の変換画像データを拡張するゼロパディングステップと、
    を更に有し、
    前記結合ステップが前記ゼロパディングステップで拡張された画像データに対して光軸方向に前記周波数変換に対応した逆周波数変換を行う逆周波数変換ステップである、
    ことを特徴とする請求項1に記載の画像推定方法。
  4. 前記周波数変換はフーリエ変換または逆フーリエ変換であり、
    前記周波数算出ステップは、前記周波数fznを次式に従って算出すること、
    を特徴とする請求項3に記載の画像推定方法。
  5. 前記周波数変換が光軸と垂直方向に対する周波数変換を含み、
    前記逆周波数変換が前記光軸と垂直方向に対して前記周波数変換に対応する逆周波数変換を含むこと、
    を特徴とする請求項3または4に記載の画像推定方法。
  6. Nを2以上の整数として、撮像光学系の光軸方向に間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、前記撮像光学系を有する撮像装置を用いて取得した被写体の画像データから、zの最大値をzmax、zの最小値をzminとして、前記光軸方向の位置z(zmin≦z≦zmax)での画像データを推定する画像推定方法であって、
    N枚の画像データに、sinc((z−z)/Δz)を乗算し、和をとること、
    を特徴とする画像推定方法。
  7. 前記被写体からの光の波長をλ、前記撮像光学系の被写体側の開口数をNAとすると、Δzが次式で表されること、
    を特徴とする請求項1乃至6のうちいずれか1項に画像推定方法。
  8. 前記被写体からの光の波長をλ、前記撮像光学系の被写体側の開口数をNAとすると、Δzが次式で表されること、
    を特徴とする請求項1乃至6のうちいずれか1項に記載の画像推定方法。
  9. 前記周波数変換はコサイン変換であり、
    前記画像推定方法はzmax、zmin及びΔzから、前記N枚の変換画像データに対応する周波数fznを算出する周波数算出ステップを含み、
    前記周波数算出ステップは、前記周波数fznを次式に従って算出し、
    前記複素数は次式によって定まる実数であること、
    を特徴とする請求項1に記載の画像推定方法。
  10. 前記撮像光学系は瞳面の中心部近傍において光強度が周辺部に比べて低い領域を有すること、
    を特徴とする請求項1乃至9のうちいずれか1項に記載の画像推定方法。
  11. 前記領域は円形であり、
    前記撮像光学系の被写体側の開口数をNAとし、前記領域の半径を前記撮像光学系の瞳の半径のε倍とし、前記被写体からの光の波長をλとすると、Δzが次式で表されること、
    を特徴とした請求項10に記載の画像推定方法。
  12. 前記領域は円形であることを特徴とし、
    前記撮像光学系の被写体側の開口数をNAとし、前記領域の半径を前記撮像光学系の瞳の半径のε倍とし、前記被写体からの光の波長をλとすると、Δzが次式で表されること、
    を特徴とした請求項10に記載の画像推定方法。
  13. 前記撮像装置は前記被写体を照明する照明光学系を有し、
    前記照明光学系は瞳面の中心部近傍において光強度が周辺部に比べて低い領域を有することを特徴とする、
    請求項1乃至8のうちいずれか1項に記載の画像推定方法。
  14. 前記領域は円形であり、
    前記撮像光学系の被写体側の開口数をNAとし、前記領域の半径を前記撮像光学系の瞳の半径のε倍とし、前記被写体からの光の波長をλとすると、Δzが次式で表されること、
    を特徴とした請求項13に記載の画像推定方法。
  15. 前記領域は円形であり、
    前記撮像光学系の被写体側の開口数をNAとし、前記領域の半径を前記撮像光学系の瞳の半径のε倍とし、前記被写体からの光の波長をλとすると、Δzが次式で表されること、
    を特徴とした請求項13に記載の画像推定方法。
  16. Nを2以上の整数として、撮像光学系の光軸方向に沿って間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、前記撮像光学系を有する撮像装置を用いて取得した被写体のN枚の画像データから、zの最大値をzmax、zの最小値をzminとして、前記光軸方向の位置z(zmin≦z≦zmax)の画像データを推定する画像推定方法であって、
    前記位置zの前記画像データを表す輝度分布を前記光軸方向とそれに直交する2方向からなる3次元の関数で表したものをI(x,y,z)、前記被写体の前記N枚の画像データを表す輝度分布をI(x,y,z)、前記光軸方向の離散的な空間周波数をfzn(fzn=n/(zmax−zmin+Δz))、nを−N/2≦n<N/2を満たす整数、前記撮像光学系の被写体側の開口数をNA、前記被写体からの光の波長をλ、次式を満たす最大のnをn、前記撮像光学系の瞳面の中心に円形の遮蔽部があるとした場合の前記遮蔽部の半径が瞳の半径のε倍であるとし、前記遮蔽部がない場合はεが0であるとすると、

    I(x,y,z)を−n〜nの範囲で複素形フーリエ級数展開することによって取得し、前記複素形フーリエ級数展開の複素フーリエ係数はI(x,y,z)の離散フーリエ変換によって求まること、
    を特徴とする画像推定方法。
  17. Nを2以上の整数として、撮像光学系の光軸方向に沿って間隔Δzで決定されたN点の異なる位置z(1≦j≦N)において、前記撮像光学系を有する撮像装置を用いて取得した被写体のN枚の画像データから、zの最大値をzmax、zの最小値をzminとして、前記光軸方向の位置z(zmin≦z≦zmax)の画像データを推定する画像推定方法であって、
    前記位置zの前記画像データを表す輝度分布を前記光軸方向とそれに直交する2方向からなる3次元の関数で表したものをI(x,y,z)、前記被写体の前記N枚の画像データを表す輝度分布をI(x,y,z)、前記光軸方向の離散的な空間周波数をfzn(fzn=n/(zmax−zmin+Δz))、nを0≦n<N−1を満たす整数、前記撮像光学系の被写体側の開口数をNA、前記被写体からの光の波長をλ、次式を満たす最大のnをn、前記撮像光学系の瞳面の中心に円形の遮蔽部があるとした場合の前記遮蔽部の半径が瞳の半径のε倍であるとし、前記遮蔽部がない場合はεが0であるとすると、

    I(x,y,z)を1からnの範囲で級数展開することによって取得し、前記級数展開の係数はI(x,y,z)の離散コサイン変換によって求まること、
    を特徴とする画像推定方法。
  18. 請求項1乃至17のうちいずれか1項に記載の画像推定方法をコンピュータによって実行可能なプログラム。
  19. 請求項18に記載のプログラムを記録した記録媒体。
  20. 請求項1乃至17のうちいずれか1項に記載の画像推定方法を実行する演算手段を有する画像推定装置。
  21. 請求項20に記載の画像推定装置によって推定された被写体の画像データを取得する方法であって、
    被写体のN枚の画像データおよび前記画像推定装置によって既に推定された画像データのうちの少なくとも1枚の画像データの光軸方向の位置を表示するステップと、
    前記画像推定装置が推定すべき、前記被写体の前記画像データの前記光軸方向の位置を指定するステップと、
    を有することを特徴とする方法。
  22. 請求項20に記載の画像推定装置にネットワークを介して接続されたネットワーク機器が前記方法を実行することを特徴とする請求項21に記載の方法。
JP2012112227A 2012-05-16 2012-05-16 画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法 Active JP6039236B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012112227A JP6039236B2 (ja) 2012-05-16 2012-05-16 画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法
DE112013002529.9T DE112013002529T5 (de) 2012-05-16 2013-05-15 Bildschätzverfahren, Programm, Aufzeichnungsmedium, Bildschätzvorrichtung, Netzwerkeinrichtung und Verfahren zum Erhalten von Bilddaten
PCT/JP2013/064140 WO2013172477A1 (en) 2012-05-16 2013-05-15 Image estimating method, program, recording medium, image estimating apparatus, network device, and method of obtaining image data
US14/391,900 US20150062325A1 (en) 2012-05-16 2013-05-15 Image estimating method, program, recording medium, image estimating apparatus, network device, and method of obtaining image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012112227A JP6039236B2 (ja) 2012-05-16 2012-05-16 画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法

Publications (3)

Publication Number Publication Date
JP2013239061A JP2013239061A (ja) 2013-11-28
JP2013239061A5 JP2013239061A5 (ja) 2015-07-02
JP6039236B2 true JP6039236B2 (ja) 2016-12-07

Family

ID=49583873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012112227A Active JP6039236B2 (ja) 2012-05-16 2012-05-16 画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法

Country Status (4)

Country Link
US (1) US20150062325A1 (ja)
JP (1) JP6039236B2 (ja)
DE (1) DE112013002529T5 (ja)
WO (1) WO2013172477A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6362363B2 (ja) * 2014-03-10 2018-07-25 キヤノン株式会社 画像推定方法、プログラム、記録媒体および画像推定装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001223874A (ja) * 2000-02-04 2001-08-17 Kiyoharu Aizawa 任意焦点画像合成装置及びこれに用いる複数画像同時撮像型カメラ
JP4818592B2 (ja) * 2003-07-01 2011-11-16 オリンパス株式会社 顕微鏡システム、顕微鏡画像表示システム、観察体画像表示方法、及びプログラム
JP2005050037A (ja) * 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP5428886B2 (ja) * 2010-01-19 2014-02-26 ソニー株式会社 情報処理装置、情報処理方法、及びそのプログラム
US20110267485A1 (en) * 2010-04-30 2011-11-03 Kane Paul J Range measurement using a coded aperture

Also Published As

Publication number Publication date
DE112013002529T5 (de) 2015-01-29
JP2013239061A (ja) 2013-11-28
US20150062325A1 (en) 2015-03-05
WO2013172477A1 (en) 2013-11-21

Similar Documents

Publication Publication Date Title
JP6752200B2 (ja) 照明システム及びフーリエタイコグラフィイメージングの装置
JP5705096B2 (ja) 画像処理装置及び画像処理方法
JP6039371B2 (ja) 画像処理方法、プログラム、画像処理装置、および撮像装置
JP4533158B2 (ja) 画像処理装置、画像処理プログラムおよび屈折率分布測定装置
Yu et al. Untrained deep learning-based fringe projection profilometry
JP2015052663A (ja) 画像処理方法、画像処理装置、撮像装置およびプログラム
JP6004875B2 (ja) 医用画像表示装置、医用画像表示方法及びプログラム
Pérez et al. Lightfield recovery from its focal stack
Lecompagnon et al. Thermographic detection of internal defects using 2D photothermal super resolution reconstruction with sequential laser heating
JP6039236B2 (ja) 画像推定方法、プログラム、記録媒体、画像推定装置、および画像データの取得方法
JP2013222245A (ja) 画像鮮鋭度評価装置
JP2015118646A (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
JP6661491B2 (ja) 画像処理装置および画像処理方法
Papanikolaou et al. Colour digital image correlation method for monitoring of cultural heritage objects with natural texture
JP6362363B2 (ja) 画像推定方法、プログラム、記録媒体および画像推定装置
Grebenyuk et al. Numerical focusing in digital holographic microscopy with partially spatially coherent illumination in transmission
JP2019128318A (ja) レンズ装置、撮像装置、および画像処理装置
Lu Brightness–preserving weighted subimages for contrast enhancement of gray–level images
JP6835227B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
Xie et al. Blind deconvolution combined with level set method for correcting cupping artifacts in cone beam CT
JP2010210573A (ja) 対象物体の厚さの推定方法
Klein Multispectral imaging and image processing
Ren et al. Spatial frequency domain imaging technology based on Fourier single-pixel imaging
Hu et al. Discrete cosine transform-based shift estimation for fringe pattern profilometry using a generalized analysis model
JP2014002636A (ja) 画像推定方法、画像推定プログラムおよび画像推定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161104

R151 Written notification of patent or utility model registration

Ref document number: 6039236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151