JP3956584B2 - Omnifocal image composition method and apparatus - Google Patents

Omnifocal image composition method and apparatus Download PDF

Info

Publication number
JP3956584B2
JP3956584B2 JP2000170407A JP2000170407A JP3956584B2 JP 3956584 B2 JP3956584 B2 JP 3956584B2 JP 2000170407 A JP2000170407 A JP 2000170407A JP 2000170407 A JP2000170407 A JP 2000170407A JP 3956584 B2 JP3956584 B2 JP 3956584B2
Authority
JP
Japan
Prior art keywords
image
noise
omnifocal
information
omnifocal image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000170407A
Other languages
Japanese (ja)
Other versions
JP2001344599A (en
Inventor
昌司 吉田
光二 池田
淳 高根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000170407A priority Critical patent/JP3956584B2/en
Priority to US09/612,302 priority patent/US6538249B1/en
Publication of JP2001344599A publication Critical patent/JP2001344599A/en
Priority to US10/356,498 priority patent/US6653633B2/en
Priority to US10/681,116 priority patent/US6936818B2/en
Priority to US11/108,731 priority patent/US7109485B2/en
Priority to US11/515,732 priority patent/US7329868B2/en
Application granted granted Critical
Publication of JP3956584B2 publication Critical patent/JP3956584B2/en
Priority to US12/005,387 priority patent/US7642514B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、荷電粒子線装置に係り、特に焦点の合っている部分が異なる複数の画像から全体的に焦点の合っている画像を合成する全焦点画像合成方法及び装置に関する。
【0002】
【従来の技術】
電子顕微鏡画像に対して、三次元的構造を観察するための技術には、特開平5−128989号,特開平5−299048号,特開平9−92195号などがある。
【0003】
また、焦点の合っている部分が異なる複数の画像から全体的に焦点の合っている画像を合成する全焦点画像合成方法の従来技術は、光学的に撮影された画像に対する技術として、特開平5−333271号,特開平9−26312号,特開平6−113183号,特開2000−39566号,特開平5−227460号,特開平10−290389号,特開平11−261797号,特開平11−283035号,特開平11−287618号、など多数ある。
【0004】
ノイズ量を評価する従来技術としては、John Immerkaer, “Fast Noise
Variance Estimation”, Computer Vision and Image Understanding, Vol.64,No.2,1996,p.300−302、がある。
【0005】
【発明が解決しようとする課題】
半導体ウェハの多層化に伴い、試料が三次元的広がりを持つようになり、また電子顕微鏡の分解能向上により焦点深度が浅くなってきており、三次元的構造を観察するニーズが高まっている。電子顕微鏡で得られた画像に対して三次元的構造を観察するための従来技術は、立体像を観察するもの(特開平5−128989号)、等高線や鳥瞰図を用いるもの(特開平5−299048号)などであり、簡便な方法ではない。焦点の合っている部分が異なる複数の画像から、全体的に焦点の合っている画像を合成する全焦点画像合成の技術は、簡便な方法であり、電子顕微鏡画像に適用したいというニーズが高まっている。
【0006】
しかし、電子顕微鏡の画像はノイズが極めて多いため、ノイズに対する考慮が必須である。光学的に撮影された画像はノイズは比較的少ないため、従来の光学画像に対する全焦点画像合成技術はノイズに対する考慮がない。従来法で電子顕微鏡の画像を合成させると、人工的なアーチファクトが発生してしまい、不自然な全焦点画像となってしまう問題がある。
【0007】
本発明の目的は、ノイズの多い入力画像に対しても、人工的な合成画像に見えない自然な全焦点画像合成方法及び装置を提供することである。
【0008】
【課題を解決するための手段】
本発明は、異なる焦点で読み取った複数の入力画像のノイズを削減し、ノイズが削減されたノイズ削減画像のノイズ量を評価すると共に、前記ノイズ削減画像の焦点合致度を評価して信号変化量評価値を算出し、算出された信号変化量評価値に基づいて信号変化量評価最大値と合成情報を生成し、前記信号変化量評価最大値と前記ノイズ量評価値からノイズの影響度を判定して良好度情報を生成する全焦点画像合成手段を複数有し、複数の全焦点画像合成手段から生成された複数の前記良好度情報と前記合成情報に基づいて合成画像を生成する方法またはそれを用いた装置とする。
【0009】
【発明の実施の形態】
図1は、本発明にかかわる全焦点合成の概念を表わした図である。110,120,130は、焦点を変えて撮影した複数枚の入力画像であり、140は信号変化量評価、141,142,143は、それぞれ110,120,130に対応する信号変化量、150は合成画像、160は深さ画像である。110,120,130のある対応する画素1点をとり、その近傍で110はぼけており、120は焦点が合っており、130はぼけているとする。ぼけている部分は、近傍の信号があまり変化しないのに対し、焦点の合っている部分は、近傍の信号が大きく変化しており、140により信号変化量を評価すると、信号変化量は141,142,143のようになって、焦点の合っている画像120の信号変化量142が最も大きな値となる。従って、最も信号変化量が大きかった142に対応する120の画素を合成画像150の対応する位置における画素とする。また、最も信号変化量が大きかった142に対応する120の画像に対する深さ情報を深さ画像160の対応する位置における画素とする。深さ情報は、入力画像の焦点距離を画素値として表わせば、撮像物体の実際の深さがわかって好ましいが、例えば、入力画像110,120,130にそれぞれ#1,#2,#3のように番号をつけ、その番号を深さ情報としてもよい。要は、どの入力画像を選択したかを区別できればよい。以上の操作を、全部の画素に対して行うと、最終的に合成画像150が、全体的に焦点の合った画像に合成されることになる。
【0010】
図2は、本発明の第2の実施例を示したものである。
【0011】
入力画像200は、前処理手段210で処理された後、全焦点画像合成手段220,230に入力され、異なった全焦点画像合成が成されて、合成情報及び良好度情報221,231が生成される。合成手段240は、合成情報及び良好度情報221,231より、前処理後入力画像211の対応する画素の中から合成の目的により適した画素を画素ごとに選択して、合成画像250,深さ画像260を生成する。以上のように、複数の全焦点画像合成から、それぞれの好ましい点をつなぎ合わせて、より好ましい画像を合成することができる。この例では、全焦点画像合成手段が2つの例を示したが、3つ以上に拡張することは容易である。
【0012】
図3は、本発明の第3の実施例を示したものである。本実施例は、第2の実施例における「好ましさ」を「ノイズの影響を受けにくいこと」であると限定した場合の実施構成をより詳しく開示したものになっている。
【0013】
全焦点画像合成手段220と全焦点画像合成手段230は同様の構成であるので、全焦点画像合成手段220について動作を説明する。入力画像は、前処理手段210で前処理された後、ノイズ低減手段A300でノイズを削減される。ノイズ低減手段の具体例としては、ノイズ低減フィルタや平滑化縮小があるが、ここでは平滑化縮小を例にとって説明する。ノイズ低減画像301は、ノイズ量評価手段310によりノイズ量評価値311を算出され、同時に信号変化量評価手段A320にて、焦点の合致度を表わす信号変化量評価値321を算出される。焦点判定手段340は、信号変化量評価値321より信号変化量最大値342と合成情報341を生成する。信号変化量最大値342はノイズ判定手段330に送られ、ノイズ判定手段により、ノイズの影響の程度を表わす良好度情報331を出力する。全焦点画像合成手段230も同様に動作するが、ノイズ低減手段B350をノイズ低減手段A300よりもより大きく平滑化縮小するとすると、全焦点画像合成手段230の結果は、全焦点画像合成手段220の結果にくらべて、ノイズ低減効果が大きいが、ただし空間分解能が落ちることになる。従って、全焦点画像合成手段220により、ノイズの影響のない良好な部分は少ないが空間分解能は高い結果が得られ、全焦点画像合成手段230により、ノイズの影響のない良好な部分は多いが空間分解能は低い結果が得られる。これらを合成手段240で、ノイズの影響の少ない方の合成画像の画素を、画素ごとに選択してよりノイズの影響の少ない合成画像を合成することで、ノイズの影響のない良好な部分が多くかつ空間分解能は高い合成画像250を合成できる。この例では、全焦点画像合成手段が2つの例を示したが、3つ以上に拡張することは容易である。
【0014】
図4は、焦点判定手段340の構成例を示している。
【0015】
最大値格納手段410には、前画像までの信号変化量最大値411が入っており、最大値演算手段420により、前画像までの信号変化量最大値411と今回の画像に関する信号変化量321とで大きい方を選択して、今回の画像も含めての信号変化量最大値342を算出し、これで最大値格納手段410に格納されている最大値を更新する。一方、引算手段430により、前画像までの信号変化量最大値411と今回の画像に関する信号変化量321の差を求め、2値化手段440で0より大きいか否かを判定する。従って、信号変化量321をf、前画像までの信号変化量最大値411をfmax、合成情報341をgで表わすと、
f>fmaxのとき、g=1
f<fmaxのとき、g=0
となり、前回までの信号変化量最大値411より今回の画像に関する信号変化量321が大きい場合にg=1となる。つまり、合成情報341は、今回の画像の画素を合成画像の画素として選択すべきである画素に対してg=1となっている。
【0016】
図5は、ノイズ判定手段330の構成例を示している。ノイズ判定手段330は、ノイズ量評価値311,信号変化量最大値342を入力し、良好度情報331を出力する。良好度情報331をv、信号変化量最大値342をfmax、ノイズ量評価値311をNで表わすと、信号変化量最大値fmax がノイズ量評価値Nより大きい場合は、ノイズの影響が少なく、良好度が高いので、vは1とする。また、信号変化量最大値fmax がノイズ量評価値Nより小さい場合は、ノイズの影響が大きく、良好でないので、vを0とする。但し、信号変化量最大値342とノイズ量評価値311が同じ次元の尺度になっている保証はないので、ノイズ量評価値311に比例定数Kをかけて補正する。以上により、ノイズ判定手段330の機能をまとめると、
f(x,y)>K*nのとき、v(x,y)=1
f(x,y)≦K*nのとき、v(x,y)=0
となる。出力となる良好度情報331は、ノイズの影響が少なく良好度が高い時に1となり、ノイズの影響が大きく良好でない時に0となる情報になる。
【0017】
図6は、合成手段240の構成例を示している。合成手段240は、合成情報341,343、良好度情報331,333、前処理後入力画像211を入力し、合成画像250,深さ画像260を出力する。良好度情報331,333は、ノイズの影響量を示す情報で、ノイズの影響が少ない部分を1(白)、ノイズの影響が多い部分を0(黒)、のように表わすものである。図3において、ノイズ低減手段B350をノイズ低減手段A300よりもより大きく平滑化縮小するとすると、良好度情報333のノイズの影響が少ない1(白)の部分は、良好度情報331のノイズの影響が少ない1(白)の部分より拡大しているはずである。合成情報341及び343が図に示すような形であったとすると、良好度情報331が1の部分では、合成情報341を使うのが望ましく、良好度情報331が0かつ良好度情報333が1の部分では、合成情報343を使うのが望ましい。さらに、良好度情報331が0かつ良好度情報333が0の部分は、どの情報も信じられない部分であるが、何か選択しなければならないので良好度情報333の情報を用いる。すると、ノイズの影響の少ない部分のみを組み合わせて作られた最終的合成情報600は、図に示すようになる。合成画像250は、最終的合成情報600が1の部分は、前処理後入力画像211の画素に更新し、最終的合成情報600が0の部分は合成画像250の元の画素を更新せずにそのままにする。また、深さ画像260は、最終的合成情報600が1の部分は、前処理後入力画像211の深さ情報に更新し、最終的合成情報600が0の部分は深さ画像260の元の画素を更新せずにそのままにする。このようにして、ノイズの影響の少ない部分は空間分解能を高いまま、またノイズの影響が大きい部分は空間分解能を下げてノイズを減らした形で、組み合わせることでノイズに対して最適な合成をすることができる。
【0018】
図7は、第2の実施例をソフトウェアで実現した場合のフローチャートを示している。ノイズ低減200または250,ノイズ評価210,信号変化量評価220または260,ノイズ判定230,焦点判定240を、ノイズ低減変更700でノイズ低減の度合いを変更しながら繰り返す。その後、合成250を行った後、次の画像710で対象を次の画像に変え、画像が無くなるまで全体を繰り返す。
【0019】
つまり、図3における全焦点画像合成220と230は、図3のように構成として記述すると別の部分として表わされるが、図7のように、ソフトウェアで実現した場合のフローチャートでは、繰り返しの条件を変えた同じモジュールとして構成することが可能である。このような場合でも、繰り返して実行していることから、複数の全焦点画像合成手段が存在すると考えなければならない。
【0020】
図8は前処理手段210の第1の構成例である。入力画像201と入力画像202において、撮像した対象の位置がずれている場合、入力画像201と入力画像202の直接対応した画素について全焦点画像合成を行っても、正しい結果とはならない。従って、入力画像201の例えば中央部の適当な大きさの領域801をとり、これをテンプレートとして、入力画像202に対してテンプレートマッチングを行う。
【0021】
その結果、領域802がマッチングしたとすると、領域801と領域802を重ね合わせ、入力画像201と入力画像202の重なり合う矩形領域(AND領域)803を考え、入力画像201と入力画像202の、AND領域803に重なり合わない部分をそれぞれ切り落として、位置合わせ後入力画像804,805とする。この位置合わせ後入力画像804,805を入力として全焦点画像合成を行うことにより、正しく対応した画素について全焦点画像合成を行うことができる。この例では、入力画像が2つの例を示したが、3つ以上に拡張することは容易である。
【0022】
図9は前処理手段210の第2の構成例である。図8と同様、入力画像201と入力画像202において、撮像した対象の位置がずれている場合、入力画像201と入力画像202の直接対応した画素について全焦点画像合成を行っても、正しい結果とはならない。従って、入力画像201の例えば中央部の適当な大きさの領域801をとり、これをテンプレートとして、入力画像202に対してテンプレートマッチングを行う。その結果、領域802がマッチングしたとすると、領域801と領域802を重ね合わせ、入力画像201と入力画像202の両方を含む矩形領域(OR領域)903を考え、入力画像201と入力画像202の、OR領域903と重なり合わない部分をそれぞれ付加して、画素値を0またはそれぞれの入力画像の平均値などで埋め、位置合わせ後入力画像904,905とする。この位置合わせ後入力画像904,905を入力として全焦点画像合成を行うことにより、正しく対応した画素について全焦点画像合成を行うことができる。この例では、入力画像が2つの例を示したが、3つ以上に拡張することは容易である。
【0023】
図10は、前処理手段210の第3の構成例である。入力画像f1と入力画像f2において、f1の画素値の平均値がa、f2の画素値の平均値がbのように、輝度レベルが合わないまま、全焦点合成を行うと、f1の画素を選んだ部分と、f2の画素を選んだ部分の境界がくっきり見えてしまい、好ましい合成結果にならない。従って、画素値の平均値がcになるよう、入力画像f1と入力画像f2について、それぞれ輝度の変換を行う。
【0024】
f1(x,y)=f1(x,y)+c−a
f2(x,y)=f2(x,y)+c−b
このようにすることにより、入力画像f1と入力画像f2の画素値の平均値はいずれもcとなって一致するので、この入力画像f1と入力画像f2を用いて全焦点合成を行うと、f1の画素を選んだ部分と、f2の画素を選んだ部分の境界が目立たず、好ましい合成結果になる。この例では、入力画像が2つの例を示したが、3つ以上に拡張することは容易である。
【0025】
図12は、本発明の第3の実施例を示したものである。
【0026】
入力画像は、前処理手段210で前処理された後、ノイズ低減手段300でノイズを削減される。ノイズ低減手段の具体例としては、ノイズ低減フィルタや平滑化縮小がある。ノイズ低減画像301は、ノイズ量評価手段311によりノイズ量評価値311を算出され、同時に信号変化量評価手段320にて、焦点の合致度を表わす信号変化量評価値321を算出される。焦点判定手段340は、信号変化量評価値321より合成情報341を生成する。合成手段1240は、合成情報341から合成画像250,深さ画像260を合成する。
【0027】
このように、全焦点画像合成の中で、信号変化量評価手段320で信号変化量を評価する前に、ノイズ低減手段300により入力画像に含まれるノイズを低減させておくことにより、ノイズの影響の少ない合成画像250を合成できる。
【0028】
図13は、本発明の第4の実施例を示したものである。
【0029】
全焦点画像合成手段230は、デフォルト合成情報生成手段1301だけから成る。入力画像は、前処理手段210で前処理された後、ノイズ低減手段300でノイズを削減される。ノイズ低減画像301は、ノイズ量評価手段311によりノイズ量評価値311を算出され、同時に信号変化量評価手段A320にて、焦点の合致度を表わす信号変化量評価値321を算出される。焦点判定手段340は、信号変化量評価値321より信号変化量最大値342と合成情報341を生成する。信号変化量最大値342はノイズ判定手段330に送られ、ノイズ判定手段により、ノイズの影響の程度を表わす良好度情報331を出力する。デフォルト合成情報生成手段1301は、常に固定のデフォルト画像が選ばれるよう、デフォルト画像が入力されている時には全ての画素を1とする合成情報343を、デフォルト画像以外が入力されている時には全ての画素を0とする合成情報343を出力する。
【0030】
従って、全焦点画像合成手段220により、ノイズの影響のない良好な部分は少ないが空間分解能は高い結果が得られ、全焦点画像合成手段230により、固定のデフォルト画像が選択される。これらを合成手段240で、ノイズの影響のない部分は全焦点画像合成手段220の結果の画素を、ノイズの影響のある部分はデフォルト画像の画素を、画素ごとに選択して合成画像を合成することで、ノイズの影響のない良好な部分が多くかつ空間分解能は高い合成画像250を合成できる。
【0031】
図11は、第5の実施例を示している。全焦点画像合成1110は、入力画像201,信号変化量最大値画像1101,合成結果画像1102,深さ画像1103を入力し、信号変化量最大値画像1111,合成結果画像1112,深さ画像1113を出力する。信号変化量最大値画像1101は、図4の信号変化量最大値fmax 411、合成結果画像1102は図2の合成画像250、深さ画像1103は深さ画像260にそれぞれ対応している。全焦点画像合成1120,1130の入出力も1110の入出力と同様である。次に動作を説明する。まず、全焦点画像合成1110は、入力画像201に対し、信号変化量を調べて、信号変化量最大値画像1101と比較し、合成結果画像1102を1112へ、深さ画像1103を1113へ更新する。次に、全焦点画像合成1120は、入力画像202に対し、信号変化量を調べて、信号変化量最大値画像1111と比較し、合成結果画像1112を1122へ、深さ画像1113を1123へ更新する。さらに、全焦点画像合成1130は、入力画像203に対し、信号変化量を調べて、信号変化量最大値画像1121と比較し、合成結果画像1122を1132へ、深さ画像1123を1133へ更新する。このように、入力画像を1枚ずつ入力させながら、今までの合成結果に今回入力した入力画像1枚を反映させた合成結果を生成する構成にすることにより、次の入力画像を入力する入力処理と、入力が終わった画像に対する全焦点画像合成処理を並行して行うことが可能となり、全焦点画像合成1110,1120,1130の処理が、入力画像を入力する処理に隠すことができる。例えば入力画像が10数枚から成るような場合、10数枚をすべて入力してから、10数枚分の全焦点画像合成処理を処理するのとくらべて、大幅に短い時間で処理を終わらせることが可能となる。
【0032】
次に、上述した全焦点画像合成方法及び装置を適用した荷電粒子線装置の一実施例について図14を用いて説明します。
【0033】
本実施例の説明では、荷電粒子線装置の1つである走査電子顕微鏡を例にとって説明するが、これに限られるものではなく、例えばイオンビームを試料上に走査して試料像を得るFIB(Focused Ion Beam)装置のような他の荷電粒子線装置であっても良い。
【0034】
図14は、本発明が適用される走査電子顕微鏡を示す図である。この走査電子顕微鏡には自動焦点制御機能が組み込まれている。図14において、501は試料台、502は試料台上の撮影対象試料、504は陰極、505は走査コイル、506は電子レンズ、508は走査コイル制御回路、509はレンズ制御回路である。
【0035】
電子ビーム514は、走査コイル505によって試料502上を走査され、試料502から発せられた電子は検出器503で検出される。検出器503からの信号S1がAD変換器507に入力されてデジタル信号S2へと変換される。
S2のデジタル信号は、画像処理プロセッサ510に入力され、画像の微分処理等の画像処理と特徴量の抽出が行われ、その結果は制御用計算機511へ送られる。
【0036】
また、処理された画像は、表示装置512へ送られ表示される。制御用計算機511からの焦点制御信号S3は、レンズ制御回路509に入力され電子レンズ506の励磁電流を調節することで焦点制御を行うことができる。
【0037】
513は、制御用計算機511に接続される入力手段である。以上の様に構成されている走査電子顕微鏡での自動焦点制御は、電子レンズの焦点条件を自動的に最適値に設定する制御であり、その方法は、電子レンズの条件を変化させながら、複数枚のフレーム走査を行い得られた2次電子や反射電子の検出信号から焦点評価値を算出、評価し、最適値を電子レンズの条件に設定するものである。
【0038】
このような荷電粒子線装置に本発明の全焦点画像合成を適用することにより、全体にわたってぼけのない画像を獲得できる荷電粒子線装置を提供することができる。
【0039】
【発明の効果】
本発明によれば、ノイズの多い入力画像に対しても、人工的な合成画像に見えない自然な全焦点画像合成方法及び装置を提供できる。
【図面の簡単な説明】
【図1】本発明の全焦点画像合成の一概念を示した図である。
【図2】本発明の全焦点画像合成の第1の実施例を示した図である。
【図3】本発明の全焦点画像合成の第2の実施例を示した図である。
【図4】本発明の焦点判定手段の一構成例を示した図である。
【図5】本発明のノイズ判定手段の一構成例を示した図である。
【図6】本発明の合成手段の一構成例を示した図である。
【図7】本発明の全焦点画像合成の第2の実施例のフローチャートである。
【図8】本発明の全焦点画像合成の第2の実施例を示した図である。
【図9】本発明の全焦点画像合成の前処理手段210の一構成例を示した図である。
【図10】本発明の全焦点画像合成の前処理手段210の他の構成例を示した図である。
【図11】本発明の全焦点画像合成の第5の実施例を示した図である。
【図12】本発明の全焦点画像合成の第3の実施例を示した図である。
【図13】本発明の全焦点画像合成の第4の実施例を示した図である。
【図14】本発明の荷電粒子線装置の一実施例を示した図である。
【符号の説明】
200…入力画像、210…前処理手段、211…前処理後入力画像、220,230…全焦点画像合成手段、221,231…合成画像及び良好度情報、
240…合成手段、250…合成画像。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a charged particle beam apparatus, and more particularly to an omnifocal image synthesis method and apparatus for synthesizing an image that is entirely in focus from a plurality of images with different in-focus portions.
[0002]
[Prior art]
As a technique for observing a three-dimensional structure with respect to an electron microscope image, there are JP-A-5-128989, JP-A-5-299048, JP-A-9-92195, and the like.
[0003]
In addition, the prior art of the omnifocal image composition method for synthesizing an image that is entirely in focus from a plurality of images having different in-focus portions is a technique for optically photographed images. -333271, JP-A-9-26312, JP-A-6-113183, JP-A-2000-39566, JP-A-5-227460, JP-A-10-290389, JP-A-11-261797, JP-A-11- 283035, JP-A-11-287618, and the like.
[0004]
As a conventional technique for evaluating the amount of noise, John Immerkaer, “Fast Noise
Variance Estimation ", Computer Vision and Image Understanding, Vol.64, No.2, 1996, p.300-302.
[0005]
[Problems to be solved by the invention]
Along with the increase in the number of semiconductor wafers, the sample has a three-dimensional extent, and the depth of focus has become shallow due to the improved resolution of the electron microscope, and the need for observing the three-dimensional structure is increasing. Conventional techniques for observing a three-dimensional structure with respect to an image obtained with an electron microscope are those that observe a three-dimensional image (Japanese Patent Laid-Open No. 5-12989), and those that use contour lines and bird's-eye views (Japanese Patent Laid-Open No. 5-299048). Etc.) and not a simple method. The omnifocal image composition technology, which synthesizes an image that is entirely in focus from a plurality of images with different in-focus parts, is a simple method and there is a growing need to apply it to electron microscope images. Yes.
[0006]
However, since the image of the electron microscope is extremely noisy, it is essential to consider the noise. Since an optically photographed image has relatively little noise, conventional omnifocal image synthesis techniques for optical images do not consider noise. When an electron microscope image is synthesized by a conventional method, an artificial artifact is generated, resulting in an unnatural omnifocal image.
[0007]
An object of the present invention is to provide a natural omnifocal image synthesizing method and apparatus that do not look like an artificial synthesized image even for a noisy input image.
[0008]
[Means for Solving the Problems]
The present invention reduces noise in a plurality of input images read at different focal points, evaluates the noise amount of the noise-reduced image from which noise has been reduced, and evaluates the focus matching degree of the noise-reduced image to thereby change the amount of signal change. An evaluation value is calculated, a signal change amount evaluation maximum value and synthesis information are generated based on the calculated signal change amount evaluation value, and a noise influence level is determined from the signal change amount evaluation maximum value and the noise amount evaluation value. A plurality of omnifocal image synthesis means for generating goodness information, and a method for generating a composite image based on the plurality of goodness information generated from a plurality of omnifocal image synthesis means and the synthesis information, or A device using
[0009]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing the concept of omnifocal composition according to the present invention. 110, 120, and 130 are a plurality of input images taken with different focal points, 140 is a signal change amount evaluation, 141, 142, and 143 are signal change amounts corresponding to 110, 120, and 130, respectively. A composite image 160 is a depth image. It is assumed that one corresponding pixel of 110, 120, and 130 is taken, 110 is blurred in the vicinity thereof, 120 is in focus, and 130 is blurred. In the blurred part, the signal in the vicinity does not change much, whereas in the focused part, the signal in the vicinity changes greatly. When the signal change amount is evaluated by 140, the signal change amount is 141, 142, 143, the signal change amount 142 of the focused image 120 is the largest value. Therefore, 120 pixels corresponding to 142 having the largest signal change amount are set as pixels at corresponding positions in the composite image 150. Further, the depth information for 120 images corresponding to 142 having the largest signal change amount is set as a pixel at a corresponding position of the depth image 160. Depth information is preferable if the focal length of the input image is expressed as a pixel value, so that the actual depth of the imaged object can be known, but for example, the input images 110, 120, and 130 are # 1, # 2, and # 3, respectively. A number may be assigned and the number may be used as depth information. In short, it is only necessary to distinguish which input image has been selected. When the above operation is performed on all the pixels, the synthesized image 150 is finally synthesized into an image that is entirely in focus.
[0010]
FIG. 2 shows a second embodiment of the present invention.
[0011]
The input image 200 is processed by the preprocessing unit 210 and then input to the omnifocal image synthesizing unit 220 and 230, and different omnifocal image synthesis is performed to generate synthesis information and goodness information 221 and 231. The The synthesizing unit 240 selects, for each pixel, a pixel suitable for the purpose of synthesis from the corresponding information of the pre-processed input image 211 from the synthesis information and the goodness information 221, 231, and the synthesized image 250, depth An image 260 is generated. As described above, it is possible to combine a plurality of omnifocal images and combine preferable points to combine a more preferable image. In this example, two examples of the omnifocal image synthesis means are shown, but it is easy to expand to three or more.
[0012]
FIG. 3 shows a third embodiment of the present invention. In the present embodiment, the implementation configuration in the case where the “preference” in the second embodiment is limited to “being less susceptible to noise” is disclosed in more detail.
[0013]
Since the omnifocal image composition unit 220 and the omnifocal image composition unit 230 have the same configuration, the operation of the omnifocal image composition unit 220 will be described. The input image is preprocessed by the preprocessing unit 210, and then noise is reduced by the noise reduction unit A300. Specific examples of the noise reduction means include a noise reduction filter and smoothing reduction. Here, the smoothing reduction will be described as an example. In the noise reduction image 301, a noise amount evaluation value 311 is calculated by the noise amount evaluation unit 310, and at the same time, a signal change amount evaluation value 321 representing the degree of coincidence of focus is calculated by the signal change amount evaluation unit A320. The focus determination unit 340 generates a signal change maximum value 342 and synthesis information 341 from the signal change evaluation value 321. The signal change maximum value 342 is sent to the noise determination unit 330, and the noise determination unit outputs goodness information 331 indicating the degree of influence of noise. The omnifocal image synthesizing unit 230 operates in the same manner. However, if the noise reduction unit B350 is smoothed and reduced larger than the noise reduction unit A300, the result of the omnifocal image synthesis unit 230 is the result of the omnifocal image synthesis unit 220. Compared to this, the noise reduction effect is great, but the spatial resolution is reduced. Therefore, the omnifocal image synthesizing unit 220 obtains a result with a high spatial resolution with few good parts not affected by noise, and the omnifocal image synthesizing unit 230 obtains a space with good parts without noise. Results with low resolution are obtained. By synthesizing a synthesized image with less noise influence by selecting the pixel of the synthesized image with less noise influence for each pixel by the synthesizing unit 240, there are many good portions without noise influence. In addition, the synthesized image 250 having high spatial resolution can be synthesized. In this example, two examples of the omnifocal image synthesis means are shown, but it is easy to expand to three or more.
[0014]
FIG. 4 shows a configuration example of the focus determination unit 340.
[0015]
The maximum value storage means 410 contains a signal change amount maximum value 411 up to the previous image. The maximum value calculation means 420 causes the signal change amount maximum value 411 up to the previous image and the signal change amount 321 related to the current image to be displayed. The larger one is selected to calculate the maximum signal change amount 342 including the current image, and the maximum value stored in the maximum value storage means 410 is updated. On the other hand, the subtracting means 430 obtains the difference between the signal change amount maximum value 411 up to the previous image and the signal change amount 321 relating to the current image, and the binarizing means 440 determines whether or not it is greater than zero. Therefore, when the signal change amount 321 is represented by f, the signal change amount maximum value 411 up to the previous image is represented by fmax, and the composite information 341 is represented by g,
When f> fmax, g = 1
g = 0 when f <fmax
Thus, when the signal change amount 321 related to the current image is larger than the signal change amount maximum value 411 until the previous time, g = 1. That is, the composite information 341 has g = 1 for a pixel that should select a pixel of the current image as a pixel of the composite image.
[0016]
FIG. 5 shows a configuration example of the noise determination unit 330. The noise determination unit 330 receives the noise amount evaluation value 311 and the signal change amount maximum value 342 and outputs the goodness degree information 331. When the goodness information 331 is represented by v, the signal variation maximum value 342 is represented by fmax, and the noise amount evaluation value 311 is represented by N, when the signal variation maximum value fmax is larger than the noise amount evaluation value N, the influence of noise is small. Since the degree of goodness is high, v is 1. Further, when the maximum signal change amount fmax is smaller than the noise amount evaluation value N, the influence of noise is large and not good, so v is set to 0. However, since there is no guarantee that the signal change maximum value 342 and the noise amount evaluation value 311 have the same dimensional scale, the noise amount evaluation value 311 is corrected by applying a proportional constant K. From the above, when the functions of the noise determination means 330 are summarized,
When f (x, y)> K * n, v (x, y) = 1
When f (x, y) ≦ K * n, v (x, y) = 0
It becomes. The goodness information 331 to be output is information that becomes 1 when the influence of noise is small and the goodness is high, and becomes 0 when the influence of noise is not large and good.
[0017]
FIG. 6 shows a configuration example of the synthesizing unit 240. The synthesizing unit 240 receives the synthesis information 341, 343, the goodness information 331, 333, and the pre-processed input image 211, and outputs the synthesized image 250 and the depth image 260. The goodness information 331 and 333 is information indicating the amount of influence of noise, and represents a portion where the influence of noise is small, such as 1 (white), and a portion where the influence of noise is large, such as 0 (black). In FIG. 3, if the noise reduction unit B350 is smoothed and reduced more greatly than the noise reduction unit A300, the 1 (white) portion where the influence of the noise of the goodness information 333 is small is affected by the noise of the goodness information 331. It should be larger than the small 1 (white) part. Assuming that the composite information 341 and 343 are in the form as shown in the figure, it is desirable to use the composite information 341 when the goodness information 331 is 1, and the goodness information 331 is 0 and the goodness information 333 is 1. In the part, it is desirable to use the synthesis information 343. Furthermore, the portion where the goodness information 331 is 0 and the goodness information 333 is 0 is an unbelievable portion, but since something must be selected, the information of the goodness information 333 is used. Then, the final synthesis information 600 created by combining only the parts with little influence of noise is as shown in the figure. In the composite image 250, the portion where the final composite information 600 is 1 is updated to the pixel of the post-process input image 211, and the portion where the final composite information 600 is 0 is not updated the original pixel of the composite image 250. leave it as it is. Further, in the depth image 260, the portion where the final composition information 600 is 1 is updated to the depth information of the pre-processed input image 211, and the portion where the final composition information 600 is 0 is the original of the depth image 260. Leave the pixel as it is without updating it. In this way, the part that is less affected by noise maintains a high spatial resolution, and the part that is affected by large noise is reduced in spatial resolution to reduce noise. be able to.
[0018]
FIG. 7 shows a flowchart when the second embodiment is realized by software. The noise reduction 200 or 250, the noise evaluation 210, the signal change amount evaluation 220 or 260, the noise determination 230, and the focus determination 240 are repeated while changing the degree of noise reduction by the noise reduction change 700. Then, after performing composition 250, the target is changed to the next image in the next image 710, and the whole is repeated until there are no more images.
[0019]
That is, the omnifocal image synthesis 220 and 230 in FIG. 3 is expressed as a separate part when described as a configuration as shown in FIG. 3, but in the flowchart when realized by software as shown in FIG. It is possible to configure the same module as a changed one. Even in such a case, since it is repeatedly executed, it must be considered that a plurality of omnifocal image synthesis means exist.
[0020]
FIG. 8 shows a first configuration example of the preprocessing unit 210. In the case where the positions of the captured objects are shifted in the input image 201 and the input image 202, even if the omnifocal image synthesis is performed on the pixels directly corresponding to the input image 201 and the input image 202, the correct result is not obtained. Therefore, an area 801 having an appropriate size, for example, at the center of the input image 201 is taken, and this is used as a template to perform template matching on the input image 202.
[0021]
As a result, if the region 802 is matched, the region 801 and the region 802 are overlapped, and a rectangular region (AND region) 803 where the input image 201 and the input image 202 overlap is considered, and the AND region of the input image 201 and the input image 202 is considered. The parts that do not overlap with 803 are cut off to obtain input images 804 and 805 after alignment. By performing the omnifocal image composition using the input images 804 and 805 after the alignment as inputs, the omnifocal image composition can be performed for the correctly corresponding pixels. In this example, two input images are shown, but it is easy to expand to three or more.
[0022]
FIG. 9 shows a second configuration example of the preprocessing unit 210. As in FIG. 8, when the positions of the captured objects are shifted in the input image 201 and the input image 202, the correct result is obtained even if the omnifocal image synthesis is performed on the pixels directly corresponding to the input image 201 and the input image 202. Must not. Therefore, an area 801 having an appropriate size, for example, at the center of the input image 201 is taken, and this is used as a template to perform template matching on the input image 202. As a result, if the region 802 is matched, the region 801 and the region 802 are overlapped, and a rectangular region (OR region) 903 including both the input image 201 and the input image 202 is considered. Portions that do not overlap with the OR region 903 are added, and the pixel values are filled with 0 or an average value of the respective input images to obtain input images 904 and 905 after alignment. By performing omnifocal image composition using the post-positioning input images 904 and 905 as inputs, it is possible to perform omnifocal image composition for correctly corresponding pixels. In this example, two input images are shown, but it is easy to expand to three or more.
[0023]
FIG. 10 shows a third configuration example of the preprocessing unit 210. In the input image f1 and the input image f2, when the omnifocal composition is performed without matching the luminance levels such that the average value of the pixel value of f1 is a and the average value of the pixel value of f2 is b, the pixel of f1 is changed. The boundary between the selected portion and the portion where the pixel of f2 is selected is clearly seen, and a preferable synthesis result is not obtained. Therefore, luminance conversion is performed on the input image f1 and the input image f2 so that the average pixel value is c.
[0024]
f1 (x, y) = f1 (x, y) + c−a
f2 (x, y) = f2 (x, y) + c−b
By doing so, since the average values of the pixel values of the input image f1 and the input image f2 are both equal to c, when the omnifocal composition is performed using the input image f1 and the input image f2, f1 The boundary between the portion where the pixel is selected and the portion where the pixel of f2 is selected is not conspicuous, and a preferable synthesis result is obtained. In this example, two input images are shown, but it is easy to expand to three or more.
[0025]
FIG. 12 shows a third embodiment of the present invention.
[0026]
The input image is pre-processed by the pre-processing unit 210 and then noise is reduced by the noise reduction unit 300. Specific examples of the noise reduction means include a noise reduction filter and smoothing reduction. In the noise reduction image 301, the noise amount evaluation value 311 is calculated by the noise amount evaluation unit 311, and at the same time, the signal change amount evaluation unit 320 calculates the signal change amount evaluation value 321 representing the degree of coincidence of the focus. The focus determination unit 340 generates composite information 341 from the signal change amount evaluation value 321. The synthesizing unit 1240 synthesizes the synthesized image 250 and the depth image 260 from the synthesized information 341.
[0027]
As described above, in the omnifocal image synthesis, before the signal change amount evaluation unit 320 evaluates the signal change amount, the noise included in the input image is reduced by the noise reduction unit 300, so that the influence of the noise is reduced. It is possible to synthesize a composite image 250 with a small amount.
[0028]
FIG. 13 shows a fourth embodiment of the present invention.
[0029]
The omnifocal image synthesizing unit 230 includes only default synthesis information generating unit 1301. The input image is pre-processed by the pre-processing unit 210 and then noise is reduced by the noise reduction unit 300. In the noise reduced image 301, the noise amount evaluation value 311 is calculated by the noise amount evaluation unit 311. At the same time, the signal change amount evaluation unit A320 calculates the signal change amount evaluation value 321 representing the degree of coincidence of the focus. The focus determination unit 340 generates a signal change maximum value 342 and synthesis information 341 from the signal change evaluation value 321. The signal change maximum value 342 is sent to the noise determination unit 330, and the noise determination unit outputs goodness information 331 indicating the degree of influence of noise. The default composite information generation unit 1301 displays composite information 343 in which all pixels are set to 1 when a default image is input, and all pixels when a non-default image is input so that a fixed default image is always selected. The composite information 343 with 0 being output is output.
[0030]
Therefore, the omnifocal image synthesizing unit 220 obtains a result with few good portions that are not affected by noise but high spatial resolution, and the omnifocal image synthesizing unit 230 selects a fixed default image. These are synthesized by a synthesizing unit 240, and a synthesized image is selected by selecting, for each pixel, a pixel as a result of the omnifocal image synthesizing unit 220 for a part not affected by noise and a pixel of a default image for a part affected by noise. As a result, it is possible to synthesize the composite image 250 having many good portions that are not affected by noise and high spatial resolution.
[0031]
FIG. 11 shows a fifth embodiment. The omnifocal image synthesis 1110 receives the input image 201, the signal change maximum value image 1101, the synthesis result image 1102, and the depth image 1103, and the signal change amount maximum value 1111, the synthesis result image 1112, and the depth image 1113. Output. The signal change maximum value image 1101 corresponds to the signal change maximum value fmax 411 in FIG. 4, the synthesis result image 1102 corresponds to the composite image 250 in FIG. 2, and the depth image 1103 corresponds to the depth image 260. The input / output of the omnifocal image synthesis 1120 and 1130 is the same as the input / output of 1110. Next, the operation will be described. First, the omnifocal image synthesis 1110 checks the signal change amount for the input image 201 and compares it with the signal change maximum image 1101, and updates the synthesis result image 1102 to 1112 and the depth image 1103 to 1113. . Next, the omnifocal image composition 1120 checks the signal change amount with respect to the input image 202 and compares it with the signal change amount maximum value image 1111, and updates the composition result image 1112 to 1122 and the depth image 1113 to 1123. To do. Further, the omnifocal image composition 1130 checks the signal change amount with respect to the input image 203 and compares it with the signal change amount maximum value image 1121, and updates the composition result image 1122 to 1132 and the depth image 1123 to 1133. . In this way, by inputting the input image one by one and generating the composite result in which one input image input this time is reflected on the previous composite result, an input for inputting the next input image is made. The process and the omnifocal image synthesis process for the input-completed image can be performed in parallel, and the processes of the omnifocal image synthesis 1110, 1120, and 1130 can be hidden in the process of inputting the input image. For example, in the case where the input image is composed of 10 or more images, the processing is completed in a significantly shorter time than when all 10 or more images are input and then the omnifocal image synthesis processing for 10 or more images is processed. It becomes possible.
[0032]
Next, an embodiment of a charged particle beam apparatus to which the above-described omnifocal image synthesis method and apparatus are applied will be described with reference to FIG.
[0033]
In the description of this embodiment, a scanning electron microscope, which is one of charged particle beam apparatuses, will be described as an example. However, the present invention is not limited to this. For example, an FIB (scanning an ion beam on a sample to obtain a sample image) Other charged particle beam devices such as a Focused Ion Beam device may be used.
[0034]
FIG. 14 is a diagram showing a scanning electron microscope to which the present invention is applied. This scanning electron microscope incorporates an automatic focus control function. In FIG. 14, reference numeral 501 denotes a sample stage, 502 denotes a sample to be photographed on the sample stage, 504 denotes a cathode, 505 denotes a scanning coil, 506 denotes an electronic lens, 508 denotes a scanning coil control circuit, and 509 denotes a lens control circuit.
[0035]
The electron beam 514 is scanned on the sample 502 by the scanning coil 505, and the electrons emitted from the sample 502 are detected by the detector 503. A signal S1 from the detector 503 is input to the AD converter 507 and converted into a digital signal S2.
The digital signal of S2 is input to the image processor 510, image processing such as image differentiation processing and feature amount extraction are performed, and the result is sent to the control computer 511.
[0036]
The processed image is sent to the display device 512 and displayed. The focus control signal S3 from the control computer 511 is input to the lens control circuit 509, and the focus control can be performed by adjusting the excitation current of the electronic lens 506.
[0037]
Reference numeral 513 denotes input means connected to the control computer 511. The automatic focus control in the scanning electron microscope configured as described above is a control for automatically setting the focus condition of the electron lens to an optimum value, and the method can be performed while changing the condition of the electron lens. A focus evaluation value is calculated and evaluated from detection signals of secondary electrons and reflected electrons obtained by scanning one frame, and an optimum value is set as a condition of the electron lens.
[0038]
By applying the omnifocal image synthesis of the present invention to such a charged particle beam apparatus, a charged particle beam apparatus capable of obtaining an image without blurring over the entire image can be provided.
[0039]
【The invention's effect】
According to the present invention, it is possible to provide a natural omnifocal image synthesizing method and apparatus that do not look like an artificial synthesized image even for a noisy input image.
[Brief description of the drawings]
FIG. 1 is a diagram showing a concept of omnifocal image synthesis according to the present invention.
FIG. 2 is a diagram showing a first embodiment of omnifocal image synthesis according to the present invention.
FIG. 3 is a diagram showing a second embodiment of omnifocal image synthesis according to the present invention.
FIG. 4 is a diagram showing a configuration example of a focus determination unit of the present invention.
FIG. 5 is a diagram showing a configuration example of a noise determination unit of the present invention.
FIG. 6 is a diagram showing a configuration example of a synthesizing unit of the present invention.
FIG. 7 is a flowchart of a second embodiment of omnifocal image synthesis according to the present invention.
FIG. 8 is a diagram showing a second embodiment of omnifocal image synthesis according to the present invention.
FIG. 9 is a diagram showing a configuration example of pre-processing means 210 for omnifocal image synthesis according to the present invention.
FIG. 10 is a diagram showing another configuration example of the pre-processing means 210 for omnifocal image synthesis according to the present invention.
FIG. 11 is a diagram showing a fifth example of omnifocal image synthesis according to the present invention.
FIG. 12 is a diagram showing a third example of omnifocal image synthesis according to the present invention.
FIG. 13 is a diagram showing a fourth example of omnifocal image synthesis according to the present invention.
FIG. 14 is a diagram showing an example of a charged particle beam apparatus according to the present invention.
[Explanation of symbols]
200: input image, 210: preprocessing means, 211: input image after preprocessing, 220, 230 ... omnifocal image composition means, 221, 231 ... composite image and goodness information,
240 ... compositing means, 250 ... composite image.

Claims (7)

異なる焦点で読み取った複数の入力画像のノイズを削減し、
ノイズが削減されたノイズ削減画像のノイズ量を評価すると共に、前記ノイズ削減画像の焦点合致度を評価して信号変化量評価値を算出し、
算出された信号変化量評価値に基づいて信号変化量評価最大値と合成情報を生成し、
前記信号変化量評価最大値と前記ノイズ量評価値からノイズの影響度を判定して良好度情報を生成する全焦点画像合成手段を複数有し、
複数の全焦点画像合成手段から生成された複数の前記良好度情報と前記合成情報に基づいて合成画像を生成する全焦点画像合成方法。
Reduce the noise of multiple input images read at different focal points,
Evaluate the amount of noise in the noise-reduced image with reduced noise, evaluate the focus matching degree of the noise-reduced image, and calculate a signal change amount evaluation value,
Based on the calculated signal variation evaluation value, a signal variation evaluation maximum value and synthesis information are generated,
A plurality of omnifocal image synthesis means for determining the degree of influence of noise from the signal change amount evaluation maximum value and the noise amount evaluation value and generating goodness information;
An omnifocal image composition method for generating a composite image based on a plurality of the goodness information and the composite information generated from a plurality of omnifocal image composition means.
請求項1記載の全焦点画像合成方法において、
複数の前記良好度情報と前記合成情報から、画素毎にノイズ影響度の少ない合成情報を複数の中から選択し、選択された合成情報を合成して合成画像を生成する全焦点画像合成方法。
The omnifocal image synthesis method according to claim 1,
An omnifocal image composition method for selecting, from a plurality of pieces of goodness information and the combination information, combination information having a low noise influence for each pixel from among a plurality of pieces, and combining the selected combination information to generate a combined image.
請求項1記載の全焦点画像合成方法において、
前記複数の入力画像のノイズを削減する前に、複数の入力画像の位置合わせ及び輝度合わせを行なう全焦点画像合成方法。
The omnifocal image synthesis method according to claim 1,
An omnifocal image composition method for performing alignment and luminance adjustment of a plurality of input images before reducing noise of the plurality of input images.
請求項1記載の全焦点画像合成方法において、
前記複数の全焦点画像合成手段の少なくとも1つは、前記入力画像内の予め定められたデフォルト画像が選択される全焦点画像合成方法。
The omnifocal image synthesis method according to claim 1,
At least one of the plurality of omnifocal image synthesis means is an omnifocal image synthesis method in which a predetermined default image in the input image is selected.
異なる焦点で読み取った複数の入力画像のノイズを削減してノイズ削減画像を生成するノイズ低減手段と、前記ノイズ削減画像のノイズ量を評価してノイズ量評価値を算出するノイズ量評価手段と、前記ノイズ量評価値の算出と共に前記ノイズ削減画像の焦点合致度を評価して信号変化量評価値を算出する信号変化量評価手段と、前記信号変化量評価値を評価して信号変化量評価最大値と合成情報を生成する焦点判定手段と、前記信号変化量評価最大値と前記ノイズ量評価値からノイズの影響度を判定して良好度情報を生成するノイズ判定手段とを備える複数の全焦点画像合成手段と、
前記複数の全焦点画像合成手段から生成された複数の前記良好度情報と前記合成情報に基づいて合成画像を生成する合成手段を有する全焦点画像合成装置。
A noise reduction means for generating a noise reduced image by reducing noise of a plurality of input images read at different focal points; a noise amount evaluation means for evaluating a noise amount of the noise reduced image and calculating a noise amount evaluation value; A signal change amount evaluation unit that calculates a signal change amount evaluation value by evaluating a focus matching degree of the noise reduction image together with the calculation of the noise amount evaluation value, and a signal change amount evaluation maximum by evaluating the signal change amount evaluation value. A plurality of omnifocals comprising: a focus determination unit that generates a value and composite information; and a noise determination unit that determines a noise influence level from the maximum signal change amount evaluation value and the noise amount evaluation value to generate goodness information Image synthesis means;
An omnifocal image synthesizing apparatus including a synthesizing unit that generates a synthesized image based on the plurality of goodness information generated from the plurality of omnifocal image synthesizing units and the synthesized information.
請求項5記載の全焦点画像合成装置において、
前記複数の入力画像が前記ノイズ削減手段に入力される前に、前記複数の入力画像の位置合わせまたは輝度合わせ、もしくわ位置合わせ及び輝度合わせを行なう前処理手段を有する全焦点画像合成装置。
The omnifocal image composition apparatus according to claim 5, wherein
An omnifocal image synthesizing apparatus comprising preprocessing means for performing alignment, luminance adjustment, wrinkle alignment and luminance adjustment of the plurality of input images before the plurality of input images are input to the noise reduction means.
請求項5記載の全焦点画像合成装置において、
前記複数の入力画像を前記全焦点画像合成手段へ入力する入力処理と並行して入力された入力画像を前記全焦点画像合成手段にて全焦点画像合成処理する全焦点画像合成装置。
The omnifocal image composition apparatus according to claim 5, wherein
An omnifocal image synthesizing apparatus that performs an omnifocal image synthesis process on an input image input in parallel with an input process of inputting the plurality of input images to the omnifocal image synthesis unit.
JP2000170407A 1999-07-09 2000-06-02 Omnifocal image composition method and apparatus Expired - Fee Related JP3956584B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2000170407A JP3956584B2 (en) 2000-06-02 2000-06-02 Omnifocal image composition method and apparatus
US09/612,302 US6538249B1 (en) 1999-07-09 2000-07-07 Image-formation apparatus using charged particle beams under various focus conditions
US10/356,498 US6653633B2 (en) 1999-07-09 2003-02-03 Charged particle beam apparatus
US10/681,116 US6936818B2 (en) 1999-07-09 2003-10-09 Charged particle beam apparatus
US11/108,731 US7109485B2 (en) 1999-07-09 2005-04-19 Charged particle beam apparatus
US11/515,732 US7329868B2 (en) 1999-07-09 2006-09-06 Charged particle beam apparatus
US12/005,387 US7642514B2 (en) 1999-07-09 2007-12-27 Charged particle beam apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000170407A JP3956584B2 (en) 2000-06-02 2000-06-02 Omnifocal image composition method and apparatus

Publications (2)

Publication Number Publication Date
JP2001344599A JP2001344599A (en) 2001-12-14
JP3956584B2 true JP3956584B2 (en) 2007-08-08

Family

ID=18673135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000170407A Expired - Fee Related JP3956584B2 (en) 1999-07-09 2000-06-02 Omnifocal image composition method and apparatus

Country Status (1)

Country Link
JP (1) JP3956584B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738688B2 (en) * 2000-05-03 2010-06-15 Aperio Technologies, Inc. System and method for viewing virtual slides
JP4060558B2 (en) * 2001-09-12 2008-03-12 株式会社日立製作所 Defect inspection method and apparatus
US6898331B2 (en) * 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
JP2004214060A (en) 2003-01-06 2004-07-29 Hitachi High-Technologies Corp Scanning electron microscope, and testpiece observation method using it
US7231097B2 (en) * 2003-12-16 2007-06-12 Searete, Llc Lens defect correction
JP5336088B2 (en) 2005-01-27 2013-11-06 アペリオ・テクノロジーズ・インコーポレイテッド System and method for visualizing a three-dimensional virtual slide
JP4524717B2 (en) * 2008-06-13 2010-08-18 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
MX337930B (en) * 2011-12-09 2016-03-28 Steven Verdooner Method for combining a plurality of eye images into a plenoptic multifocal image.
JP5341286B1 (en) 2011-12-16 2013-11-13 オリンパスメディカルシステムズ株式会社 Depth expansion device
JP6074926B2 (en) 2012-07-05 2017-02-08 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2014207110A (en) * 2013-04-12 2014-10-30 株式会社日立ハイテクノロジーズ Observation apparatus and observation method
JP2015207860A (en) * 2014-04-18 2015-11-19 オリンパス株式会社 image processing apparatus, image processing method and image processing program
JP7030986B2 (en) * 2018-07-13 2022-03-07 富士フイルム株式会社 Image generator, image generator and image generator

Also Published As

Publication number Publication date
JP2001344599A (en) 2001-12-14

Similar Documents

Publication Publication Date Title
JP7003238B2 (en) Image processing methods, devices, and devices
JP3956584B2 (en) Omnifocal image composition method and apparatus
US6538249B1 (en) Image-formation apparatus using charged particle beams under various focus conditions
KR100200363B1 (en) Apparatus to enlarge the dynamic range
KR101505352B1 (en) Charged particle microscope device and image capturing method
US20040090523A1 (en) Image processing apparatus and method and image pickup apparatus
JP4261743B2 (en) Charged particle beam equipment
JP2877624B2 (en) Objective lens alignment control apparatus and control method for scanning electron microscope
US8526057B2 (en) Image processing apparatus and image processing method
JP6190768B2 (en) Electron microscope apparatus and imaging method using the same
JP2014207110A (en) Observation apparatus and observation method
US5681112A (en) Image enhancement
EP0622748A2 (en) A method for generating artificial shadow
US6819794B2 (en) Image processing apparatus, image processing method, storage medium and program
JPH10191100A (en) Video signal processing method
JP3938122B2 (en) Pseudo three-dimensional image generation apparatus, generation method, program therefor, and recording medium
CA2349224A1 (en) Method for automatic detection of region of interest for digital x-ray detectors using a filtered histogram
JPH11296680A (en) Image processor provided with contrast improving function and charged particle ray device
JP2000102033A (en) Automatic gradation correction method
JP2003065969A (en) Apparatus and method for inspecting pattern
JP2018160024A (en) Image processing device, image processing method and program
JP2020149589A (en) Image processing device, imaging apparatus, image processing method, and program
KR102639691B1 (en) Composite image generation method, apparatus performing the same, and computer program for executing the same
JP7214511B2 (en) Image processing device, imaging device, image processing method and program
JP3790629B2 (en) Scanning charged particle beam apparatus and method of operating scanning charged particle beam apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040514

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees