JP5868758B2 - Image processing system and microscope system including the same - Google Patents
Image processing system and microscope system including the same Download PDFInfo
- Publication number
- JP5868758B2 JP5868758B2 JP2012075081A JP2012075081A JP5868758B2 JP 5868758 B2 JP5868758 B2 JP 5868758B2 JP 2012075081 A JP2012075081 A JP 2012075081A JP 2012075081 A JP2012075081 A JP 2012075081A JP 5868758 B2 JP5868758 B2 JP 5868758B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- band
- unit
- processing system
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 58
- 238000011156 evaluation Methods 0.000 claims description 196
- 230000003287 optical effect Effects 0.000 claims description 56
- 238000003384 imaging method Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 description 15
- 239000000203 mixture Substances 0.000 description 12
- 238000001000 micrograph Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000005286 illumination Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 239000002131 composite material Substances 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Microscoopes, Condenser (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理システム及びそれを備えた顕微鏡システムに関する。 The present invention relates to an image processing system and a microscope system including the image processing system.
一般に、画像の帯域コントラストに基づいて、合焦を評価する方法が知られている。コントラストに基づく合焦評価は、オートフォーカス機能等の他、例えば被写体の奥行情報の取得にも用いられる。奥行情報は、例えば、被写体を複数の焦点位置で撮像した後に、各位置について合焦している画像をこの複数の画像から選択することで取得される。また、奥行情報は、被写体像を複数の焦点位置で撮像した後に、被写体の各位置について合焦している画像をこの複数の画像から選択し、それら合焦している画像を合成して全焦点画像や3次元再構築画像を作成する場合に用いられる。 In general, a method for evaluating focusing based on the band contrast of an image is known. In-focus evaluation based on contrast is used for acquiring depth information of a subject, for example, in addition to an autofocus function or the like. The depth information is acquired by, for example, selecting an image focused on each position from the plurality of images after imaging the subject at a plurality of focal positions. In addition, the depth information is obtained by capturing an image of a subject at a plurality of focal positions, selecting an in-focus image for each position of the subject from the plurality of images, and synthesizing the in-focus images. This is used when creating a focus image or a three-dimensional reconstructed image.
例えば特許文献1には、コントラストに基づいて合焦を判断し、合焦している画像に基づいて全焦点画像を作成する技術が開示されている。また、特許文献1には、合焦していない領域においても所定のコントラストを得るために、高周波の制限を行うフィルタの特性を制御することに係る技術が開示されている。 For example, Patent Document 1 discloses a technique for determining in-focus based on contrast and creating an omnifocal image based on the focused image. Patent Document 1 discloses a technique related to controlling the characteristics of a filter that limits a high frequency in order to obtain a predetermined contrast even in an unfocused region.
一般に画像は、その画像の取得に用いられた光学系や、倍率、被写体の特性等によって、異なる周波数帯域を有する。コントラストに基づく合焦判断において、コントラスト評価に高周波帯域を用いた方がより正確な合焦評価が実現されやすい。しかしながら、一方で、画像が有する帯域よりも高周波な情報に基づいて合焦評価が行われると、例えばノイズといった被写体の形状等とは無関係な要因に基づいて不適切な合焦評価がされてしまう恐れがある。 In general, an image has different frequency bands depending on the optical system used to acquire the image, the magnification, the characteristics of the subject, and the like. In in-focus determination based on contrast, more accurate in-focus evaluation is more easily realized when the high-frequency band is used for contrast evaluation. However, on the other hand, if focus evaluation is performed based on information having a frequency higher than the band of the image, inappropriate focus evaluation is performed based on factors unrelated to the shape of the subject such as noise. There is a fear.
そこで本発明は、画像の周波数帯域を考慮してコントラストに基づく合焦評価を行う画像処理システム及びそれを備えた顕微鏡システムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing system that performs focusing evaluation based on contrast in consideration of a frequency band of an image, and a microscope system including the image processing system.
前記目的を果たすため、本発明の一態様によれば、画像処理システムは、同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部と、複数の前記画像における所定の領域に対し、複数の周波数帯域ごとに、前記画像が含む帯域の帯域評価値を算出する帯域特性評価部と、少なくとも2つの前記焦点位置の前記帯域評価値を用いて統計情報を少なくとも前記周波数帯域ごとに算出する統計情報算出部と、前記統計情報に基づいて、前記帯域評価値に対する荷重係数を少なくとも前記周波数帯域ごとに算出する荷重係数算出部と、前記帯域評価値と前記荷重係数とに基づいて、複数の前記画像における前記領域ごとにコントラスト評価値を算出するコントラスト評価部と、前記コントラスト評価値に基づいて、複数の前記画像の各々の前記領域のうち合焦している前記領域を選択する合焦評価部と、を具備することを特徴とする。 To achieve the above object, according to an aspect of the present invention, an image processing system includes an image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject, and a predetermined region in the plurality of the images. On the other hand, for each of a plurality of frequency bands, a band characteristic evaluation unit that calculates a band evaluation value of a band included in the image, and statistical information using at least two of the band evaluation values of the focal position, at least for each frequency band Based on the statistical information calculation unit, a load coefficient calculation unit that calculates a load coefficient for the band evaluation value for each frequency band based on the statistical information, and the band evaluation value and the load coefficient A contrast evaluation unit for calculating a contrast evaluation value for each of the regions in the plurality of images, and a plurality of the Characterized in that it comprises a and a focus evaluation unit selects the area being focused among each of the areas of the image.
また、本発明の一態様によれば、顕微鏡システムは、顕微鏡光学系と、前記顕微鏡光学系を介した標本の像を標本画像として取得する撮像部と、前記標本画像を前記画像として取得する上記画像処理システムと、を備えることを特徴とする。 Moreover, according to one aspect of the present invention, a microscope system includes a microscope optical system, an imaging unit that acquires an image of a specimen through the microscope optical system as a specimen image, and the specimen image that is acquired as the image. And an image processing system.
本発明によれば、周波数帯域ごとに荷重係数を算出してこの荷重係数と帯域評価値とに基づいてコントラスト評価値を算出するので、画像の周波数帯域を考慮してコントラストに基づく合焦評価を行う画像処理システム及びそれを備えた顕微鏡システムを提供できる。 According to the present invention, since the load coefficient is calculated for each frequency band and the contrast evaluation value is calculated based on the load coefficient and the band evaluation value, the focus evaluation based on the contrast is performed in consideration of the frequency band of the image. An image processing system to perform and a microscope system including the image processing system can be provided.
[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。図1は、本実施形態に係る画像処理システム100の構成例の概略を示す。この図に示すように、画像処理システム100は、画像取得部110と、帯域処理部120と、帯域特性評価部130と、統計情報算出部140と、荷重係数算出部150と、コントラスト評価部160と、合焦評価部170と、3D形状推定部180と、画像合成部190とを備える。
[First Embodiment]
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows an outline of a configuration example of an
画像取得部110は、記憶部114を有している。画像取得部110は、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得し、記憶部114に記憶する。ここで、これら画像の各々は、その画像が取得された際の光学系の焦点位置に係る情報、すなわち合焦位置の奥行に係る情報が含まれているものとする。画像取得部110は、帯域処理部120及び画像合成部190からの要求に応じてこれら画像を出力する。
The
帯域処理部120は、フィルタバンクを有する。すなわち、帯域処理部120は、例えば、第1のフィルタ121と、第2のフィルタ122と、第3のフィルタ123とを有する。第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123の周波数特性を図2に示す。この図に示すように、これらフィルタはローパスフィルタとなっており、第1のフィルタ121、第2のフィルタ122、第3のフィルタ123の順にカットオフ周波数が高くなっている。すなわち、各フィルタが透過する信号の周波数帯域は異なる。なお、第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123は、図3にその周波数特性を示すような、バンドパスフィルタでもよい。その他、異なる周波数帯域を透過するように設計された複数のフィルタであればどのようなフィルタが用いられてもよい。また、本実施形態では、帯域処理部120が有するフィルタは3つであるとしているが、この数はいくつでもよい。帯域処理部120は、画像取得部110から画像を取得し、焦点位置が異なる複数の画像の各々に対して、画像の各領域(例えば各画素)について第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123のそれぞれを用いてフィルタリング処理を行う。帯域処理部120は、フィルタリング処理の結果を帯域特性評価部130に出力する。
The
帯域特性評価部130は、フィルタ処理された複数の画像の各領域について帯域評価値を算出する。帯域評価値は、例えば、フィルタごとに通過した信号の積分値を算出することで求められる。このようにして各画像について、領域ごと及び周波数帯域ごとに帯域評価値が得られる。帯域特性評価部130は、算出した帯域評価値を統計情報算出部140及びコントラスト評価部160に出力する。
The band
統計情報算出部140は、周波数帯域ごとに、焦点位置が異なる複数の画像の帯域評価値の平均値に関係する統計情報値を算出する。この統計情報については後述する。統計情報算出部140は、算出した統計情報値を荷重係数算出部150に出力する。荷重係数算出部150は、統計情報算出部140から入力された統計情報値に基づいて、周波数帯域ごとの重み付けに係る値、すなわち荷重係数を算出する。この荷重係数については後述する。荷重係数算出部150は、算出した荷重係数をコントラスト評価部160に出力する。
The statistical
コントラスト評価部160は、帯域特性評価部130から入力された帯域評価値に荷重係数算出部150から入力された帯域ごとに対応する荷重係数を乗算し、コントラスト評価値を算出する。コントラスト評価部160は、算出したコントラスト評価値を合焦評価部170に出力する。合焦評価部170は、コントラスト評価部160から入力されたコントラスト評価値に基づいて、焦点位置が異なる複数の画像のそれぞれについて画像中の各領域の合焦を評価する。合焦評価部170は、領域ごとに合焦している画像を選択し、その画像が撮像された際の焦点位置に係る情報に基づいて、画像中の各領域に対応する奥行情報を推定する。合焦評価部170は、画像中の各領域に係る奥行情報を3D形状推定部180に出力する。
The
3D形状推定部180は、合焦評価部170から入力された奥行情報に基づいて、奥行情報の最適化を行い、被写体の3次元形状を推定する。3D形状推定部180は、推定した被写体の3次元形状を画像合成部190に出力する。画像合成部190は、3D形状推定部180から入力された被写体の3次元形状と、画像取得部110から取得した複数の画像と、に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。この合成画像は、例えば3次元再構成画像や、全焦点画像等である。画像合成部190は、作成した合成画像を、例えば、表示させるために表示部に出力したり、記憶させるために記憶装置に出力したりする。
The 3D
本実施形態に係る画像処理システム100の動作の一例を、図4に示すフローチャートを参照して説明する。画像取得部110は、ステップS101において、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得する。これら画像には、奥行に係る情報(例えば、画像が取得された際の光学系の焦点位置に係る情報等)が含まれているものとする。画像取得部110は、取得した画像を記憶部114に記憶する。
An example of the operation of the
帯域処理部120は、ステップS102において、記憶部114に記憶された焦点位置が異なる複数の画像における所定の各領域(例えば各画素)に対し、例えば第1のフィルタ121、第2のフィルタ122及び第3のフィルタ123のそれぞれを用いてフィルタリング処理を行う。ここで、フィルタの数はいくつでもよいので、以降の説明において帯域処理部120は、N個のフィルタを有しているものとして説明する。帯域処理部120は、フィルタリング処理の結果を帯域特性評価部130に出力する。
In step S102, the
帯域特性評価部130は、ステップS103において、フィルタリング処理された複数の画像の各領域について、帯域ごとに帯域評価値を算出する。すなわち、各焦点位置k(k=1,2,…,K)について、また、各領域(i,j)(画像の全領域Aに含まれる各領域(i,j))について、すなわち、データI(k,i,j)のそれぞれについて、周波数帯域fn(n=1,2,…,N)ごとに帯域評価値Q(k,fn,i,j)を算出する。帯域評価値Q(k,fn,i,j)は、例えばフィルタを通過した信号の積分値として算出され、このフィルタを透過する帯域における振幅に相当する量となる。帯域特性評価部130は、帯域評価値Q(k,fn,i,j)を統計情報算出部140に出力する。
In step S103, the band
統計情報算出部140は、ステップS104において、周波数帯域ごとに焦点位置が異なる複数の画像について、帯域評価値Q(k,fn,i,j)の平均値と関係する統計情報値を算出する。後述するように、この統計情報値としては、様々な方法で算出された種々の値が用いられ得る。統計情報算出部140は、算出した統計情報値を荷重係数算出部150に出力する。
In step S104, the statistical
荷重係数算出部150は、ステップS105において、統計情報算出部140から入力された統計情報値に基づいて、帯域に応じた荷重係数を算出する。この荷重係数も、後述するように様々な方法で算出された種々の値が用いられる。荷重係数算出部150は、算出した荷重係数をコントラスト評価部160に出力する。
In step S105, the load
コントラスト評価部160は、ステップS106において、帯域特性評価部130から入力された帯域評価値Q(k,fn,i,j)に荷重係数算出部150から入力された荷重係数のうち対応する周波数帯域の荷重係数を乗算し、コントラスト評価値を算出する。コントラスト評価部160は、算出したコントラスト評価値を合焦評価部170に出力する。
In step S <
合焦評価部170は、ステップS107において、コントラスト評価部160から取得したコントラスト評価値に基づいて、合焦を評価する。例えば合焦評価部170は、焦点位置が異なる複数の画像のそれぞれについて、コントラスト評価値が所定の閾値より高い領域を合焦している領域として特定する。合焦評価部170は、焦点位置が異なる複数の画像のうち合焦している領域と、その領域が含まれる画像が取得された際の焦点位置に係る情報と、から、その領域に対応する点についての奥行情報を推定する。ここで、奥行情報は、例えば当該領域の奥行き方向の位置を表す値である。合焦評価部170は、各領域に係る奥行情報を3D形状推定部180に出力する。
In step S107, the
3D形状推定部180は、ステップS108において、合焦評価部170から入力された奥行情報に基づいて、平滑化等の奥行情報の最適化を行い、被写体の3次元形状を推定する。3D形状推定部180は、推定した被写体の3次元形状を画像合成部190に出力する。
In step S108, the 3D
画像合成部190は、ステップS109において、3D形状推定部180から入力された被写体の3次元形状に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。例えば合成画像が3次元再構成画像であれば、3次元形状とその3次元形状の各部に係る合焦している画像を合成させた合成画像を作成する。また、例えば合成画像が全焦点画像であれば、各領域についてその奥行に相当する焦点位置を有する画像から抽出した画像を組み合わせて、全ての領域について合焦している画像を合成する。画像合成部190は、作成した合成画像を表示部や記憶装置に出力する。
In step S <b> 109, the
例えば顕微鏡画像のように、被写界深度が浅い光学系を用いて被写界深度よりも大きな奥行きを有する被写体が撮像された場合、その画像はユーザに認識されにくい。これに対して3次元再構成画像や全焦点画像によれば、被写界深度よりも大きな奥行きを有する被写体の像が、容易にユーザに認識され得る。 For example, when a subject having a depth larger than the depth of field is captured using an optical system having a shallow depth of field, such as a microscope image, the image is not easily recognized by the user. On the other hand, according to the three-dimensional reconstructed image or the omnifocal image, an image of a subject having a depth larger than the depth of field can be easily recognized by the user.
このように、例えば画像取得部110は、同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部として機能する。例えば帯域特性評価部130は、複数の画像における所定の領域に対し、複数の周波数帯域ごとに、画像が含む帯域の帯域評価値を算出する帯域特性評価部として機能する。例えば統計情報算出部140は、少なくとも2つの焦点位置の帯域評価値を用いて統計情報を少なくとも周波数帯域ごとに算出する統計情報算出部として機能する。例えば荷重係数算出部150は、統計情報に基づいて、帯域評価値に対する荷重係数を少なくとも周波数帯域ごとに算出する荷重係数算出部として機能する。例えばコントラスト評価部160は、帯域評価値と荷重係数とに基づいて、複数の画像における領域ごとにコントラスト評価値を算出するコントラスト評価部として機能する。例えば合焦評価部170は、前記コントラスト評価値に基づいて、複数の前記画像の各々の前記領域のうち合焦している前記領域を選択する合焦評価部として機能する。例えば画像合成部190は、全焦点画像作成部又は3次元再構成画像作成部として機能する。
Thus, for example, the
本実施形態によれば、帯域特性評価部130によってフィルタリング処理が行われ、その結果として得られた帯域評価値に基づいてコントラスト評価部160でコントラスト評価値が算出される。一般に高周波数に対して高いスペクトルを有するフィルタが用いられた方が、より正確なコントラスト評価を示すコントラスト評価値が得られる。一方で、画像が有する周波数帯域よりも高周波な情報に基づいてコントラスト評価値が算出されると、例えばノイズといった被写体の構造とは無関係な要因を評価する不適切なコントラスト評価値が得られてしまう。本実施形態では、統計情報算出部140が画像の周波数帯域を考慮した統計情報値を算出し、荷重係数算出部150がこの統計情報値に基づいて荷重係数を算出する。すなわち、荷重係数は画像の周波数帯域が考慮されて決定されている。コントラスト評価部160は、帯域特性評価部130が算出した帯域評価値と、荷重係数算出部150が算出した荷重係数とに基づいてコントラスト評価値を決定しているので、画像の周波数帯域を考慮しない場合と比較して、より正確なコントラスト評価値を決定できる。その結果、画像処理システム100は、精度のよい3次元再構築画像や全焦点画像を作成することができる。この画像処理システム100は、被写界深度が浅い顕微鏡によって撮像された顕微鏡画像等に用いられるとき、特に効果を奏する。
According to the present embodiment, the band
次に、ステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値の具体例を説明する。 Next, specific examples of the statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 will be described.
[第1の例]
第1の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数、及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置(k=1,2,…,K)における帯域評価値Q(k,fn,i,j)の平均値である。すなわち、平均値L(fn,i,j)は、下記式(1)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the first example will be described. In this example, the statistical information value is the band evaluation value Q (k, f n , i, j) at all focal positions (k = 1, 2,..., K) for each region and each frequency band. Average value. That is, the average value L (f n , i, j) is calculated by the following formula (1).
荷重係数は、各領域及び各周波数帯域のそれぞれについて、前記平均値を全周波数帯域の前記平均値の和で除算した値である。すなわち、荷重係数LN(fm,i,j)は、下記式(2)で算出される。
帯域評価値Q(k,fn,i,j)と荷重係数LN(fm,i,j)とに基づいて、コントラスト評価値D(k,i,j)は、下記式(3)で算出される。
合焦評価部170は、ステップS107において、各領域(i,j)について、例えばこのコントラスト評価値D(k,i,j)が最も高くなるkを選択して奥行情報を推定する。
In step S107, the
なお、この例においては、荷重係数LN(fm,i,j)の算出において、上記式(2)のように前記平均値を全周波数帯域の前記平均値の和で除算しているが、全周波数帯域ではなく、一部の周波数帯域の前記平均値の和で前記平均値を除算して求めるようにしてもよい。 In this example, in calculating the load coefficient L N (f m , i, j), the average value is divided by the sum of the average values in all frequency bands as in the above equation (2). Alternatively, the average value may be obtained by dividing the average value by the sum of the average values of some frequency bands instead of the entire frequency band.
[第2の例]
第2の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第1の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,fn,i,j)の平均値である。すなわち、平均値L(fn,i,j)は、上記式(1)で算出される。この例では、荷重係数に平均値L(fn,i,j)が用いられる。したがって、コントラスト評価値D(k,i,j)は、下記式(4)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the second example will be described. In this example, the statistical information value is an average value of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the first example. is there. That is, the average value L (f n , i, j) is calculated by the above equation (1). In this example, an average value L (f n , i, j) is used as the load coefficient. Therefore, the contrast evaluation value D (k, i, j) is calculated by the following equation (4).
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。
In step S107, the
[第3の例]
第3の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第1の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,fn,i,j)の平均値である。すなわち、平均値L(fn,i,j)は、上記式(1)で算出される。この例では、荷重係数に平均値L(fn,i,j)の所定の周波数帯域f0に対する相対値が用いられる。すなわち、加重係数LN(fn,i,j)は、下記式(5)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the third example will be described. In this example, the statistical information value is an average value of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the first example. is there. That is, the average value L (f n , i, j) is calculated by the above equation (1). In this example, the relative value of the average value L (f n , i, j) with respect to the predetermined frequency band f 0 is used as the load coefficient. That is, the weighting coefficient L N (f n , i, j) is calculated by the following equation (5).
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。
In step S107, the
[第4の例]
第4の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第1の例と同様に、各領域及び各帯域について全ての焦点位置の平均値である。すなわち、平均値L(fn,i,j)は、上記式(1)で算出される。この例では、荷重係数は所定の条件を満たすか否かに応じて1又は0となる。すなわち、条件を満たすか否かに応じて帯域評価値Q(k,fn,i,j)を用いるか否かが決定される。この例では、荷重係数は、下記式(6)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the fourth example will be described. In this example, the statistical information value is an average value of all focal positions for each region and each band, as in the first example. That is, the average value L (f n , i, j) is calculated by the above equation (1). In this example, the load coefficient is 1 or 0 depending on whether or not a predetermined condition is satisfied. That is, whether or not to use the band evaluation value Q (k, f n , i, j) is determined depending on whether or not the condition is satisfied. In this example, the load coefficient is calculated by the following equation (6).
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。なお、荷重係数の決定における判定は上記式(6)のように平均値L(fn,i,j)を全周波数帯域の平均値の和で除算したものを用いるに限らず、平均値L(fn,i,j)そのものや、平均値L(fn,i,j)を任意の周波数帯域の平均値の和や任意の周波数帯域の平均値で除算したものを用いてもよい。
In step S107, the
第1乃至第4の例によれば、領域ごとに荷重係数Ln(fm,i,j)が算出されるので、画像中の領域ごとに帯域特性が一定でない場合に特に有効である。また、これらの例によれば、周波数帯域ごとに統計情報値としての平均値L(fn,i,j)が算出されている。平均値L(fn,i,j)が低いとき、コントラストを評価するために必要な情報が帯域評価値Q(k,fn,i,j)に含まれていないか、又は、帯域評価値Q(k,fn,i,j)にノイズが含まれていることが考えられる。第1乃至第4の例によれば、このような必要な情報が含まれていない又はノイズが含まれている帯域評価値Q(k,fn,i,j)の重みが小さくされるため、必要な情報が含まれていない等の帯域評価値Q(k,fn,i,j)がコントラスト評価値に影響することを防ぐことができる。その結果、精度の高い帯域評価値Q(k,fn,i,j)が生成され、この帯域評価値Q(k,fn,i,j)に基づいて、精度の高い奥行情報の推定が実現される。 According to the first to fourth examples, since the load coefficient L n (f m , i, j) is calculated for each region, it is particularly effective when the band characteristics are not constant for each region in the image. Further, according to these examples, the average value L (f n , i, j) as the statistical information value is calculated for each frequency band. When the average value L (f n , i, j) is low, information necessary for evaluating the contrast is not included in the band evaluation value Q (k, f n , i, j), or the band evaluation It is conceivable that noise is included in the value Q (k, f n , i, j). According to the first to fourth examples, the weight of the band evaluation value Q (k, f n , i, j) that does not include such necessary information or includes noise is reduced. Thus, it is possible to prevent the band evaluation value Q (k, f n , i, j) that does not include necessary information from affecting the contrast evaluation value. As a result, a highly accurate band evaluation value Q (k, f n , i, j) is generated, and based on this band evaluation value Q (k, f n , i, j), estimation of depth information with high accuracy is performed. Is realized.
[第5の例]
第5の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置(k=1,2,…,K)における帯域評価値Q(k,fn,i,j)の変動量である。この例では、変動量の一例として分散を用いる。すなわち、分散S(fn,i,j)は、例えば上記式(1)で算出される平均値L(fn,i,j)を用いて下記式(7)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the fifth example will be described. In this example, the statistical information value is the band evaluation value Q (k, f n , i, j) at all focal positions (k = 1, 2,..., K) for each region and each frequency band. It is a fluctuation amount. In this example, variance is used as an example of the variation. That is, the variance S (f n , i, j) is calculated by the following equation (7) using, for example, the average value L (f n , i, j) calculated by the above equation (1).
荷重係数は、各領域及び各周波数帯域についての分散を、全周波数帯域の前記分散の和で除算した値である。すなわち、荷重係数SN(fm,i,j)は、下記式(8)で算出される。
帯域評価値Q(k,fn,i,j)及び荷重係数SN(fm,i,j)を用いて、コントラスト評価値D(k,i,j)は下記式(9)で算出される。
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。なお、この例においては、荷重係数SN(fm,i,j)の算出において、上記式(8)のように前記平均値を全周波数帯域の前記平均値の和で除算しているが、全周波数帯域ではなく、一部の周波数帯域の前記平均値の和で前記平均値を除算して求めるようにしてもよい。
In step S107, the
[第6の例]
第6の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第5の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,fn,i,j)の分散の平均値である。すなわち、分散S(fn,i,j)は、上記式(7)で算出される。この例では、荷重係数に分散S(fn,i,j)が用いられる。したがって、コントラスト評価値D(k,i,j)は、下記式(10)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the sixth example will be described. In this example, the statistical information value is the average of the variances of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the fifth example. Value. That is, the variance S (f n , i, j) is calculated by the above equation (7). In this example, the variance S (f n , i, j) is used as the load coefficient. Accordingly, the contrast evaluation value D (k, i, j) is calculated by the following equation (10).
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。
In step S107, the
[第7の例]
第7の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第5の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,fn,i,j)の分散である。すなわち、分散S(fn,i,j)は、上記式(7)で算出される。この例では、荷重係数に分散S(fn,i,j)の所定の周波数帯域f0に対する相対値が用いられる。すなわち、荷重係数SN(fn,i,j)は、下記式(11)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the seventh example will be described. In this example, the statistical information value is the variance of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the fifth example. . That is, the variance S (f n , i, j) is calculated by the above equation (7). In this example, a relative value for the predetermined frequency band f 0 of the variance S (f n , i, j) is used as the load coefficient. That is, the load coefficient S N (f n , i, j) is calculated by the following equation (11).
ここで、帯域f0はn=1〜Nのうちいずれを用いてもよい。コントラスト評価値D(k,i,j)は、この荷重係数SN(fn,i,j)を用いて、上記式(9)で算出される。 Here, band f 0 may use any of n = 1 to N. The contrast evaluation value D (k, i, j) is calculated by the above equation (9) using this load coefficient S N (f n , i, j).
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。
In step S107, the
第5乃至第7の例によれば、領域ごとに荷重係数Ln(fm,i,j)が算出されるので、画像中の領域ごとに帯域特性が一定でない場合に特に有効である。また、これらの例によれば、周波数帯域ごとに統計情報値としての分散S(fn,i,j)が算出されている。分散S(fn,i,j)、すなわち変動量が低いとき、コントラストを評価するために必要な情報が帯域評価値Q(k,fn,i,j)に含まれていないか、又は、帯域評価値Q(k,fn,i,j)にノイズが含まれており、相対的に変動が少なくなっていると考えられる。第5乃至第7の例によれば、このような必要な情報が含まれていない又はノイズが含まれている帯域評価値Q(k,fn,i,j)の重みが小さくなることで、必要な情報が含まれていない等の帯域評価値Q(k,fn,i,j)がコントラスト評価値に影響することを防ぐことができる。その結果、精度の高い帯域評価値Q(k,fn,i,j)が生成され、この帯域評価値Q(k,fn,i,j)に基づいて、精度の高い奥行情報の推定が実現される。 According to the fifth to seventh examples, since the load coefficient L n (f m , i, j) is calculated for each region, it is particularly effective when the band characteristics are not constant for each region in the image. Further, according to these examples, the variance S (f n , i, j) as the statistical information value is calculated for each frequency band. When the variance S (f n , i, j), that is, the amount of variation is low, information necessary for evaluating the contrast is not included in the band evaluation value Q (k, f n , i, j), or The band evaluation value Q (k, f n , i, j) includes noise, and it is considered that the fluctuation is relatively small. According to the fifth to seventh examples, the weight of the band evaluation value Q (k, f n , i, j) that does not include such necessary information or includes noise is reduced. Thus, it is possible to prevent the band evaluation value Q (k, f n , i, j) that does not include necessary information from affecting the contrast evaluation value. As a result, a highly accurate band evaluation value Q (k, f n , i, j) is generated, and based on this band evaluation value Q (k, f n , i, j), estimation of depth information with high accuracy is performed. Is realized.
なお、分散を用いる場合も、第4の例の場合のように、荷重係数が所定の条件を満たすか否かに応じて1又は0に設定されてもよい。すなわち、条件を満たすか否かに応じて帯域評価値Q(k,fn,i,j)を用いるか否かが決定される。このようにしても第5乃至第7の例と同様の効果が得られる。 Even in the case of using dispersion, the load coefficient may be set to 1 or 0 depending on whether or not a predetermined condition is satisfied as in the case of the fourth example. That is, whether or not to use the band evaluation value Q (k, f n , i, j) is determined depending on whether or not the condition is satisfied. Even if it does in this way, the effect similar to the 5th thru | or 7th example is acquired.
[第8の例]
第8の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。第1乃至第4の例においては、統計情報値として領域ごとに平均値L(fn,i,j)が決定されていた。これに対して、第8の例において統計情報値は、各帯域についての画像全体Aに対する平均値である。すなわち、平均値L(fn)は、下記式(12)で算出される。
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the eighth example will be described. In the first to fourth examples, the average value L (f n , i, j) is determined for each region as the statistical information value. On the other hand, in the eighth example, the statistical information value is an average value for the entire image A for each band. That is, the average value L (f n ) is calculated by the following formula (12).
荷重係数は、平均値L(fn)を全周波数帯域の平均値L(fn)の和で除算した値である。すなわち、荷重係数LN(fm)は、下記式(13)で算出される。
帯域評価値Q(k,fn,i,j)及び荷重係数LN(fm)を用いて、コントラスト評価値D(k,i,j)は下記式(14)で算出される。
合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。
In step S107, the
この例によれば、帯域特性について領域ごとの差が小さい場合に、演算量が小さくなり有効である。また、本例の場合でも、上記式(13)に示すように全周波数帯域ではなく一部の周波数帯域の平均値の和や特定の周波数帯域の平均値で除算されるようにしてもよい。また、上記式(14)において、LN(fm)の代わりにL(fm)が用いられてもよい。また、LN(fm)が1又は0をとってもよい。また、第5乃至第7の例の場合と同様に、画像の全領域Aにおける分散の平均を用いるようにしてもよい。 According to this example, when the difference for each band characteristic is small, the amount of calculation is small, which is effective. Also in the case of this example, as shown in the above equation (13), it may be divided not by the entire frequency band but by the sum of the average values of some frequency bands or the average value of a specific frequency band. In the above formula (14), L (f m ) may be used instead of L N (f m ). Further, L N (f m ) may take 1 or 0. Further, as in the fifth to seventh examples, an average of variances in the entire area A of the image may be used.
[第1の実施形態の変形例]
第1の実施形態の変形例について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本変形例に係る画像処理システム100では、帯域処理部120は、フィルタバンクを有する代わりに、ウエーブレット変換を実行する。
[Modification of First Embodiment]
A modification of the first embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the
ウエーブレット変換では、図5の左に示されるような元の画像に対して、特定の方向性を有するフィルタリング処理を行って、図5の右に示されるような帯域分離後の画像A、B及びCを取得する。そして、フィルタの残差の画像を縮小した画像に対して、再び特定の方向性を有するフィルタリング処理を行って画像D、E及びFを取得する。以下、このような処理が繰り返され、画像G、H及びI、画像J、K、L及びMが取得される。このような変換処理が行われることで、図5の右に示すように多解像表現された画像データが作成される。このようなウエーブレット変換によって、第1の実施形態の場合と同様に、特定の帯域の利得に相当する量が画像の各領域に対応付けられる。 In the wavelet transform, an original image as shown on the left in FIG. 5 is subjected to a filtering process having a specific direction, and images A and B after band separation as shown on the right in FIG. And C. Then, the filtering process having a specific directionality is again performed on the image obtained by reducing the residual image of the filter to obtain images D, E, and F. Thereafter, such processing is repeated, and images G, H and I, and images J, K, L and M are acquired. By performing such conversion processing, image data expressed in multi-resolution as shown on the right side of FIG. 5 is created. By such wavelet transform, an amount corresponding to a gain in a specific band is associated with each region of the image, as in the first embodiment.
本変形例に係る画像処理システム100における処理の一例を図6のフローチャートに示す。画像取得部110は、ステップS201において、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得し、この画像を記憶部114に記憶する。帯域処理部120は、ステップS202において、記憶部114に記憶された焦点位置が異なる複数の画像に対してウエーブレット変換を行う。帯域処理部120は、変換結果を帯域特性評価部130に出力する。帯域特性評価部130は、ステップS203において、ウエーブレット変換された複数の画像の各領域(p,q)について、評価値を算出する。すなわち、ウエーブレットの段数nの係数を、各領域(p,q)について、すなわち、データI(k,p,q)のそれぞれについて、帯域評価値Q(k,n,p,q)とする。帯域特性評価部130は、帯域評価値Q(k,n,p,q)を統計情報算出部140に出力する。
An example of processing in the
統計情報算出部140は、ステップS204において、統計情報値を算出する。本変形例では、各帯域の帯域評価値Q(k,n,p,q)の全焦点位置k=1,2,…,Kの平均値を統計情報値L(fn)とする。すなわち、統計情報値L(fn)は、下記式(15)で算出される。
統計情報算出部140は、算出した統計情報値を荷重係数算出部150に出力する。
In step S204, the statistical
The statistical
荷重係数算出部150は、ステップS205において、統計情報算出部140から入力された統計情報値L(fn)に基づいて、帯域に応じた荷重係数を算出する。本変形例では、荷重係数LN(fm)は、下記式(16)で算出される。
コントラスト評価部160は、ステップS206において、帯域特性評価部130から入力された帯域評価値Q(k,p,q)に荷重係数算出部150から入力された帯域ごとの対応する荷重係数LN(fm)を乗算し、逆変換することでウエーブレット変換前の画像の各領域(i,j)に係るコントラスト評価値D(k,i,j)を算出する。コントラスト評価部160は、算出したコントラスト評価値D(k,i,j)を合焦評価部170に出力する。
In step S206, the
以降、第1の実施形態と同様に、合焦評価部170は、ステップS207においてコントラスト評価値D(k,i,j)に基づいて合焦を評価し、各画素に係る奥行情報を3D形状推定部180に出力する。3D形状推定部180は、ステップS208において奥行情報に基づいて、平滑化等の奥行情報の最適化を行い、被写体の3次元形状を推定し、推定した被写体の3次元形状を画像合成部190に出力する。画像合成部190は、ステップS209において、被写体の3次元形状と複数の画像とに基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。
Thereafter, as in the first embodiment, the
本変形例によっても、第1の実施形態と同様の効果が得られる。 Also by this modification, the same effect as the first embodiment can be obtained.
[第2の実施形態]
本発明の第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態は、第1の実施形態に係る画像処理システム100を備える顕微鏡システム200である。
[Second Embodiment]
A second embodiment of the present invention will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. The present embodiment is a
本実施形態に係る顕微鏡システム200の構成例の概略を図7に示す。この図に示すように、顕微鏡システム200は、顕微鏡210と第1の実施形態に係る画像処理システム100とを有する。顕微鏡210は、例えばデジタル顕微鏡である。顕微鏡210は、LED光源211と、照明光学系212と、光路制御素子213と、対物レンズ214と、図示しないステージ上に載置された標本面215と、観察光学系218と、撮像面219と、撮像部220と、コントローラ222とを有する。観察光学系218は、ズーム光学系216と、結像光学系217とを有する。観察光路には、標本面215から撮像面219に向かって、対物レンズ214と、光路制御素子213と、ズーム光学系216と、結像光学系217とが、この順に配置されている。
An outline of a configuration example of the
LED光源211から射出された照明光は、照明光学系212を介して、光路制御素子213に入射する。光路制御素子213は、照明光を観察光路上の対物レンズ214に向けて反射する。照明光は、対物レンズ214を介して標本面215に配置された標本に照射される。
The illumination light emitted from the LED
標本に照明光が照射されると、標本から観察光が生じる。ここで、観察光は反射光や蛍光等である。観察光は、光路制御素子213に入射する。光路制御素子213は、照明光の場合と異なり、観察光を透過させて、観察光をズーム光学系216及び結像光学系217を有する観察光学系218に入射させる。このように光路制御素子213は、入射光の特性に応じて、入射光を反射又は透過させる光学素子である。光路制御素子213には、例えば、入射光の偏光方向に応じて入射光を反射又は透過させるワイヤーグリッドや偏光ビームスプリッタ(PBS)等の偏光素子が用いられ得る。なお、この光路制御素子213は、例えば、入射光の周波数に応じて入射光を反射又は透過させるダイクロイックミラー等を用いても良い。
When the sample is irradiated with illumination light, observation light is generated from the sample. Here, the observation light is reflected light, fluorescence, or the like. The observation light is incident on the optical path control
観察光学系218は、観察光を撮像面219に集光させ、標本の像を撮像面219に結像させる。撮像部220は、撮像面219に結像した画像に基づく画像信号を生成し、この画像信号を顕微鏡画像として画像取得部110に出力する。コントローラ222は、顕微鏡210の動作を制御する。本実施形態では、顕微鏡210は、同一標本について、異なる焦点面において撮像した複数の顕微鏡画像を取得する。このため、コントローラ222は、顕微鏡210の光学系を制御して焦点面を徐々に変化させながら、各焦点面における標本の画像を撮像部220に撮像させる。具体的には、例えばコントローラ222は、顕微鏡210のステージの高さ、又は、対物レンズの高さの位置を変化させながら、撮像部220に撮像させる。コントローラ222は、撮像部220が撮像した画像と関連付けて、焦点位置に係る情報を画像取得部110に出力する。
The observation
本実施形態に係る顕微鏡システム200の動作を説明する。標本は、標本面215を有するように図示しないステージ上に配置される。コントローラ222は、顕微鏡210を制御する。コントローラ222は、例えば標本面215の位置を光軸方向に徐々に変化させ、標本に対する光学系の焦点位置を徐々に変化させる。具体的には、例えばコントローラ222は、顕微鏡210のステージの高さ、対物レンズの高さ又はフォーカスレンズの位置を変化させる。このとき、コントローラ222は、各焦点位置における標本の顕微鏡画像を撮像部220に順次撮像させる。画像取得部110は、撮像部220から各焦点位置における標本の顕微鏡画像を取得する。また、画像取得部110は、コントローラ222から各画像が撮像された際の焦点位置を取得する。画像取得部110は、取得した顕微鏡画像をその焦点位置と関連付けて記憶部114に記憶する。
An operation of the
記憶部114に記憶された顕微鏡画像に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する処理は、第1の実施形態の処理と同様である。本実施形態では、顕微鏡システム200は、顕微鏡画像に係る合成画像、例えば3次元再構成画像や全焦点画像を作成する。画像合成部190は、作成した合成画像を、例えば、表示させるために表示部に出力したり、記憶させるために記憶装置に出力したりする。3次元再構成画像や全焦点画像によれば、一般の顕微鏡画像のように被写界深度よりも大きな奥行きを有する被写体の像が、容易にユーザに認識され得る。
The process of creating a composite image by combining a plurality of images with different focal positions based on the microscope image stored in the
このように、例えば照明光学系212、光路制御素子213、対物レンズ214、観察光学系218等は、顕微鏡光学系として機能する。例えば撮像部220は、顕微鏡光学系を介した標本の像を標本画像として取得する撮像部として機能する。
Thus, for example, the illumination
一般に、顕微鏡の光学系は、デジタルカメラの光学系に比べて像の拡大率が大きい。このため、顕微鏡撮影においては、カメラの撮像素子のサンプリング帯域に対して、顕微鏡の光学系の帯域がそれほど高くない場合がある。また、光学系の帯域は、光学系の開口数や倍率等によって変化し得る。例えば顕微鏡がズーム光学系を有する場合にも、その光学系の帯域は変化する。本実施形態によれば、統計情報算出部140は画像の周波数帯域が考慮された統計情報値を算出し、荷重係数算出部150はこの統計情報値に基づいて荷重係数を算出する。すなわち、コントラスト評価部160は、帯域特性評価部130が算出した評価値と、画像の周波数帯域を考慮して算出された荷重係数とに基づいてコントラスト評価値を決定するので、正確なコントラスト評価値を決定できる。その結果、顕微鏡システム200は、精度のよい3次元再構築顕微鏡画像や全焦点顕微鏡画像を作成することができる。顕微鏡110の光学系にズーム光学系が含まれている場合、ズーム光学系の焦点距離に応じて開口数が変化し顕微鏡画像の帯域が変化するので、本実施形態は特に効果を奏する。
In general, an optical system of a microscope has a larger image enlargement ratio than an optical system of a digital camera. For this reason, in microscope photography, the bandwidth of the optical system of the microscope may not be so high with respect to the sampling bandwidth of the camera image sensor. Further, the band of the optical system can change depending on the numerical aperture, magnification, and the like of the optical system. For example, when the microscope has a zoom optical system, the band of the optical system changes. According to the present embodiment, the statistical
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても、発明が解決しようとする課題の欄で述べられた課題が解決でき、かつ、発明の効果が得られる場合には、この構成要素が削除された構成も発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the problem described in the column of problems to be solved by the invention can be solved and the effect of the invention can be obtained. The configuration in which this component is deleted can also be extracted as an invention. Furthermore, constituent elements over different embodiments may be appropriately combined.
100…画像処理システム、110…画像取得部、114…記憶部、115…標本面、120…帯域処理部、121…第1のフィルタ、122…第2のフィルタ、123…第3のフィルタ、130…帯域特性評価部、140…統計情報算出部、150…荷重係数算出部、160…コントラスト評価部、170…合焦評価部、180…3D形状推定部、190…画像合成部、200…顕微鏡システム、210…顕微鏡、211…LED光源、212…照明光学系、213…光路制御素子、214…対物レンズ、215…標本面、216…ズーム光学系、217…結像光学系、218…観察光学系、219…撮像面、220…撮像部、222…コントローラ。
DESCRIPTION OF
Claims (13)
複数の前記画像における所定の領域に対し、複数の周波数帯域ごとに、前記画像が含む帯域の帯域評価値を算出する帯域特性評価部と、
少なくとも2つの前記焦点位置の前記帯域評価値を用いて統計情報を少なくとも前記周波数帯域ごとに算出する統計情報算出部と、
前記統計情報に基づいて、前記帯域評価値に対する荷重係数を少なくとも前記周波数帯域ごとに算出する荷重係数算出部と、
前記帯域評価値と前記荷重係数とに基づいて、複数の前記画像における前記領域ごとにコントラスト評価値を算出するコントラスト評価部と、
前記コントラスト評価値に基づいて、複数の前記画像の各々の前記領域のうち合焦している前記領域を選択する合焦評価部と、
を具備することを特徴とする画像処理システム。 An image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject;
A band characteristic evaluation unit that calculates a band evaluation value of a band included in the image for each of a plurality of frequency bands for a predetermined region in the plurality of images,
A statistical information calculation unit that calculates statistical information for at least each frequency band using the band evaluation values of at least two focal positions;
Based on the statistical information, a load coefficient calculation unit that calculates a load coefficient for the band evaluation value at least for each frequency band;
A contrast evaluation unit that calculates a contrast evaluation value for each of the regions in the plurality of images based on the band evaluation value and the load coefficient;
A focus evaluation unit that selects the region in focus among the regions of each of the plurality of images based on the contrast evaluation value;
An image processing system comprising:
前記荷重係数算出部は、さらに前記領域ごとに前記荷重係数を算出し、
コントラスト評価部は、前記領域ごとの前記帯域評価値と前記領域ごとの前記荷重係数とに基づいて、前記コントラスト評価値を算出する、
ことを特徴とする請求項1又は2に記載の画像処理システム。 The statistical information calculation unit further calculates the statistical information for each region,
The load coefficient calculation unit further calculates the load coefficient for each region,
The contrast evaluation unit calculates the contrast evaluation value based on the band evaluation value for each region and the load coefficient for each region.
The image processing system according to claim 1, wherein the image processing system is an image processing system.
前記顕微鏡光学系を介した標本の像を標本画像として取得する撮像部と、
前記標本画像を前記画像として取得する請求項1乃至11のうち何れか1項に記載の画像処理システムと、
を備えることを特徴とする顕微鏡システム。 Microscope optics,
An imaging unit that obtains an image of a specimen through the microscope optical system as a specimen image;
The image processing system according to any one of claims 1 to 11, wherein the sample image is acquired as the image.
A microscope system comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012075081A JP5868758B2 (en) | 2012-03-28 | 2012-03-28 | Image processing system and microscope system including the same |
US13/788,526 US9509977B2 (en) | 2012-03-28 | 2013-03-07 | Image processing system and microscope system including the same |
US15/338,852 US20170046846A1 (en) | 2012-03-28 | 2016-10-31 | Image processing system and microscope system including the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012075081A JP5868758B2 (en) | 2012-03-28 | 2012-03-28 | Image processing system and microscope system including the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013205650A JP2013205650A (en) | 2013-10-07 |
JP5868758B2 true JP5868758B2 (en) | 2016-02-24 |
Family
ID=49524792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012075081A Active JP5868758B2 (en) | 2012-03-28 | 2012-03-28 | Image processing system and microscope system including the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5868758B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3396428A4 (en) * | 2015-12-22 | 2019-08-28 | Olympus Corporation | Microscope system |
-
2012
- 2012-03-28 JP JP2012075081A patent/JP5868758B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013205650A (en) | 2013-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6112824B2 (en) | Image processing method and apparatus, and program. | |
KR101233013B1 (en) | Image photographing device, distance computing method for the device, and focused image acquiring method | |
JP5705096B2 (en) | Image processing apparatus and image processing method | |
JP5868183B2 (en) | Imaging apparatus and imaging method | |
JP5832424B2 (en) | Imaging apparatus and distance measuring method | |
JP5797016B2 (en) | Image processing apparatus, image processing method, and program | |
JP6214183B2 (en) | Distance measuring device, imaging device, distance measuring method, and program | |
JP5869883B2 (en) | Image processing device | |
JP6548367B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
US20120281132A1 (en) | Image capturing device, image capturing method, program, and integrated circuit | |
US20170046846A1 (en) | Image processing system and microscope system including the same | |
JP5374119B2 (en) | Distance information acquisition device, imaging device, and program | |
JP2012005056A (en) | Image processing device, image processing method and program | |
US20140022346A1 (en) | Method and apparatus for improving depth of field (dof) in microscopy | |
JP2007199633A (en) | Focusing detector | |
WO2021038103A1 (en) | Image processing apparatus and method for use in an autofocus system | |
JP2015108837A (en) | Image processing apparatus and image processing method | |
US9942534B2 (en) | Image processing system and microscope system including the same | |
JP5653464B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
JP5846895B2 (en) | Image processing system and microscope system including the same | |
JP5868758B2 (en) | Image processing system and microscope system including the same | |
JP5965638B2 (en) | Microscope system with image processing system | |
JP2016119542A (en) | Image processing method, image processing program, image processing unit, and imaging apparatus | |
JP5914092B2 (en) | Image processing system and microscope system including the same | |
JP5207250B2 (en) | Image processing apparatus, imaging apparatus, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5868758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |