JP5868758B2 - Image processing system and microscope system including the same - Google Patents

Image processing system and microscope system including the same Download PDF

Info

Publication number
JP5868758B2
JP5868758B2 JP2012075081A JP2012075081A JP5868758B2 JP 5868758 B2 JP5868758 B2 JP 5868758B2 JP 2012075081 A JP2012075081 A JP 2012075081A JP 2012075081 A JP2012075081 A JP 2012075081A JP 5868758 B2 JP5868758 B2 JP 5868758B2
Authority
JP
Japan
Prior art keywords
image
band
unit
processing system
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012075081A
Other languages
Japanese (ja)
Other versions
JP2013205650A (en
Inventor
渡辺 伸之
伸之 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012075081A priority Critical patent/JP5868758B2/en
Priority to US13/788,526 priority patent/US9509977B2/en
Publication of JP2013205650A publication Critical patent/JP2013205650A/en
Application granted granted Critical
Publication of JP5868758B2 publication Critical patent/JP5868758B2/en
Priority to US15/338,852 priority patent/US20170046846A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理システム及びそれを備えた顕微鏡システムに関する。   The present invention relates to an image processing system and a microscope system including the image processing system.

一般に、画像の帯域コントラストに基づいて、合焦を評価する方法が知られている。コントラストに基づく合焦評価は、オートフォーカス機能等の他、例えば被写体の奥行情報の取得にも用いられる。奥行情報は、例えば、被写体を複数の焦点位置で撮像した後に、各位置について合焦している画像をこの複数の画像から選択することで取得される。また、奥行情報は、被写体像を複数の焦点位置で撮像した後に、被写体の各位置について合焦している画像をこの複数の画像から選択し、それら合焦している画像を合成して全焦点画像や3次元再構築画像を作成する場合に用いられる。   In general, a method for evaluating focusing based on the band contrast of an image is known. In-focus evaluation based on contrast is used for acquiring depth information of a subject, for example, in addition to an autofocus function or the like. The depth information is acquired by, for example, selecting an image focused on each position from the plurality of images after imaging the subject at a plurality of focal positions. In addition, the depth information is obtained by capturing an image of a subject at a plurality of focal positions, selecting an in-focus image for each position of the subject from the plurality of images, and synthesizing the in-focus images. This is used when creating a focus image or a three-dimensional reconstructed image.

例えば特許文献1には、コントラストに基づいて合焦を判断し、合焦している画像に基づいて全焦点画像を作成する技術が開示されている。また、特許文献1には、合焦していない領域においても所定のコントラストを得るために、高周波の制限を行うフィルタの特性を制御することに係る技術が開示されている。   For example, Patent Document 1 discloses a technique for determining in-focus based on contrast and creating an omnifocal image based on the focused image. Patent Document 1 discloses a technique related to controlling the characteristics of a filter that limits a high frequency in order to obtain a predetermined contrast even in an unfocused region.

特開2010−166247号公報JP 2010-166247 A

一般に画像は、その画像の取得に用いられた光学系や、倍率、被写体の特性等によって、異なる周波数帯域を有する。コントラストに基づく合焦判断において、コントラスト評価に高周波帯域を用いた方がより正確な合焦評価が実現されやすい。しかしながら、一方で、画像が有する帯域よりも高周波な情報に基づいて合焦評価が行われると、例えばノイズといった被写体の形状等とは無関係な要因に基づいて不適切な合焦評価がされてしまう恐れがある。   In general, an image has different frequency bands depending on the optical system used to acquire the image, the magnification, the characteristics of the subject, and the like. In in-focus determination based on contrast, more accurate in-focus evaluation is more easily realized when the high-frequency band is used for contrast evaluation. However, on the other hand, if focus evaluation is performed based on information having a frequency higher than the band of the image, inappropriate focus evaluation is performed based on factors unrelated to the shape of the subject such as noise. There is a fear.

そこで本発明は、画像の周波数帯域を考慮してコントラストに基づく合焦評価を行う画像処理システム及びそれを備えた顕微鏡システムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing system that performs focusing evaluation based on contrast in consideration of a frequency band of an image, and a microscope system including the image processing system.

前記目的を果たすため、本発明の一態様によれば、画像処理システムは、同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部と、複数の前記画像における所定の領域に対し、複数の周波数帯域ごとに、前記画像が含む帯域の帯域評価値を算出する帯域特性評価部と、少なくとも2つの前記焦点位置の前記帯域評価値を用いて統計情報を少なくとも前記周波数帯域ごとに算出する統計情報算出部と、前記統計情報に基づいて、前記帯域評価値に対する荷重係数を少なくとも前記周波数帯域ごとに算出する荷重係数算出部と、前記帯域評価値と前記荷重係数とに基づいて、複数の前記画像における前記領域ごとにコントラスト評価値を算出するコントラスト評価部と、前記コントラスト評価値に基づいて、複数の前記画像の各々の前記領域のうち合焦している前記領域を選択する合焦評価部と、を具備することを特徴とする。   To achieve the above object, according to an aspect of the present invention, an image processing system includes an image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject, and a predetermined region in the plurality of the images. On the other hand, for each of a plurality of frequency bands, a band characteristic evaluation unit that calculates a band evaluation value of a band included in the image, and statistical information using at least two of the band evaluation values of the focal position, at least for each frequency band Based on the statistical information calculation unit, a load coefficient calculation unit that calculates a load coefficient for the band evaluation value for each frequency band based on the statistical information, and the band evaluation value and the load coefficient A contrast evaluation unit for calculating a contrast evaluation value for each of the regions in the plurality of images, and a plurality of the Characterized in that it comprises a and a focus evaluation unit selects the area being focused among each of the areas of the image.

また、本発明の一態様によれば、顕微鏡システムは、顕微鏡光学系と、前記顕微鏡光学系を介した標本の像を標本画像として取得する撮像部と、前記標本画像を前記画像として取得する上記画像処理システムと、を備えることを特徴とする。   Moreover, according to one aspect of the present invention, a microscope system includes a microscope optical system, an imaging unit that acquires an image of a specimen through the microscope optical system as a specimen image, and the specimen image that is acquired as the image. And an image processing system.

本発明によれば、周波数帯域ごとに荷重係数を算出してこの荷重係数と帯域評価値とに基づいてコントラスト評価値を算出するので、画像の周波数帯域を考慮してコントラストに基づく合焦評価を行う画像処理システム及びそれを備えた顕微鏡システムを提供できる。   According to the present invention, since the load coefficient is calculated for each frequency band and the contrast evaluation value is calculated based on the load coefficient and the band evaluation value, the focus evaluation based on the contrast is performed in consideration of the frequency band of the image. An image processing system to perform and a microscope system including the image processing system can be provided.

本発明の第1の実施形態に係る画像処理システムの構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing system according to a first embodiment of the present invention. 第1の実施形態に係る帯域処理部が有するフィルタバンクの周波数特性の一例を示す図。The figure which shows an example of the frequency characteristic of the filter bank which the band process part which concerns on 1st Embodiment has. 第1の実施形態に係る帯域処理部が有するフィルタバンクの周波数特性の別の例を示す図。The figure which shows another example of the frequency characteristic of the filter bank which the band process part which concerns on 1st Embodiment has. 第1の実施形態に係る画像処理システムにおける処理の一例を示すフローチャート。5 is a flowchart illustrating an example of processing in the image processing system according to the first embodiment. ウエーブレット変換を説明するための図。The figure for demonstrating wavelet transformation. 第1の実施形態の変形例に係る画像処理システムにおける処理の一例を示すフローチャート。6 is a flowchart illustrating an example of processing in an image processing system according to a modification of the first embodiment. 第2の実施形態に係る顕微鏡システムの構成例を示すブロック図。The block diagram which shows the structural example of the microscope system which concerns on 2nd Embodiment.

[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。図1は、本実施形態に係る画像処理システム100の構成例の概略を示す。この図に示すように、画像処理システム100は、画像取得部110と、帯域処理部120と、帯域特性評価部130と、統計情報算出部140と、荷重係数算出部150と、コントラスト評価部160と、合焦評価部170と、3D形状推定部180と、画像合成部190とを備える。
[First Embodiment]
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows an outline of a configuration example of an image processing system 100 according to the present embodiment. As shown in this figure, the image processing system 100 includes an image acquisition unit 110, a band processing unit 120, a band characteristic evaluation unit 130, a statistical information calculation unit 140, a load coefficient calculation unit 150, and a contrast evaluation unit 160. A focus evaluation unit 170, a 3D shape estimation unit 180, and an image composition unit 190.

画像取得部110は、記憶部114を有している。画像取得部110は、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得し、記憶部114に記憶する。ここで、これら画像の各々は、その画像が取得された際の光学系の焦点位置に係る情報、すなわち合焦位置の奥行に係る情報が含まれているものとする。画像取得部110は、帯域処理部120及び画像合成部190からの要求に応じてこれら画像を出力する。   The image acquisition unit 110 includes a storage unit 114. The image acquisition unit 110 acquires a plurality of images captured while changing the focal position of the same subject, and stores the acquired images in the storage unit 114. Here, it is assumed that each of these images includes information related to the focal position of the optical system when the image is acquired, that is, information related to the depth of the in-focus position. The image acquisition unit 110 outputs these images in response to requests from the band processing unit 120 and the image composition unit 190.

帯域処理部120は、フィルタバンクを有する。すなわち、帯域処理部120は、例えば、第1のフィルタ121と、第2のフィルタ122と、第3のフィルタ123とを有する。第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123の周波数特性を図2に示す。この図に示すように、これらフィルタはローパスフィルタとなっており、第1のフィルタ121、第2のフィルタ122、第3のフィルタ123の順にカットオフ周波数が高くなっている。すなわち、各フィルタが透過する信号の周波数帯域は異なる。なお、第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123は、図3にその周波数特性を示すような、バンドパスフィルタでもよい。その他、異なる周波数帯域を透過するように設計された複数のフィルタであればどのようなフィルタが用いられてもよい。また、本実施形態では、帯域処理部120が有するフィルタは3つであるとしているが、この数はいくつでもよい。帯域処理部120は、画像取得部110から画像を取得し、焦点位置が異なる複数の画像の各々に対して、画像の各領域(例えば各画素)について第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123のそれぞれを用いてフィルタリング処理を行う。帯域処理部120は、フィルタリング処理の結果を帯域特性評価部130に出力する。   The band processing unit 120 has a filter bank. That is, the band processing unit 120 includes, for example, a first filter 121, a second filter 122, and a third filter 123. The frequency characteristics of the first filter 121, the second filter 122, and the third filter 123 are shown in FIG. As shown in this figure, these filters are low-pass filters, and the cut-off frequency increases in the order of the first filter 121, the second filter 122, and the third filter 123. That is, the frequency band of the signal transmitted by each filter is different. Note that the first filter 121, the second filter 122, and the third filter 123 may be band-pass filters whose frequency characteristics are shown in FIG. In addition, any filter may be used as long as it is a plurality of filters designed to transmit different frequency bands. In the present embodiment, the band processing unit 120 has three filters. However, the number may be any number. The band processing unit 120 acquires an image from the image acquisition unit 110, and for each of a plurality of images having different focal positions, the first filter 121 and the second filter 122 for each region (for example, each pixel) of the image. Filtering processing is performed using each of the third and third filters 123. Band processing unit 120 outputs the result of the filtering process to band characteristic evaluation unit 130.

帯域特性評価部130は、フィルタ処理された複数の画像の各領域について帯域評価値を算出する。帯域評価値は、例えば、フィルタごとに通過した信号の積分値を算出することで求められる。このようにして各画像について、領域ごと及び周波数帯域ごとに帯域評価値が得られる。帯域特性評価部130は、算出した帯域評価値を統計情報算出部140及びコントラスト評価部160に出力する。   The band characteristic evaluation unit 130 calculates a band evaluation value for each region of the plurality of filtered images. The band evaluation value is obtained, for example, by calculating an integral value of a signal that has passed for each filter. In this way, for each image, a band evaluation value is obtained for each region and for each frequency band. The band characteristic evaluation unit 130 outputs the calculated band evaluation value to the statistical information calculation unit 140 and the contrast evaluation unit 160.

統計情報算出部140は、周波数帯域ごとに、焦点位置が異なる複数の画像の帯域評価値の平均値に関係する統計情報値を算出する。この統計情報については後述する。統計情報算出部140は、算出した統計情報値を荷重係数算出部150に出力する。荷重係数算出部150は、統計情報算出部140から入力された統計情報値に基づいて、周波数帯域ごとの重み付けに係る値、すなわち荷重係数を算出する。この荷重係数については後述する。荷重係数算出部150は、算出した荷重係数をコントラスト評価部160に出力する。   The statistical information calculation unit 140 calculates a statistical information value related to the average value of the band evaluation values of a plurality of images having different focal positions for each frequency band. This statistical information will be described later. The statistical information calculation unit 140 outputs the calculated statistical information value to the load coefficient calculation unit 150. The load coefficient calculation unit 150 calculates a value related to weighting for each frequency band, that is, a load coefficient, based on the statistical information value input from the statistical information calculation unit 140. This load coefficient will be described later. The load coefficient calculation unit 150 outputs the calculated load coefficient to the contrast evaluation unit 160.

コントラスト評価部160は、帯域特性評価部130から入力された帯域評価値に荷重係数算出部150から入力された帯域ごとに対応する荷重係数を乗算し、コントラスト評価値を算出する。コントラスト評価部160は、算出したコントラスト評価値を合焦評価部170に出力する。合焦評価部170は、コントラスト評価部160から入力されたコントラスト評価値に基づいて、焦点位置が異なる複数の画像のそれぞれについて画像中の各領域の合焦を評価する。合焦評価部170は、領域ごとに合焦している画像を選択し、その画像が撮像された際の焦点位置に係る情報に基づいて、画像中の各領域に対応する奥行情報を推定する。合焦評価部170は、画像中の各領域に係る奥行情報を3D形状推定部180に出力する。   The contrast evaluation unit 160 calculates the contrast evaluation value by multiplying the band evaluation value input from the band characteristic evaluation unit 130 by the load coefficient corresponding to each band input from the load coefficient calculation unit 150. The contrast evaluation unit 160 outputs the calculated contrast evaluation value to the focus evaluation unit 170. The focus evaluation unit 170 evaluates the focus of each region in the image for each of a plurality of images having different focal positions based on the contrast evaluation value input from the contrast evaluation unit 160. The focus evaluation unit 170 selects an in-focus image for each region, and estimates depth information corresponding to each region in the image based on information on a focal position when the image is captured. . The focus evaluation unit 170 outputs the depth information regarding each region in the image to the 3D shape estimation unit 180.

3D形状推定部180は、合焦評価部170から入力された奥行情報に基づいて、奥行情報の最適化を行い、被写体の3次元形状を推定する。3D形状推定部180は、推定した被写体の3次元形状を画像合成部190に出力する。画像合成部190は、3D形状推定部180から入力された被写体の3次元形状と、画像取得部110から取得した複数の画像と、に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。この合成画像は、例えば3次元再構成画像や、全焦点画像等である。画像合成部190は、作成した合成画像を、例えば、表示させるために表示部に出力したり、記憶させるために記憶装置に出力したりする。   The 3D shape estimation unit 180 optimizes the depth information based on the depth information input from the focus evaluation unit 170, and estimates the three-dimensional shape of the subject. The 3D shape estimation unit 180 outputs the estimated three-dimensional shape of the subject to the image composition unit 190. The image synthesis unit 190 synthesizes a plurality of images with different focal positions based on the three-dimensional shape of the subject input from the 3D shape estimation unit 180 and the plurality of images acquired from the image acquisition unit 110. Create an image. This synthesized image is, for example, a three-dimensional reconstructed image or an omnifocal image. The image composition unit 190 outputs the created composite image, for example, to a display unit for display or to a storage device for storage.

本実施形態に係る画像処理システム100の動作の一例を、図4に示すフローチャートを参照して説明する。画像取得部110は、ステップS101において、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得する。これら画像には、奥行に係る情報(例えば、画像が取得された際の光学系の焦点位置に係る情報等)が含まれているものとする。画像取得部110は、取得した画像を記憶部114に記憶する。   An example of the operation of the image processing system 100 according to the present embodiment will be described with reference to the flowchart shown in FIG. In step S101, the image acquisition unit 110 acquires a plurality of images captured while changing the focal position of the same subject. These images include information related to depth (for example, information related to the focal position of the optical system when the image is acquired). The image acquisition unit 110 stores the acquired image in the storage unit 114.

帯域処理部120は、ステップS102において、記憶部114に記憶された焦点位置が異なる複数の画像における所定の各領域(例えば各画素)に対し、例えば第1のフィルタ121、第2のフィルタ122及び第3のフィルタ123のそれぞれを用いてフィルタリング処理を行う。ここで、フィルタの数はいくつでもよいので、以降の説明において帯域処理部120は、N個のフィルタを有しているものとして説明する。帯域処理部120は、フィルタリング処理の結果を帯域特性評価部130に出力する。   In step S102, the band processing unit 120 applies, for example, the first filter 121, the second filter 122, and the like to each predetermined region (for example, each pixel) in a plurality of images having different focal positions stored in the storage unit 114. A filtering process is performed using each of the third filters 123. Here, since the number of filters is not limited, the band processing unit 120 will be described as having N filters in the following description. Band processing unit 120 outputs the result of the filtering process to band characteristic evaluation unit 130.

帯域特性評価部130は、ステップS103において、フィルタリング処理された複数の画像の各領域について、帯域ごとに帯域評価値を算出する。すなわち、各焦点位置k(k=1,2,…,K)について、また、各領域(i,j)(画像の全領域Aに含まれる各領域(i,j))について、すなわち、データI(k,i,j)のそれぞれについて、周波数帯域f(n=1,2,…,N)ごとに帯域評価値Q(k,f,i,j)を算出する。帯域評価値Q(k,f,i,j)は、例えばフィルタを通過した信号の積分値として算出され、このフィルタを透過する帯域における振幅に相当する量となる。帯域特性評価部130は、帯域評価値Q(k,f,i,j)を統計情報算出部140に出力する。 In step S103, the band characteristic evaluation unit 130 calculates a band evaluation value for each band for each region of the plurality of filtered images. That is, for each focal position k (k = 1, 2,..., K) and for each region (i, j) (each region (i, j) included in the entire region A of the image), that is, data For each of I (k, i, j), a band evaluation value Q (k, f n , i, j) is calculated for each frequency band f n (n = 1, 2,..., N). The band evaluation value Q (k, f n , i, j) is calculated, for example, as an integral value of the signal that has passed through the filter, and is an amount corresponding to the amplitude in the band that passes through the filter. The band characteristic evaluation unit 130 outputs the band evaluation value Q (k, f n , i, j) to the statistical information calculation unit 140.

統計情報算出部140は、ステップS104において、周波数帯域ごとに焦点位置が異なる複数の画像について、帯域評価値Q(k,f,i,j)の平均値と関係する統計情報値を算出する。後述するように、この統計情報値としては、様々な方法で算出された種々の値が用いられ得る。統計情報算出部140は、算出した統計情報値を荷重係数算出部150に出力する。 In step S104, the statistical information calculation unit 140 calculates a statistical information value related to the average value of the band evaluation values Q (k, f n , i, j) for a plurality of images having different focal positions for each frequency band. . As will be described later, various values calculated by various methods can be used as the statistical information value. The statistical information calculation unit 140 outputs the calculated statistical information value to the load coefficient calculation unit 150.

荷重係数算出部150は、ステップS105において、統計情報算出部140から入力された統計情報値に基づいて、帯域に応じた荷重係数を算出する。この荷重係数も、後述するように様々な方法で算出された種々の値が用いられる。荷重係数算出部150は、算出した荷重係数をコントラスト評価部160に出力する。   In step S105, the load coefficient calculation unit 150 calculates a load coefficient corresponding to the band based on the statistical information value input from the statistical information calculation unit 140. As the load coefficient, various values calculated by various methods as described later are used. The load coefficient calculation unit 150 outputs the calculated load coefficient to the contrast evaluation unit 160.

コントラスト評価部160は、ステップS106において、帯域特性評価部130から入力された帯域評価値Q(k,f,i,j)に荷重係数算出部150から入力された荷重係数のうち対応する周波数帯域の荷重係数を乗算し、コントラスト評価値を算出する。コントラスト評価部160は、算出したコントラスト評価値を合焦評価部170に出力する。 In step S <b > 106, the contrast evaluation unit 160 corresponds to the band evaluation value Q (k, f n , i, j) input from the band characteristic evaluation unit 130 and the frequency corresponding to the load coefficient input from the load coefficient calculation unit 150. The contrast evaluation value is calculated by multiplying the band load coefficient. The contrast evaluation unit 160 outputs the calculated contrast evaluation value to the focus evaluation unit 170.

合焦評価部170は、ステップS107において、コントラスト評価部160から取得したコントラスト評価値に基づいて、合焦を評価する。例えば合焦評価部170は、焦点位置が異なる複数の画像のそれぞれについて、コントラスト評価値が所定の閾値より高い領域を合焦している領域として特定する。合焦評価部170は、焦点位置が異なる複数の画像のうち合焦している領域と、その領域が含まれる画像が取得された際の焦点位置に係る情報と、から、その領域に対応する点についての奥行情報を推定する。ここで、奥行情報は、例えば当該領域の奥行き方向の位置を表す値である。合焦評価部170は、各領域に係る奥行情報を3D形状推定部180に出力する。   In step S107, the focus evaluation unit 170 evaluates the focus based on the contrast evaluation value acquired from the contrast evaluation unit 160. For example, the focus evaluation unit 170 identifies, as the focused region, a region having a contrast evaluation value higher than a predetermined threshold for each of a plurality of images having different focal positions. The in-focus evaluation unit 170 corresponds to a region from a region in focus among a plurality of images having different focal positions and information on the focal position when an image including the region is acquired. Estimate depth information about a point. Here, the depth information is, for example, a value representing the position in the depth direction of the area. The focus evaluation unit 170 outputs the depth information regarding each region to the 3D shape estimation unit 180.

3D形状推定部180は、ステップS108において、合焦評価部170から入力された奥行情報に基づいて、平滑化等の奥行情報の最適化を行い、被写体の3次元形状を推定する。3D形状推定部180は、推定した被写体の3次元形状を画像合成部190に出力する。   In step S108, the 3D shape estimation unit 180 optimizes depth information such as smoothing based on the depth information input from the focus evaluation unit 170, and estimates the three-dimensional shape of the subject. The 3D shape estimation unit 180 outputs the estimated three-dimensional shape of the subject to the image composition unit 190.

画像合成部190は、ステップS109において、3D形状推定部180から入力された被写体の3次元形状に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。例えば合成画像が3次元再構成画像であれば、3次元形状とその3次元形状の各部に係る合焦している画像を合成させた合成画像を作成する。また、例えば合成画像が全焦点画像であれば、各領域についてその奥行に相当する焦点位置を有する画像から抽出した画像を組み合わせて、全ての領域について合焦している画像を合成する。画像合成部190は、作成した合成画像を表示部や記憶装置に出力する。   In step S <b> 109, the image composition unit 190 composes a plurality of images having different focal positions based on the three-dimensional shape of the subject input from the 3D shape estimation unit 180 and creates a composite image. For example, if the synthesized image is a three-dimensional reconstructed image, a synthesized image is created by synthesizing a three-dimensional shape and a focused image relating to each part of the three-dimensional shape. For example, if the synthesized image is an omnifocal image, images extracted from images having a focal position corresponding to the depth of each region are combined to synthesize an image focused on all the regions. The image composition unit 190 outputs the created composite image to a display unit or a storage device.

例えば顕微鏡画像のように、被写界深度が浅い光学系を用いて被写界深度よりも大きな奥行きを有する被写体が撮像された場合、その画像はユーザに認識されにくい。これに対して3次元再構成画像や全焦点画像によれば、被写界深度よりも大きな奥行きを有する被写体の像が、容易にユーザに認識され得る。   For example, when a subject having a depth larger than the depth of field is captured using an optical system having a shallow depth of field, such as a microscope image, the image is not easily recognized by the user. On the other hand, according to the three-dimensional reconstructed image or the omnifocal image, an image of a subject having a depth larger than the depth of field can be easily recognized by the user.

このように、例えば画像取得部110は、同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部として機能する。例えば帯域特性評価部130は、複数の画像における所定の領域に対し、複数の周波数帯域ごとに、画像が含む帯域の帯域評価値を算出する帯域特性評価部として機能する。例えば統計情報算出部140は、少なくとも2つの焦点位置の帯域評価値を用いて統計情報を少なくとも周波数帯域ごとに算出する統計情報算出部として機能する。例えば荷重係数算出部150は、統計情報に基づいて、帯域評価値に対する荷重係数を少なくとも周波数帯域ごとに算出する荷重係数算出部として機能する。例えばコントラスト評価部160は、帯域評価値と荷重係数とに基づいて、複数の画像における領域ごとにコントラスト評価値を算出するコントラスト評価部として機能する。例えば合焦評価部170は、前記コントラスト評価値に基づいて、複数の前記画像の各々の前記領域のうち合焦している前記領域を選択する合焦評価部として機能する。例えば画像合成部190は、全焦点画像作成部又は3次元再構成画像作成部として機能する。   Thus, for example, the image acquisition unit 110 functions as an image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject. For example, the band characteristic evaluation unit 130 functions as a band characteristic evaluation unit that calculates a band evaluation value of a band included in an image for each of a plurality of frequency bands with respect to a predetermined region in the plurality of images. For example, the statistical information calculation unit 140 functions as a statistical information calculation unit that calculates statistical information at least for each frequency band using band evaluation values of at least two focal positions. For example, the load coefficient calculation unit 150 functions as a load coefficient calculation unit that calculates the load coefficient for the band evaluation value at least for each frequency band based on the statistical information. For example, the contrast evaluation unit 160 functions as a contrast evaluation unit that calculates a contrast evaluation value for each region in a plurality of images based on the band evaluation value and the load coefficient. For example, the focus evaluation unit 170 functions as a focus evaluation unit that selects the focused region from the regions of the plurality of images based on the contrast evaluation value. For example, the image composition unit 190 functions as an omnifocal image creation unit or a three-dimensional reconstructed image creation unit.

本実施形態によれば、帯域特性評価部130によってフィルタリング処理が行われ、その結果として得られた帯域評価値に基づいてコントラスト評価部160でコントラスト評価値が算出される。一般に高周波数に対して高いスペクトルを有するフィルタが用いられた方が、より正確なコントラスト評価を示すコントラスト評価値が得られる。一方で、画像が有する周波数帯域よりも高周波な情報に基づいてコントラスト評価値が算出されると、例えばノイズといった被写体の構造とは無関係な要因を評価する不適切なコントラスト評価値が得られてしまう。本実施形態では、統計情報算出部140が画像の周波数帯域を考慮した統計情報値を算出し、荷重係数算出部150がこの統計情報値に基づいて荷重係数を算出する。すなわち、荷重係数は画像の周波数帯域が考慮されて決定されている。コントラスト評価部160は、帯域特性評価部130が算出した帯域評価値と、荷重係数算出部150が算出した荷重係数とに基づいてコントラスト評価値を決定しているので、画像の周波数帯域を考慮しない場合と比較して、より正確なコントラスト評価値を決定できる。その結果、画像処理システム100は、精度のよい3次元再構築画像や全焦点画像を作成することができる。この画像処理システム100は、被写界深度が浅い顕微鏡によって撮像された顕微鏡画像等に用いられるとき、特に効果を奏する。   According to the present embodiment, the band characteristic evaluation unit 130 performs the filtering process, and the contrast evaluation unit 160 calculates the contrast evaluation value based on the band evaluation value obtained as a result. In general, when a filter having a high spectrum with respect to a high frequency is used, a contrast evaluation value indicating a more accurate contrast evaluation can be obtained. On the other hand, when the contrast evaluation value is calculated based on information having a frequency higher than the frequency band of the image, an inappropriate contrast evaluation value that evaluates a factor unrelated to the structure of the subject, such as noise, is obtained. . In the present embodiment, the statistical information calculation unit 140 calculates a statistical information value considering the frequency band of the image, and the load coefficient calculation unit 150 calculates a load coefficient based on the statistical information value. That is, the load coefficient is determined in consideration of the frequency band of the image. The contrast evaluation unit 160 determines the contrast evaluation value based on the band evaluation value calculated by the band characteristic evaluation unit 130 and the load coefficient calculated by the load coefficient calculation unit 150, and therefore does not consider the frequency band of the image. Compared to the case, a more accurate contrast evaluation value can be determined. As a result, the image processing system 100 can create a highly accurate three-dimensional reconstructed image or omnifocal image. The image processing system 100 is particularly effective when used for a microscope image taken by a microscope having a shallow depth of field.

次に、ステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値の具体例を説明する。   Next, specific examples of the statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 will be described.

[第1の例]
第1の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数、及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置(k=1,2,…,K)における帯域評価値Q(k,f,i,j)の平均値である。すなわち、平均値L(f,i,j)は、下記式(1)で算出される。

Figure 0005868758
[First example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the first example will be described. In this example, the statistical information value is the band evaluation value Q (k, f n , i, j) at all focal positions (k = 1, 2,..., K) for each region and each frequency band. Average value. That is, the average value L (f n , i, j) is calculated by the following formula (1).
Figure 0005868758

荷重係数は、各領域及び各周波数帯域のそれぞれについて、前記平均値を全周波数帯域の前記平均値の和で除算した値である。すなわち、荷重係数L(f,i,j)は、下記式(2)で算出される。

Figure 0005868758
The load coefficient is a value obtained by dividing the average value by the sum of the average values of all frequency bands for each region and each frequency band. That is, the load factor L N (f m, i, j) is calculated by the following formula (2).
Figure 0005868758

帯域評価値Q(k,f,i,j)と荷重係数L(f,i,j)とに基づいて、コントラスト評価値D(k,i,j)は、下記式(3)で算出される。

Figure 0005868758
すなわち、コントラスト評価値D(k,i,j)は、周波数帯域のそれぞれに係る帯域評価値Q(k,f,i,j)と荷重係数L(f,i,j)との積を足し合わせたものである。 Band evaluation value Q based on (k, f n, i, j) and the load factor L N (f m, i, j) and the contrast evaluation value D (k, i, j) is represented by the following formula (3) Is calculated by
Figure 0005868758
That is, the contrast evaluation value D (k, i, j), the bandwidth evaluation value Q of the respective frequency bands (k, f n, i, j) and the load factor L N (f m, i, j) and the It is the sum of products.

合焦評価部170は、ステップS107において、各領域(i,j)について、例えばこのコントラスト評価値D(k,i,j)が最も高くなるkを選択して奥行情報を推定する。   In step S107, the focus evaluation unit 170 estimates the depth information by selecting, for example, k having the highest contrast evaluation value D (k, i, j) for each region (i, j).

なお、この例においては、荷重係数L(f,i,j)の算出において、上記式(2)のように前記平均値を全周波数帯域の前記平均値の和で除算しているが、全周波数帯域ではなく、一部の周波数帯域の前記平均値の和で前記平均値を除算して求めるようにしてもよい。 In this example, in calculating the load coefficient L N (f m , i, j), the average value is divided by the sum of the average values in all frequency bands as in the above equation (2). Alternatively, the average value may be obtained by dividing the average value by the sum of the average values of some frequency bands instead of the entire frequency band.

[第2の例]
第2の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第1の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,f,i,j)の平均値である。すなわち、平均値L(f,i,j)は、上記式(1)で算出される。この例では、荷重係数に平均値L(f,i,j)が用いられる。したがって、コントラスト評価値D(k,i,j)は、下記式(4)で算出される。

Figure 0005868758
[Second example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the second example will be described. In this example, the statistical information value is an average value of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the first example. is there. That is, the average value L (f n , i, j) is calculated by the above equation (1). In this example, an average value L (f n , i, j) is used as the load coefficient. Therefore, the contrast evaluation value D (k, i, j) is calculated by the following equation (4).
Figure 0005868758

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。   In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j).

[第3の例]
第3の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第1の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,f,i,j)の平均値である。すなわち、平均値L(f,i,j)は、上記式(1)で算出される。この例では、荷重係数に平均値L(f,i,j)の所定の周波数帯域fに対する相対値が用いられる。すなわち、加重係数L(f,i,j)は、下記式(5)で算出される。

Figure 0005868758
ここで、帯域fは、n=1〜Nのうち何れを用いてもよいが、例えば最も低い帯域が用いられる。コントラスト評価値D(k,i,j)は、この荷重係数L(f,i,j)を用いて、上記式(3)で算出される。 [Third example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the third example will be described. In this example, the statistical information value is an average value of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the first example. is there. That is, the average value L (f n , i, j) is calculated by the above equation (1). In this example, the relative value of the average value L (f n , i, j) with respect to the predetermined frequency band f 0 is used as the load coefficient. That is, the weighting coefficient L N (f n , i, j) is calculated by the following equation (5).
Figure 0005868758
Here, the band f 0 may be any of n = 1 to N, but the lowest band is used, for example. Contrast evaluation value D (k, i, j) is the weighting factor L N (f m, i, j) using, is calculated by the equation (3).

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。   In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j).

[第4の例]
第4の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第1の例と同様に、各領域及び各帯域について全ての焦点位置の平均値である。すなわち、平均値L(f,i,j)は、上記式(1)で算出される。この例では、荷重係数は所定の条件を満たすか否かに応じて1又は0となる。すなわち、条件を満たすか否かに応じて帯域評価値Q(k,f,i,j)を用いるか否かが決定される。この例では、荷重係数は、下記式(6)で算出される。

Figure 0005868758
ここで、閾値Thrは、例えばN=3の場合は0.2というように任意の設計値である。コントラスト評価値D(k,i,j)は、第1の例と同様に上記式(3)で算出される。 [Fourth example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the fourth example will be described. In this example, the statistical information value is an average value of all focal positions for each region and each band, as in the first example. That is, the average value L (f n , i, j) is calculated by the above equation (1). In this example, the load coefficient is 1 or 0 depending on whether or not a predetermined condition is satisfied. That is, whether or not to use the band evaluation value Q (k, f n , i, j) is determined depending on whether or not the condition is satisfied. In this example, the load coefficient is calculated by the following equation (6).
Figure 0005868758
Here, the threshold value Thr is an arbitrary design value such as 0.2 when N = 3, for example. The contrast evaluation value D (k, i, j) is calculated by the above equation (3) as in the first example.

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。なお、荷重係数の決定における判定は上記式(6)のように平均値L(f,i,j)を全周波数帯域の平均値の和で除算したものを用いるに限らず、平均値L(f,i,j)そのものや、平均値L(f,i,j)を任意の周波数帯域の平均値の和や任意の周波数帯域の平均値で除算したものを用いてもよい。 In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j). The determination in determining the load coefficient is not limited to using the average value L (f n , i, j) divided by the sum of the average values of all frequency bands as in the above formula (6), but the average value L (F n , i, j) itself or a value obtained by dividing the average value L (f n , i, j) by the sum of the average values of arbitrary frequency bands or the average value of arbitrary frequency bands may be used.

第1乃至第4の例によれば、領域ごとに荷重係数L(f,i,j)が算出されるので、画像中の領域ごとに帯域特性が一定でない場合に特に有効である。また、これらの例によれば、周波数帯域ごとに統計情報値としての平均値L(f,i,j)が算出されている。平均値L(f,i,j)が低いとき、コントラストを評価するために必要な情報が帯域評価値Q(k,f,i,j)に含まれていないか、又は、帯域評価値Q(k,f,i,j)にノイズが含まれていることが考えられる。第1乃至第4の例によれば、このような必要な情報が含まれていない又はノイズが含まれている帯域評価値Q(k,f,i,j)の重みが小さくされるため、必要な情報が含まれていない等の帯域評価値Q(k,f,i,j)がコントラスト評価値に影響することを防ぐことができる。その結果、精度の高い帯域評価値Q(k,f,i,j)が生成され、この帯域評価値Q(k,f,i,j)に基づいて、精度の高い奥行情報の推定が実現される。 According to the first to fourth examples, since the load coefficient L n (f m , i, j) is calculated for each region, it is particularly effective when the band characteristics are not constant for each region in the image. Further, according to these examples, the average value L (f n , i, j) as the statistical information value is calculated for each frequency band. When the average value L (f n , i, j) is low, information necessary for evaluating the contrast is not included in the band evaluation value Q (k, f n , i, j), or the band evaluation It is conceivable that noise is included in the value Q (k, f n , i, j). According to the first to fourth examples, the weight of the band evaluation value Q (k, f n , i, j) that does not include such necessary information or includes noise is reduced. Thus, it is possible to prevent the band evaluation value Q (k, f n , i, j) that does not include necessary information from affecting the contrast evaluation value. As a result, a highly accurate band evaluation value Q (k, f n , i, j) is generated, and based on this band evaluation value Q (k, f n , i, j), estimation of depth information with high accuracy is performed. Is realized.

[第5の例]
第5の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置(k=1,2,…,K)における帯域評価値Q(k,f,i,j)の変動量である。この例では、変動量の一例として分散を用いる。すなわち、分散S(f,i,j)は、例えば上記式(1)で算出される平均値L(f,i,j)を用いて下記式(7)で算出される。

Figure 0005868758
[Fifth Example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the fifth example will be described. In this example, the statistical information value is the band evaluation value Q (k, f n , i, j) at all focal positions (k = 1, 2,..., K) for each region and each frequency band. It is a fluctuation amount. In this example, variance is used as an example of the variation. That is, the variance S (f n , i, j) is calculated by the following equation (7) using, for example, the average value L (f n , i, j) calculated by the above equation (1).
Figure 0005868758

荷重係数は、各領域及び各周波数帯域についての分散を、全周波数帯域の前記分散の和で除算した値である。すなわち、荷重係数S(f,i,j)は、下記式(8)で算出される。

Figure 0005868758
The load coefficient is a value obtained by dividing the variance for each region and each frequency band by the sum of the variances for all frequency bands. That is, weighting factors S N (f m, i, j) is calculated by the following equation (8).
Figure 0005868758

帯域評価値Q(k,f,i,j)及び荷重係数S(f,i,j)を用いて、コントラスト評価値D(k,i,j)は下記式(9)で算出される。

Figure 0005868758
The contrast evaluation value D (k, i, j) is calculated by the following equation (9) using the band evaluation value Q (k, f n , i, j) and the load coefficient S N (f m , i, j). Is done.
Figure 0005868758

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。なお、この例においては、荷重係数S(f,i,j)の算出において、上記式(8)のように前記平均値を全周波数帯域の前記平均値の和で除算しているが、全周波数帯域ではなく、一部の周波数帯域の前記平均値の和で前記平均値を除算して求めるようにしてもよい。 In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j). In this example, in calculating the load coefficient S N (f m , i, j), the average value is divided by the sum of the average values in all frequency bands as in the above equation (8). Alternatively, the average value may be obtained by dividing the average value by the sum of the average values of some frequency bands instead of the entire frequency band.

[第6の例]
第6の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第5の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,f,i,j)の分散の平均値である。すなわち、分散S(f,i,j)は、上記式(7)で算出される。この例では、荷重係数に分散S(f,i,j)が用いられる。したがって、コントラスト評価値D(k,i,j)は、下記式(10)で算出される。

Figure 0005868758
[Sixth example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the sixth example will be described. In this example, the statistical information value is the average of the variances of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the fifth example. Value. That is, the variance S (f n , i, j) is calculated by the above equation (7). In this example, the variance S (f n , i, j) is used as the load coefficient. Accordingly, the contrast evaluation value D (k, i, j) is calculated by the following equation (10).
Figure 0005868758

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。   In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j).

[第7の例]
第7の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。この例において、統計情報値は、第5の例と同様に、各領域及び各周波数帯域のそれぞれについて、全ての焦点位置における帯域評価値Q(k,f,i,j)の分散である。すなわち、分散S(f,i,j)は、上記式(7)で算出される。この例では、荷重係数に分散S(f,i,j)の所定の周波数帯域fに対する相対値が用いられる。すなわち、荷重係数S(f,i,j)は、下記式(11)で算出される。

Figure 0005868758
[Seventh example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the seventh example will be described. In this example, the statistical information value is the variance of the band evaluation values Q (k, f n , i, j) at all focal positions for each region and each frequency band, as in the fifth example. . That is, the variance S (f n , i, j) is calculated by the above equation (7). In this example, a relative value for the predetermined frequency band f 0 of the variance S (f n , i, j) is used as the load coefficient. That is, the load coefficient S N (f n , i, j) is calculated by the following equation (11).
Figure 0005868758

ここで、帯域fはn=1〜Nのうちいずれを用いてもよい。コントラスト評価値D(k,i,j)は、この荷重係数S(f,i,j)を用いて、上記式(9)で算出される。 Here, band f 0 may use any of n = 1 to N. The contrast evaluation value D (k, i, j) is calculated by the above equation (9) using this load coefficient S N (f n , i, j).

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。   In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j).

第5乃至第7の例によれば、領域ごとに荷重係数L(f,i,j)が算出されるので、画像中の領域ごとに帯域特性が一定でない場合に特に有効である。また、これらの例によれば、周波数帯域ごとに統計情報値としての分散S(f,i,j)が算出されている。分散S(f,i,j)、すなわち変動量が低いとき、コントラストを評価するために必要な情報が帯域評価値Q(k,f,i,j)に含まれていないか、又は、帯域評価値Q(k,f,i,j)にノイズが含まれており、相対的に変動が少なくなっていると考えられる。第5乃至第7の例によれば、このような必要な情報が含まれていない又はノイズが含まれている帯域評価値Q(k,f,i,j)の重みが小さくなることで、必要な情報が含まれていない等の帯域評価値Q(k,f,i,j)がコントラスト評価値に影響することを防ぐことができる。その結果、精度の高い帯域評価値Q(k,f,i,j)が生成され、この帯域評価値Q(k,f,i,j)に基づいて、精度の高い奥行情報の推定が実現される。 According to the fifth to seventh examples, since the load coefficient L n (f m , i, j) is calculated for each region, it is particularly effective when the band characteristics are not constant for each region in the image. Further, according to these examples, the variance S (f n , i, j) as the statistical information value is calculated for each frequency band. When the variance S (f n , i, j), that is, the amount of variation is low, information necessary for evaluating the contrast is not included in the band evaluation value Q (k, f n , i, j), or The band evaluation value Q (k, f n , i, j) includes noise, and it is considered that the fluctuation is relatively small. According to the fifth to seventh examples, the weight of the band evaluation value Q (k, f n , i, j) that does not include such necessary information or includes noise is reduced. Thus, it is possible to prevent the band evaluation value Q (k, f n , i, j) that does not include necessary information from affecting the contrast evaluation value. As a result, a highly accurate band evaluation value Q (k, f n , i, j) is generated, and based on this band evaluation value Q (k, f n , i, j), estimation of depth information with high accuracy is performed. Is realized.

なお、分散を用いる場合も、第4の例の場合のように、荷重係数が所定の条件を満たすか否かに応じて1又は0に設定されてもよい。すなわち、条件を満たすか否かに応じて帯域評価値Q(k,f,i,j)を用いるか否かが決定される。このようにしても第5乃至第7の例と同様の効果が得られる。 Even in the case of using dispersion, the load coefficient may be set to 1 or 0 depending on whether or not a predetermined condition is satisfied as in the case of the fourth example. That is, whether or not to use the band evaluation value Q (k, f n , i, j) is determined depending on whether or not the condition is satisfied. Even if it does in this way, the effect similar to the 5th thru | or 7th example is acquired.

[第8の例]
第8の例におけるステップS104で算出される統計情報値、ステップS105で算出される荷重係数及びステップS106で算出されるコントラスト評価値を説明する。第1乃至第4の例においては、統計情報値として領域ごとに平均値L(f,i,j)が決定されていた。これに対して、第8の例において統計情報値は、各帯域についての画像全体Aに対する平均値である。すなわち、平均値L(f)は、下記式(12)で算出される。

Figure 0005868758
[Eighth Example]
The statistical information value calculated in step S104, the load coefficient calculated in step S105, and the contrast evaluation value calculated in step S106 in the eighth example will be described. In the first to fourth examples, the average value L (f n , i, j) is determined for each region as the statistical information value. On the other hand, in the eighth example, the statistical information value is an average value for the entire image A for each band. That is, the average value L (f n ) is calculated by the following formula (12).
Figure 0005868758

荷重係数は、平均値L(f)を全周波数帯域の平均値L(f)の和で除算した値である。すなわち、荷重係数L(f)は、下記式(13)で算出される。

Figure 0005868758
The load coefficient is a value obtained by dividing the average value L (f n ) by the sum of the average value L (f n ) of all frequency bands. That is, the load factor L N (f m) is calculated by the following equation (13).
Figure 0005868758

帯域評価値Q(k,f,i,j)及び荷重係数L(f)を用いて、コントラスト評価値D(k,i,j)は下記式(14)で算出される。

Figure 0005868758
The contrast evaluation value D (k, i, j) is calculated by the following formula (14) using the band evaluation value Q (k, f n , i, j) and the load coefficient L N (f m ).
Figure 0005868758

合焦評価部170は、ステップS107において、このコントラスト評価値D(k,i,j)に基づいて、奥行情報を推定する。   In step S107, the focus evaluation unit 170 estimates the depth information based on the contrast evaluation value D (k, i, j).

この例によれば、帯域特性について領域ごとの差が小さい場合に、演算量が小さくなり有効である。また、本例の場合でも、上記式(13)に示すように全周波数帯域ではなく一部の周波数帯域の平均値の和や特定の周波数帯域の平均値で除算されるようにしてもよい。また、上記式(14)において、L(f)の代わりにL(f)が用いられてもよい。また、L(f)が1又は0をとってもよい。また、第5乃至第7の例の場合と同様に、画像の全領域Aにおける分散の平均を用いるようにしてもよい。 According to this example, when the difference for each band characteristic is small, the amount of calculation is small, which is effective. Also in the case of this example, as shown in the above equation (13), it may be divided not by the entire frequency band but by the sum of the average values of some frequency bands or the average value of a specific frequency band. In the above formula (14), L (f m ) may be used instead of L N (f m ). Further, L N (f m ) may take 1 or 0. Further, as in the fifth to seventh examples, an average of variances in the entire area A of the image may be used.

[第1の実施形態の変形例]
第1の実施形態の変形例について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本変形例に係る画像処理システム100では、帯域処理部120は、フィルタバンクを有する代わりに、ウエーブレット変換を実行する。
[Modification of First Embodiment]
A modification of the first embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the image processing system 100 according to this modification, the band processing unit 120 executes wavelet conversion instead of having a filter bank.

ウエーブレット変換では、図5の左に示されるような元の画像に対して、特定の方向性を有するフィルタリング処理を行って、図5の右に示されるような帯域分離後の画像A、B及びCを取得する。そして、フィルタの残差の画像を縮小した画像に対して、再び特定の方向性を有するフィルタリング処理を行って画像D、E及びFを取得する。以下、このような処理が繰り返され、画像G、H及びI、画像J、K、L及びMが取得される。このような変換処理が行われることで、図5の右に示すように多解像表現された画像データが作成される。このようなウエーブレット変換によって、第1の実施形態の場合と同様に、特定の帯域の利得に相当する量が画像の各領域に対応付けられる。   In the wavelet transform, an original image as shown on the left in FIG. 5 is subjected to a filtering process having a specific direction, and images A and B after band separation as shown on the right in FIG. And C. Then, the filtering process having a specific directionality is again performed on the image obtained by reducing the residual image of the filter to obtain images D, E, and F. Thereafter, such processing is repeated, and images G, H and I, and images J, K, L and M are acquired. By performing such conversion processing, image data expressed in multi-resolution as shown on the right side of FIG. 5 is created. By such wavelet transform, an amount corresponding to a gain in a specific band is associated with each region of the image, as in the first embodiment.

本変形例に係る画像処理システム100における処理の一例を図6のフローチャートに示す。画像取得部110は、ステップS201において、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得し、この画像を記憶部114に記憶する。帯域処理部120は、ステップS202において、記憶部114に記憶された焦点位置が異なる複数の画像に対してウエーブレット変換を行う。帯域処理部120は、変換結果を帯域特性評価部130に出力する。帯域特性評価部130は、ステップS203において、ウエーブレット変換された複数の画像の各領域(p,q)について、評価値を算出する。すなわち、ウエーブレットの段数nの係数を、各領域(p,q)について、すなわち、データI(k,p,q)のそれぞれについて、帯域評価値Q(k,n,p,q)とする。帯域特性評価部130は、帯域評価値Q(k,n,p,q)を統計情報算出部140に出力する。   An example of processing in the image processing system 100 according to this modification is shown in the flowchart of FIG. In step S <b> 201, the image acquisition unit 110 acquires a plurality of images captured while changing the focal position of the same subject, and stores the images in the storage unit 114. In step S202, the band processing unit 120 performs wavelet conversion on a plurality of images having different focal positions stored in the storage unit 114. Band processing unit 120 outputs the conversion result to band characteristic evaluation unit 130. In step S203, the band characteristic evaluation unit 130 calculates an evaluation value for each region (p, q) of the plurality of images subjected to the wavelet transform. That is, the coefficient of the wavelet stage number n is set to the band evaluation value Q (k, n, p, q) for each region (p, q), that is, for each of the data I (k, p, q). . Band characteristic evaluation unit 130 outputs band evaluation value Q (k, n, p, q) to statistical information calculation unit 140.

統計情報算出部140は、ステップS204において、統計情報値を算出する。本変形例では、各帯域の帯域評価値Q(k,n,p,q)の全焦点位置k=1,2,…,Kの平均値を統計情報値L(f)とする。すなわち、統計情報値L(f)は、下記式(15)で算出される。

Figure 0005868758
ここで、Fはウエーブレットの段数nのときの画像の大きさを示している。
統計情報算出部140は、算出した統計情報値を荷重係数算出部150に出力する。 In step S204, the statistical information calculation unit 140 calculates a statistical information value. In this modification, the average value of all focal positions k = 1, 2,..., K of the band evaluation values Q (k, n, p, q) of each band is defined as a statistical information value L (f n ). That is, the statistical information value L (f n ) is calculated by the following equation (15).
Figure 0005868758
Here, F n indicates the size of the image when the number of wavelets is n.
The statistical information calculation unit 140 outputs the calculated statistical information value to the load coefficient calculation unit 150.

荷重係数算出部150は、ステップS205において、統計情報算出部140から入力された統計情報値L(f)に基づいて、帯域に応じた荷重係数を算出する。本変形例では、荷重係数L(f)は、下記式(16)で算出される。

Figure 0005868758
荷重係数算出部150は、算出した荷重係数L(f)をコントラスト評価部160に出力する。 In step S205, the load coefficient calculation unit 150 calculates a load coefficient corresponding to the band based on the statistical information value L (f n ) input from the statistical information calculation unit 140. In this modification, the load factor L N (f m) is calculated by the following equation (16).
Figure 0005868758
The load coefficient calculation unit 150 outputs the calculated load coefficient L N (f m ) to the contrast evaluation unit 160.

コントラスト評価部160は、ステップS206において、帯域特性評価部130から入力された帯域評価値Q(k,p,q)に荷重係数算出部150から入力された帯域ごとの対応する荷重係数L(f)を乗算し、逆変換することでウエーブレット変換前の画像の各領域(i,j)に係るコントラスト評価値D(k,i,j)を算出する。コントラスト評価部160は、算出したコントラスト評価値D(k,i,j)を合焦評価部170に出力する。 In step S206, the contrast evaluating unit 160 corresponds to the band evaluation value Q (k, p, q) input from the band characteristic evaluating unit 130 and the corresponding load coefficient L N (for each band input from the load coefficient calculating unit 150). The contrast evaluation value D (k, i, j) relating to each region (i, j) of the image before wavelet transform is calculated by multiplying f m ) and performing inverse transform. The contrast evaluation unit 160 outputs the calculated contrast evaluation value D (k, i, j) to the focus evaluation unit 170.

以降、第1の実施形態と同様に、合焦評価部170は、ステップS207においてコントラスト評価値D(k,i,j)に基づいて合焦を評価し、各画素に係る奥行情報を3D形状推定部180に出力する。3D形状推定部180は、ステップS208において奥行情報に基づいて、平滑化等の奥行情報の最適化を行い、被写体の3次元形状を推定し、推定した被写体の3次元形状を画像合成部190に出力する。画像合成部190は、ステップS209において、被写体の3次元形状と複数の画像とに基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。   Thereafter, as in the first embodiment, the focus evaluation unit 170 evaluates the focus based on the contrast evaluation value D (k, i, j) in step S207, and sets the depth information regarding each pixel in a 3D shape. It outputs to the estimation part 180. In step S208, the 3D shape estimation unit 180 optimizes depth information such as smoothing based on the depth information, estimates the three-dimensional shape of the subject, and sends the estimated three-dimensional shape of the subject to the image composition unit 190. Output. In step S209, the image composition unit 190 composes a plurality of images with different focal positions based on the three-dimensional shape of the subject and the plurality of images to create a composite image.

本変形例によっても、第1の実施形態と同様の効果が得られる。   Also by this modification, the same effect as the first embodiment can be obtained.

[第2の実施形態]
本発明の第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態は、第1の実施形態に係る画像処理システム100を備える顕微鏡システム200である。
[Second Embodiment]
A second embodiment of the present invention will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. The present embodiment is a microscope system 200 including the image processing system 100 according to the first embodiment.

本実施形態に係る顕微鏡システム200の構成例の概略を図7に示す。この図に示すように、顕微鏡システム200は、顕微鏡210と第1の実施形態に係る画像処理システム100とを有する。顕微鏡210は、例えばデジタル顕微鏡である。顕微鏡210は、LED光源211と、照明光学系212と、光路制御素子213と、対物レンズ214と、図示しないステージ上に載置された標本面215と、観察光学系218と、撮像面219と、撮像部220と、コントローラ222とを有する。観察光学系218は、ズーム光学系216と、結像光学系217とを有する。観察光路には、標本面215から撮像面219に向かって、対物レンズ214と、光路制御素子213と、ズーム光学系216と、結像光学系217とが、この順に配置されている。   An outline of a configuration example of the microscope system 200 according to the present embodiment is shown in FIG. As shown in this figure, the microscope system 200 includes a microscope 210 and the image processing system 100 according to the first embodiment. The microscope 210 is a digital microscope, for example. The microscope 210 includes an LED light source 211, an illumination optical system 212, an optical path control element 213, an objective lens 214, a sample surface 215 placed on a stage (not shown), an observation optical system 218, and an imaging surface 219. , An imaging unit 220 and a controller 222. The observation optical system 218 includes a zoom optical system 216 and an imaging optical system 217. In the observation optical path, an objective lens 214, an optical path control element 213, a zoom optical system 216, and an imaging optical system 217 are arranged in this order from the sample surface 215 to the imaging surface 219.

LED光源211から射出された照明光は、照明光学系212を介して、光路制御素子213に入射する。光路制御素子213は、照明光を観察光路上の対物レンズ214に向けて反射する。照明光は、対物レンズ214を介して標本面215に配置された標本に照射される。   The illumination light emitted from the LED light source 211 enters the optical path control element 213 via the illumination optical system 212. The optical path control element 213 reflects the illumination light toward the objective lens 214 on the observation optical path. The illumination light is applied to the sample disposed on the sample surface 215 via the objective lens 214.

標本に照明光が照射されると、標本から観察光が生じる。ここで、観察光は反射光や蛍光等である。観察光は、光路制御素子213に入射する。光路制御素子213は、照明光の場合と異なり、観察光を透過させて、観察光をズーム光学系216及び結像光学系217を有する観察光学系218に入射させる。このように光路制御素子213は、入射光の特性に応じて、入射光を反射又は透過させる光学素子である。光路制御素子213には、例えば、入射光の偏光方向に応じて入射光を反射又は透過させるワイヤーグリッドや偏光ビームスプリッタ(PBS)等の偏光素子が用いられ得る。なお、この光路制御素子213は、例えば、入射光の周波数に応じて入射光を反射又は透過させるダイクロイックミラー等を用いても良い。   When the sample is irradiated with illumination light, observation light is generated from the sample. Here, the observation light is reflected light, fluorescence, or the like. The observation light is incident on the optical path control element 213. Unlike the case of illumination light, the optical path control element 213 transmits observation light and makes the observation light incident on an observation optical system 218 having a zoom optical system 216 and an imaging optical system 217. Thus, the optical path control element 213 is an optical element that reflects or transmits incident light according to the characteristics of the incident light. For the optical path control element 213, for example, a polarization element such as a wire grid or a polarization beam splitter (PBS) that reflects or transmits incident light according to the polarization direction of the incident light can be used. The optical path control element 213 may use, for example, a dichroic mirror that reflects or transmits incident light according to the frequency of incident light.

観察光学系218は、観察光を撮像面219に集光させ、標本の像を撮像面219に結像させる。撮像部220は、撮像面219に結像した画像に基づく画像信号を生成し、この画像信号を顕微鏡画像として画像取得部110に出力する。コントローラ222は、顕微鏡210の動作を制御する。本実施形態では、顕微鏡210は、同一標本について、異なる焦点面において撮像した複数の顕微鏡画像を取得する。このため、コントローラ222は、顕微鏡210の光学系を制御して焦点面を徐々に変化させながら、各焦点面における標本の画像を撮像部220に撮像させる。具体的には、例えばコントローラ222は、顕微鏡210のステージの高さ、又は、対物レンズの高さの位置を変化させながら、撮像部220に撮像させる。コントローラ222は、撮像部220が撮像した画像と関連付けて、焦点位置に係る情報を画像取得部110に出力する。   The observation optical system 218 collects observation light on the imaging surface 219 and forms an image of the sample on the imaging surface 219. The imaging unit 220 generates an image signal based on the image formed on the imaging surface 219 and outputs the image signal to the image acquisition unit 110 as a microscope image. The controller 222 controls the operation of the microscope 210. In the present embodiment, the microscope 210 acquires a plurality of microscope images captured at different focal planes for the same specimen. For this reason, the controller 222 controls the optical system of the microscope 210 to cause the imaging unit 220 to capture an image of the sample on each focal plane while gradually changing the focal plane. Specifically, for example, the controller 222 causes the imaging unit 220 to capture an image while changing the height of the stage of the microscope 210 or the position of the height of the objective lens. The controller 222 outputs information related to the focal position to the image acquisition unit 110 in association with the image captured by the imaging unit 220.

本実施形態に係る顕微鏡システム200の動作を説明する。標本は、標本面215を有するように図示しないステージ上に配置される。コントローラ222は、顕微鏡210を制御する。コントローラ222は、例えば標本面215の位置を光軸方向に徐々に変化させ、標本に対する光学系の焦点位置を徐々に変化させる。具体的には、例えばコントローラ222は、顕微鏡210のステージの高さ、対物レンズの高さ又はフォーカスレンズの位置を変化させる。このとき、コントローラ222は、各焦点位置における標本の顕微鏡画像を撮像部220に順次撮像させる。画像取得部110は、撮像部220から各焦点位置における標本の顕微鏡画像を取得する。また、画像取得部110は、コントローラ222から各画像が撮像された際の焦点位置を取得する。画像取得部110は、取得した顕微鏡画像をその焦点位置と関連付けて記憶部114に記憶する。   An operation of the microscope system 200 according to the present embodiment will be described. The sample is placed on a stage (not shown) so as to have a sample surface 215. The controller 222 controls the microscope 210. For example, the controller 222 gradually changes the position of the sample surface 215 in the optical axis direction, and gradually changes the focal position of the optical system with respect to the sample. Specifically, for example, the controller 222 changes the height of the stage of the microscope 210, the height of the objective lens, or the position of the focus lens. At this time, the controller 222 causes the imaging unit 220 to sequentially capture microscopic images of the specimen at each focal position. The image acquisition unit 110 acquires a microscopic image of the specimen at each focal position from the imaging unit 220. Further, the image acquisition unit 110 acquires the focal position when each image is captured from the controller 222. The image acquisition unit 110 stores the acquired microscope image in the storage unit 114 in association with the focal position.

記憶部114に記憶された顕微鏡画像に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する処理は、第1の実施形態の処理と同様である。本実施形態では、顕微鏡システム200は、顕微鏡画像に係る合成画像、例えば3次元再構成画像や全焦点画像を作成する。画像合成部190は、作成した合成画像を、例えば、表示させるために表示部に出力したり、記憶させるために記憶装置に出力したりする。3次元再構成画像や全焦点画像によれば、一般の顕微鏡画像のように被写界深度よりも大きな奥行きを有する被写体の像が、容易にユーザに認識され得る。   The process of creating a composite image by combining a plurality of images with different focal positions based on the microscope image stored in the storage unit 114 is the same as the process of the first embodiment. In the present embodiment, the microscope system 200 creates a composite image related to a microscope image, such as a three-dimensional reconstructed image or an omnifocal image. The image composition unit 190 outputs the created composite image, for example, to a display unit for display or to a storage device for storage. According to the three-dimensional reconstructed image and the omnifocal image, an image of a subject having a depth larger than the depth of field like a general microscope image can be easily recognized by the user.

このように、例えば照明光学系212、光路制御素子213、対物レンズ214、観察光学系218等は、顕微鏡光学系として機能する。例えば撮像部220は、顕微鏡光学系を介した標本の像を標本画像として取得する撮像部として機能する。   Thus, for example, the illumination optical system 212, the optical path control element 213, the objective lens 214, the observation optical system 218, and the like function as a microscope optical system. For example, the imaging unit 220 functions as an imaging unit that acquires a specimen image through a microscope optical system as a specimen image.

一般に、顕微鏡の光学系は、デジタルカメラの光学系に比べて像の拡大率が大きい。このため、顕微鏡撮影においては、カメラの撮像素子のサンプリング帯域に対して、顕微鏡の光学系の帯域がそれほど高くない場合がある。また、光学系の帯域は、光学系の開口数や倍率等によって変化し得る。例えば顕微鏡がズーム光学系を有する場合にも、その光学系の帯域は変化する。本実施形態によれば、統計情報算出部140は画像の周波数帯域が考慮された統計情報値を算出し、荷重係数算出部150はこの統計情報値に基づいて荷重係数を算出する。すなわち、コントラスト評価部160は、帯域特性評価部130が算出した評価値と、画像の周波数帯域を考慮して算出された荷重係数とに基づいてコントラスト評価値を決定するので、正確なコントラスト評価値を決定できる。その結果、顕微鏡システム200は、精度のよい3次元再構築顕微鏡画像や全焦点顕微鏡画像を作成することができる。顕微鏡110の光学系にズーム光学系が含まれている場合、ズーム光学系の焦点距離に応じて開口数が変化し顕微鏡画像の帯域が変化するので、本実施形態は特に効果を奏する。   In general, an optical system of a microscope has a larger image enlargement ratio than an optical system of a digital camera. For this reason, in microscope photography, the bandwidth of the optical system of the microscope may not be so high with respect to the sampling bandwidth of the camera image sensor. Further, the band of the optical system can change depending on the numerical aperture, magnification, and the like of the optical system. For example, when the microscope has a zoom optical system, the band of the optical system changes. According to the present embodiment, the statistical information calculation unit 140 calculates a statistical information value in consideration of the frequency band of the image, and the load coefficient calculation unit 150 calculates a load coefficient based on the statistical information value. That is, since the contrast evaluation unit 160 determines the contrast evaluation value based on the evaluation value calculated by the band characteristic evaluation unit 130 and the load coefficient calculated in consideration of the frequency band of the image, an accurate contrast evaluation value is obtained. Can be determined. As a result, the microscope system 200 can create an accurate three-dimensional reconstructed microscope image and an all-focus microscope image. In the case where the optical system of the microscope 110 includes a zoom optical system, the numerical aperture changes in accordance with the focal length of the zoom optical system and the band of the microscope image changes, so this embodiment is particularly effective.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても、発明が解決しようとする課題の欄で述べられた課題が解決でき、かつ、発明の効果が得られる場合には、この構成要素が削除された構成も発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the problem described in the column of problems to be solved by the invention can be solved and the effect of the invention can be obtained. The configuration in which this component is deleted can also be extracted as an invention. Furthermore, constituent elements over different embodiments may be appropriately combined.

100…画像処理システム、110…画像取得部、114…記憶部、115…標本面、120…帯域処理部、121…第1のフィルタ、122…第2のフィルタ、123…第3のフィルタ、130…帯域特性評価部、140…統計情報算出部、150…荷重係数算出部、160…コントラスト評価部、170…合焦評価部、180…3D形状推定部、190…画像合成部、200…顕微鏡システム、210…顕微鏡、211…LED光源、212…照明光学系、213…光路制御素子、214…対物レンズ、215…標本面、216…ズーム光学系、217…結像光学系、218…観察光学系、219…撮像面、220…撮像部、222…コントローラ。   DESCRIPTION OF SYMBOLS 100 ... Image processing system, 110 ... Image acquisition part, 114 ... Memory | storage part, 115 ... Sample surface, 120 ... Band processing part, 121 ... 1st filter, 122 ... 2nd filter, 123 ... 3rd filter, 130 DESCRIPTION OF SYMBOLS ... Band characteristic evaluation part 140 ... Statistical information calculation part 150 ... Load coefficient calculation part 160 ... Contrast evaluation part 170 ... Focus evaluation part 180 ... 3D shape estimation part 190 ... Image composition part 200 ... Microscope system , 210 ... Microscope, 211 ... LED light source, 212 ... Illumination optical system, 213 ... Optical path control element, 214 ... Objective lens, 215 ... Sample surface, 216 ... Zoom optical system, 217 ... Imaging optical system, 218 ... Observation optical system 219 ... Imaging surface, 220 ... Imaging unit, 222 ... Controller.

Claims (13)

同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部と、
複数の前記画像における所定の領域に対し、複数の周波数帯域ごとに、前記画像が含む帯域の帯域評価値を算出する帯域特性評価部と、
少なくとも2つの前記焦点位置の前記帯域評価値を用いて統計情報を少なくとも前記周波数帯域ごとに算出する統計情報算出部と、
前記統計情報に基づいて、前記帯域評価値に対する荷重係数を少なくとも前記周波数帯域ごとに算出する荷重係数算出部と、
前記帯域評価値と前記荷重係数とに基づいて、複数の前記画像における前記領域ごとにコントラスト評価値を算出するコントラスト評価部と、
前記コントラスト評価値に基づいて、複数の前記画像の各々の前記領域のうち合焦している前記領域を選択する合焦評価部と、
を具備することを特徴とする画像処理システム。
An image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject;
A band characteristic evaluation unit that calculates a band evaluation value of a band included in the image for each of a plurality of frequency bands for a predetermined region in the plurality of images,
A statistical information calculation unit that calculates statistical information for at least each frequency band using the band evaluation values of at least two focal positions;
Based on the statistical information, a load coefficient calculation unit that calculates a load coefficient for the band evaluation value at least for each frequency band;
A contrast evaluation unit that calculates a contrast evaluation value for each of the regions in the plurality of images based on the band evaluation value and the load coefficient;
A focus evaluation unit that selects the region in focus among the regions of each of the plurality of images based on the contrast evaluation value;
An image processing system comprising:
前記帯域評価値は、各々の前記周波数帯域における振幅に相当する量であることを特徴とする請求項1に記載の画像処理システム。   The image processing system according to claim 1, wherein the band evaluation value is an amount corresponding to an amplitude in each of the frequency bands. 前記統計情報算出部は、さらに前記領域ごとに前記統計情報を算出し、
前記荷重係数算出部は、さらに前記領域ごとに前記荷重係数を算出し、
コントラスト評価部は、前記領域ごとの前記帯域評価値と前記領域ごとの前記荷重係数とに基づいて、前記コントラスト評価値を算出する、
ことを特徴とする請求項1又は2に記載の画像処理システム。
The statistical information calculation unit further calculates the statistical information for each region,
The load coefficient calculation unit further calculates the load coefficient for each region,
The contrast evaluation unit calculates the contrast evaluation value based on the band evaluation value for each region and the load coefficient for each region.
The image processing system according to claim 1, wherein the image processing system is an image processing system.
前記統計情報は、前記焦点位置が異なる複数の前記画像の各々の対応する前記帯域評価値の平均値であることを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理システム。   4. The image processing system according to claim 1, wherein the statistical information is an average value of the band evaluation values corresponding to each of the plurality of images having different focal positions. 5. . 前記統計情報は、前記焦点位置が異なる複数の前記画像の各々の対応する前記帯域評価値の平均値を、少なくとも1つの前記周波数帯域についての前記平均値の和で除算した相対値であることを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理システム。   The statistical information is a relative value obtained by dividing an average value of the corresponding band evaluation values of each of the plurality of images having different focal positions by a sum of the average values for at least one of the frequency bands. The image processing system according to claim 1, wherein the image processing system is one of the first to third aspects. 前記統計情報は、前記焦点位置が異なる複数の前記画像の各々の対応する前記帯域評価値の平均値を、全ての前記周波数帯域についての前記平均値の和で除算した相対値であることを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理システム。   The statistical information is a relative value obtained by dividing the average value of the corresponding band evaluation values of each of the plurality of images having different focal positions by the sum of the average values for all the frequency bands. The image processing system according to any one of claims 1 to 3. 前記統計情報は、前記焦点位置が異なる複数の前記画像の各々の対応する前記帯域評価値の変動量であることを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理システム。   4. The image processing system according to claim 1, wherein the statistical information is a fluctuation amount of the band evaluation value corresponding to each of the plurality of images having different focal positions. 5. . 前記統計情報は、前記焦点位置が異なる複数の前記画像の各々の対応する前記帯域評価値の変動量を、少なくとも1つの前記周波数帯域についての前記変動量の和で除算した相対値であることを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理システム。   The statistical information is a relative value obtained by dividing the variation amount of the corresponding band evaluation value of each of the plurality of images having different focal positions by the sum of the variation amounts for at least one of the frequency bands. The image processing system according to claim 1, wherein the image processing system is one of the first to third aspects. 前記統計情報は、前記焦点位置が異なる複数の前記画像の各々の対応する前記帯域評価値の変動量を、全ての前記周波数帯域についての前記変動量の和で除算した相対値であることを特徴とする請求項1乃至3のうちいずれか1項に記載の画像処理システム。   The statistical information is a relative value obtained by dividing the variation amount of the corresponding band evaluation value of each of the plurality of images having different focal positions by the sum of the variation amounts for all the frequency bands. The image processing system according to any one of claims 1 to 3. 前記合焦評価部によって選択された合焦している前記領域の各々に対応する前記画像に基づいて、全焦点画像を作成する全焦点画像作成部をさらに具備することを特徴とする請求項1乃至9のうち何れか1項に記載の画像処理システム。   2. The omnifocal image creation unit that creates an omnifocal image based on the image corresponding to each of the focused areas selected by the focus evaluation unit. 10. The image processing system according to any one of items 9 to 9. 前記合焦評価部によって選択された合焦している前記領域の各々に対応する前記画像と、これら領域の各々に対応する前記焦点位置とに基づいて、3次元再構成画像を作成する3次元再構成画像作成部をさらに具備することを特徴とする請求項1乃至9のうち何れか1項に記載の画像処理システム。   Three-dimensional reconstructed image based on the image corresponding to each of the focused areas selected by the focus evaluation unit and the focal position corresponding to each of these areas The image processing system according to claim 1, further comprising a reconstructed image creating unit. 顕微鏡光学系と、
前記顕微鏡光学系を介した標本の像を標本画像として取得する撮像部と、
前記標本画像を前記画像として取得する請求項1乃至11のうち何れか1項に記載の画像処理システムと、
を備えることを特徴とする顕微鏡システム。
Microscope optics,
An imaging unit that obtains an image of a specimen through the microscope optical system as a specimen image;
The image processing system according to any one of claims 1 to 11, wherein the sample image is acquired as the image.
A microscope system comprising:
前記光学系は、変倍光学系を含むことを特徴とする請求項12に記載の顕微鏡システム。   The microscope system according to claim 12, wherein the optical system includes a variable magnification optical system.
JP2012075081A 2012-03-28 2012-03-28 Image processing system and microscope system including the same Active JP5868758B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012075081A JP5868758B2 (en) 2012-03-28 2012-03-28 Image processing system and microscope system including the same
US13/788,526 US9509977B2 (en) 2012-03-28 2013-03-07 Image processing system and microscope system including the same
US15/338,852 US20170046846A1 (en) 2012-03-28 2016-10-31 Image processing system and microscope system including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012075081A JP5868758B2 (en) 2012-03-28 2012-03-28 Image processing system and microscope system including the same

Publications (2)

Publication Number Publication Date
JP2013205650A JP2013205650A (en) 2013-10-07
JP5868758B2 true JP5868758B2 (en) 2016-02-24

Family

ID=49524792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012075081A Active JP5868758B2 (en) 2012-03-28 2012-03-28 Image processing system and microscope system including the same

Country Status (1)

Country Link
JP (1) JP5868758B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3396428A4 (en) * 2015-12-22 2019-08-28 Olympus Corporation Microscope system

Also Published As

Publication number Publication date
JP2013205650A (en) 2013-10-07

Similar Documents

Publication Publication Date Title
JP6112824B2 (en) Image processing method and apparatus, and program.
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
JP5705096B2 (en) Image processing apparatus and image processing method
JP5868183B2 (en) Imaging apparatus and imaging method
JP5832424B2 (en) Imaging apparatus and distance measuring method
JP5797016B2 (en) Image processing apparatus, image processing method, and program
JP6214183B2 (en) Distance measuring device, imaging device, distance measuring method, and program
JP5869883B2 (en) Image processing device
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US20120281132A1 (en) Image capturing device, image capturing method, program, and integrated circuit
US20170046846A1 (en) Image processing system and microscope system including the same
JP5374119B2 (en) Distance information acquisition device, imaging device, and program
JP2012005056A (en) Image processing device, image processing method and program
US20140022346A1 (en) Method and apparatus for improving depth of field (dof) in microscopy
JP2007199633A (en) Focusing detector
WO2021038103A1 (en) Image processing apparatus and method for use in an autofocus system
JP2015108837A (en) Image processing apparatus and image processing method
US9942534B2 (en) Image processing system and microscope system including the same
JP5653464B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP5846895B2 (en) Image processing system and microscope system including the same
JP5868758B2 (en) Image processing system and microscope system including the same
JP5965638B2 (en) Microscope system with image processing system
JP2016119542A (en) Image processing method, image processing program, image processing unit, and imaging apparatus
JP5914092B2 (en) Image processing system and microscope system including the same
JP5207250B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160106

R151 Written notification of patent or utility model registration

Ref document number: 5868758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250