JP5914092B2 - Image processing system and microscope system including the same - Google Patents

Image processing system and microscope system including the same Download PDF

Info

Publication number
JP5914092B2
JP5914092B2 JP2012073354A JP2012073354A JP5914092B2 JP 5914092 B2 JP5914092 B2 JP 5914092B2 JP 2012073354 A JP2012073354 A JP 2012073354A JP 2012073354 A JP2012073354 A JP 2012073354A JP 5914092 B2 JP5914092 B2 JP 5914092B2
Authority
JP
Japan
Prior art keywords
image
unit
candidate value
value
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012073354A
Other languages
Japanese (ja)
Other versions
JP2013207488A (en
Inventor
渡辺 伸之
伸之 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012073354A priority Critical patent/JP5914092B2/en
Priority to US13/788,526 priority patent/US9509977B2/en
Publication of JP2013207488A publication Critical patent/JP2013207488A/en
Application granted granted Critical
Publication of JP5914092B2 publication Critical patent/JP5914092B2/en
Priority to US15/338,852 priority patent/US20170046846A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Description

本発明は、画像処理システム及びそれを備えた顕微鏡システムに関する。   The present invention relates to an image processing system and a microscope system including the image processing system.

一般に、画像の帯域コントラストに基づいて、合焦を評価する方法が知られている。コントラストに基づく合焦評価は、オートフォーカス機能等の他、例えば被写体の奥行情報の取得にも用いられる。奥行情報は、例えば、被写体を複数の焦点位置で撮像した後に、各位置について合焦している画像を、この複数の画像から選択することで取得される。また、奥行情報は、被写体像を複数の焦点位置で撮像した後に、被写体の各位置について合焦している画像をこの複数の画像から選択し、それら合焦している画像を合成して全焦点画像や3次元再構築画像を作成する場合に用いられる。   In general, a method for evaluating focusing based on the band contrast of an image is known. In-focus evaluation based on contrast is used for acquiring depth information of a subject, for example, in addition to an autofocus function or the like. The depth information is acquired by, for example, selecting an image focused on each position from the plurality of images after imaging the subject at a plurality of focal positions. In addition, the depth information is obtained by capturing an image of a subject at a plurality of focal positions, selecting an in-focus image for each position of the subject from the plurality of images, and synthesizing the in-focus images. This is used when creating a focus image or a three-dimensional reconstructed image.

全焦点画像や3次元再構成画像の作成において、画像中の各位置に対し焦点面が異なる複数の画像から最も合焦している画像を選択して被写体の3次元形状を推定した後に、この3次元形状の推定値に対して最適化処理が必要となる。この最適化処理には、画素間の相関に基づき孤立点の推定誤差を低減することが含まれ得る。また、上記の選択ができなかった位置について、標本の形状を推定することが含まれ得る。   In creating an omnifocal image or a three-dimensional reconstructed image, after selecting the most focused image from a plurality of images having different focal planes for each position in the image and estimating the three-dimensional shape of the subject, Optimization processing is required for the estimated value of the three-dimensional shape. This optimization process may include reducing isolated point estimation errors based on correlation between pixels. It may also include estimating the shape of the sample for the location where the selection could not be made.

例えば特許文献1には、全焦点画像を作成する顕微鏡システムに係る技術が開示されている。特許文献1には、全焦点画像を作成した後に回復フィルタによる処理を行うことが開示されている。一般に画像は、その画像の取得に用いられた光学系、倍率、被写体の特性等によって、異なる周波数帯域を有する。特許文献1に開示されている技術では、回復フィルタの係数は、光学系の帯域変化を考慮して対物レンズの倍率や開口数といった光学系の設定に応じて決められている。   For example, Patent Document 1 discloses a technique related to a microscope system that creates an omnifocal image. Japanese Patent Application Laid-Open No. H10-228707 discloses that processing using a recovery filter is performed after an omnifocal image is created. In general, images have different frequency bands depending on the optical system, magnification, and subject characteristics used to acquire the images. In the technique disclosed in Patent Document 1, the coefficient of the recovery filter is determined in accordance with the setting of the optical system such as the magnification and the numerical aperture of the objective lens in consideration of the band change of the optical system.

特開平9−298682号公報JP-A-9-298682

前記特許文献1に係る技術では、回復フィルタによる処理を行うことで、構造の回復及びエッジの強調が行われる。これは、上記したような標本の3次元形状の推定値に対する最適化処理とは異なる。上記したような最適化処理においても、画像が有する周波数帯域を考慮しないと、最適化処理に誤差が含まれ得る。   In the technique according to Patent Document 1, the restoration of the structure and the enhancement of the edge are performed by performing the process using the restoration filter. This is different from the optimization processing for the estimated value of the three-dimensional shape of the sample as described above. Even in the optimization process as described above, an error may be included in the optimization process unless the frequency band of the image is taken into consideration.

そこで本発明は、画像の周波数帯域を考慮して被写体の3次元形状の推定値に対する最適化処理を行える画像処理システム及びそれを備えた顕微鏡システムを提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing system capable of performing an optimization process on an estimated value of a three-dimensional shape of a subject in consideration of an image frequency band, and a microscope system including the image processing system.

前記目的を果たすため、本発明の一態様によれば、画像処理システムは、同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部と、前記画像の各画素に対し複数の前記画像に基づき3次元形状の候補値を推定する候補値推定部と、複数の前記画像の各画素に対し、複数の周波数帯域ごとに、前記画像が含む帯域の帯域評価値を算出する帯域特性評価部と、前記帯域評価値の統計情報に基づいて前記画素の有効周波数を決定する有効周波数決定部と、前記有効周波数に基づいて、前記候補値に対してデータ補正とデータ補間とのうち少なくとも一方を行い、前記被写体の3次元形状を表す修正候補値を算出する候補値修正部と、を具備し、前記候補値修正部は、前記候補値が表す局所領域の値の相関を用いて前記修正候補値を算出する修正候補値算出部を含み、前記局所領域の面積は、前記有効周波数に応じて決定されることを特徴とする。 To achieve the above object, according to an aspect of the present invention, an image processing system includes: an image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject; and a plurality of images for each pixel of the image. A candidate value estimator for estimating a candidate value of a three-dimensional shape based on the image and a band for calculating a band evaluation value of a band included in the image for each of a plurality of frequency bands A characteristic evaluation unit; an effective frequency determination unit that determines an effective frequency of the pixel based on statistical information of the band evaluation value; and data correction and data interpolation for the candidate value based on the effective frequency A candidate value correction unit that performs at least one and calculates a correction candidate value that represents the three-dimensional shape of the subject, and the candidate value correction unit uses a correlation of values of local regions represented by the candidate value. Said modification Includes a correction candidate value calculation unit that calculates a complement value, the area of the local region, characterized in that it is determined according to the effective frequency.

また、本発明の一態様によれば、顕微鏡システムは、顕微鏡光学系と、前記顕微鏡光学系を介した標本の像を標本画像として取得する撮像部と、前記標本画像を前記画像として取得する上記の画像処理システムと、を備えることを特徴とする。   Moreover, according to one aspect of the present invention, a microscope system includes a microscope optical system, an imaging unit that acquires an image of a specimen through the microscope optical system as a specimen image, and the specimen image that is acquired as the image. And an image processing system.

本発明によれば、帯域評価値の統計情報に基づいて前記画素の有効周波数を決定し、この有効周波数に応じて、3次元形状の候補値に対してデータ補正とデータ補間とのうち少なくとも一方を行うので、画像の周波数帯域を考慮して被写体の3次元形状の推定値に対する最適化処理を行うことができる。   According to the present invention, the effective frequency of the pixel is determined based on the statistical information of the band evaluation value, and at least one of data correction and data interpolation is performed on the three-dimensional shape candidate value according to the effective frequency. Therefore, the optimization process for the estimated value of the three-dimensional shape of the subject can be performed in consideration of the frequency band of the image.

本発明の各実施形態に係る画像処理システムの構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing system according to each embodiment of the present invention. 各実施形態に係る帯域処理部が有するフィルタバンクの周波数特性の一例を示す図。The figure which shows an example of the frequency characteristic of the filter bank which the band process part which concerns on each embodiment has. 各実施形態に係る帯域処理部が有するフィルタバンクの周波数特性の別の例を示す図。The figure which shows another example of the frequency characteristic of the filter bank which the band process part which concerns on each embodiment has. 第1の実施形態に係る画像処理システムにおける処理の一例を示すフローチャート。5 is a flowchart illustrating an example of processing in the image processing system according to the first embodiment. 第1の実施形態に係るノイズ・孤立点除去処理の一例を示すフローチャート。6 is a flowchart illustrating an example of noise / isolated point removal processing according to the first embodiment. コアリング処理を説明するための図であり、形状候補値に相当する原信号の例を表す図。It is a figure for demonstrating a coring process, and is a figure showing the example of the original signal corresponded to a shape candidate value. コアリング処理を説明するための図であり、移動平均と閾値との例を表す図。It is a figure for demonstrating a coring process, and is a figure showing the example of a moving average and a threshold value. コアリング処理を説明するための図であり、コアリング処理の結果例を表す図。It is a figure for demonstrating a coring process, and is a figure showing the example of a result of a coring process. 第1の実施形態に係る補間処理の一例を示すフローチャート。6 is a flowchart illustrating an example of interpolation processing according to the first embodiment. 第3の実施形態に係る顕微鏡システムの構成例を示すブロック図。The block diagram which shows the structural example of the microscope system which concerns on 3rd Embodiment.

[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。図1は、本実施形態に係る画像処理システム100の構成例の概略を示す。この図に示すように、画像処理システム100は、画像取得部110と、帯域処理部120と、帯域特性評価部130と、有効周波数決定部140と、候補値推定部150と、データ修正部160と、3D形状推定部170と、画像合成部180とを備える。有効周波数決定部140は、統計情報算出部142と、パラメータ決定部144とを有する。候補値推定部150は、コントラスト評価部152と、形状候補推定部154とを有する。データ修正部160は、データ補正部162とデータ補間部164とを有する。
[First Embodiment]
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows an outline of a configuration example of an image processing system 100 according to the present embodiment. As shown in this figure, the image processing system 100 includes an image acquisition unit 110, a band processing unit 120, a band characteristic evaluation unit 130, an effective frequency determination unit 140, a candidate value estimation unit 150, and a data correction unit 160. And a 3D shape estimation unit 170 and an image composition unit 180. The effective frequency determination unit 140 includes a statistical information calculation unit 142 and a parameter determination unit 144. The candidate value estimation unit 150 includes a contrast evaluation unit 152 and a shape candidate estimation unit 154. The data correction unit 160 includes a data correction unit 162 and a data interpolation unit 164.

画像取得部110は、記憶部114を有している。画像取得部110は、同一被写体に対し焦点位置を変化させながら撮像された複数の画像を取得し、記憶部114に記憶する。ここで、これら画像の各々は、その画像が取得された際の光学系の焦点位置に係る情報、すなわち奥行に係る情報が含まれているものとする。画像取得部110は、帯域処理部120、形状候補推定部154及び画像合成部180からの要求に応じてこれら画像を出力する。   The image acquisition unit 110 includes a storage unit 114. The image acquisition unit 110 acquires a plurality of images captured while changing the focal position with respect to the same subject, and stores the acquired images in the storage unit 114. Here, it is assumed that each of these images includes information related to the focal position of the optical system when the image is acquired, that is, information related to the depth. The image acquisition unit 110 outputs these images in response to requests from the band processing unit 120, the shape candidate estimation unit 154, and the image synthesis unit 180.

帯域処理部120は、フィルタバンクを有する。すなわち、帯域処理部120は、例えば、第1のフィルタ121と、第2のフィルタ122と、第3のフィルタ123とを有する。第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123の周波数特性を図2に示す。この図に示すように、これらフィルタはローパスフィルタとなっており、第1のフィルタ121、第2のフィルタ122、第3のフィルタ123の順にカットオフ周波数が高くなっている。すなわち、各フィルタが透過する信号の周波数帯域は異なる。なお、第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123は、図3にその周波数特性を示すような、バンドパスフィルタでもよい。その他、異なる周波数帯域を透過するように設計された複数のフィルタであればどのようなフィルタが用いられてもよい。また、本実施形態では、帯域処理部120が有するフィルタは3つであるとしているが、この数はいくつでもよい。帯域処理部120は、画像取得部110から画像を取得し、焦点位置が異なる複数の画像の各々に対して、画像の各領域(例えば各画素)について第1のフィルタ121、第2のフィルタ122、及び第3のフィルタ123のそれぞれを用いてフィルタリング処理を行う。以降、画素ごとに処理を行うものとして説明するが、複数の画素からなる領域ごとに処理を行っても同様である。帯域処理部120は、フィルタリング処理の結果を帯域特性評価部130に出力する。   The band processing unit 120 has a filter bank. That is, the band processing unit 120 includes, for example, a first filter 121, a second filter 122, and a third filter 123. The frequency characteristics of the first filter 121, the second filter 122, and the third filter 123 are shown in FIG. As shown in this figure, these filters are low-pass filters, and the cut-off frequency increases in the order of the first filter 121, the second filter 122, and the third filter 123. That is, the frequency band of the signal transmitted by each filter is different. Note that the first filter 121, the second filter 122, and the third filter 123 may be band-pass filters whose frequency characteristics are shown in FIG. In addition, any filter may be used as long as it is a plurality of filters designed to transmit different frequency bands. In the present embodiment, the band processing unit 120 has three filters. However, the number may be any number. The band processing unit 120 acquires an image from the image acquisition unit 110, and for each of a plurality of images having different focal positions, the first filter 121 and the second filter 122 for each region (for example, each pixel) of the image. Filtering processing is performed using each of the third filter 123 and the third filter 123. In the following description, the processing is performed for each pixel. However, the same applies when processing is performed for each region composed of a plurality of pixels. Band processing unit 120 outputs the result of the filtering process to band characteristic evaluation unit 130.

帯域特性評価部130は、フィルタ処理された複数の画像の各画素について帯域評価値を算出する。帯域評価値は、例えば、フィルタごとに通過した信号の積分値を算出することで求められる。このようにして各画像に対し、画素ごと及び周波数帯域ごとに帯域評価値が得られる。帯域特性評価部130は、算出した帯域評価値を有効周波数決定部140内の統計情報算出部142及び候補値推定部150内のコントラスト評価部152に出力する。   The band characteristic evaluation unit 130 calculates a band evaluation value for each pixel of the plurality of filtered images. The band evaluation value is obtained, for example, by calculating an integral value of a signal that has passed for each filter. In this way, a band evaluation value is obtained for each pixel and for each frequency band for each image. The band characteristic evaluation unit 130 outputs the calculated band evaluation value to the statistical information calculation unit 142 in the effective frequency determination unit 140 and the contrast evaluation unit 152 in the candidate value estimation unit 150.

有効周波数決定部140内の統計情報算出部142は、周波数帯域ごとに、焦点位置が異なる複数の画像の帯域評価値の平均値と関係を有する統計情報値を算出する。この統計情報については後述する。統計情報算出部142は、算出した統計情報値をパラメータ決定部144に出力する。   The statistical information calculation unit 142 in the effective frequency determination unit 140 calculates a statistical information value having a relationship with an average value of band evaluation values of a plurality of images having different focal positions for each frequency band. This statistical information will be described later. The statistical information calculation unit 142 outputs the calculated statistical information value to the parameter determination unit 144.

有効周波数決定部140内のパラメータ決定部144は、統計情報算出部142から入力された統計情報値に基づいて、有効周波数を算出する。パラメータ決定部144は、さらにこの有効周波数に基づいてデータ修正部160内のデータ補正部162で用いられる補正パラメータと、データ修正部160内のデータ補間部164で用いられる補間パラメータと、を算出する。補正パラメータ及び補間パラメータの算出については、後述する。パラメータ決定部144は、算出した補正パラメータをデータ修正部160内のデータ補正部162に、補間パラメータをデータ修正部160内のデータ補間部164にそれぞれ出力する。なお、周波数の決定に関しては、本実施形態に有るようなフィルタバンクでも良いし、ウエーブレット変換の様な直行基底による周波数解析に基づくデータを用いても良い。   The parameter determination unit 144 in the effective frequency determination unit 140 calculates the effective frequency based on the statistical information value input from the statistical information calculation unit 142. The parameter determination unit 144 further calculates a correction parameter used by the data correction unit 162 in the data correction unit 160 and an interpolation parameter used by the data interpolation unit 164 in the data correction unit 160 based on the effective frequency. . The calculation of the correction parameter and the interpolation parameter will be described later. The parameter determination unit 144 outputs the calculated correction parameter to the data correction unit 162 in the data correction unit 160 and the interpolation parameter to the data interpolation unit 164 in the data correction unit 160, respectively. Regarding the determination of the frequency, a filter bank as in the present embodiment may be used, or data based on frequency analysis using an orthogonal basis such as wavelet transform may be used.

候補値推定部150内のコントラスト評価部152は、帯域特性評価部130から入力された帯域評価値に基づいて、複数の画像の各画素について高周波成分の強度を評価し、コントラスト評価値を算出する。コントラスト評価部152は、コントラスト評価値の算出にあたり、帯域特性評価部130が算出した複数の帯域評価値のうち1つの帯域評価値を用いてもよいし、複数の帯域評価値を用いてもよい。コントラスト評価部152は、算出した各画像の各画素に係るコントラスト評価値を形状候補推定部154に出力する。   The contrast evaluation unit 152 in the candidate value estimation unit 150 evaluates the intensity of the high frequency component for each pixel of the plurality of images based on the band evaluation value input from the band characteristic evaluation unit 130, and calculates a contrast evaluation value. . In calculating the contrast evaluation value, the contrast evaluation unit 152 may use one of the plurality of band evaluation values calculated by the band characteristic evaluation unit 130 or may use a plurality of band evaluation values. . The contrast evaluation unit 152 outputs the calculated contrast evaluation value relating to each pixel of each image to the shape candidate estimation unit 154.

候補値推定部150内の形状候補推定部154は、コントラスト評価部152から入力されたコントラスト評価値に基づいて、複数の画像のそれぞれに対し画像中の各画素の合焦を評価する。さらに、形状候補推定部154は、画像中の各画素対し焦点位置が異なる複数の画像のうち最も合焦している画素を選択する。形状候補推定部154は、最も合焦している画像が撮像された際の焦点位置に係る情報を画像取得部110から取得し、その情報に基づいて画像中の各画素に対応する被写体の奥行を推定し、被写体の3次元形状の候補値としての情報である形状候補値を算出する。コントラスト評価値に基づいて被写体の奥行を推定できなかった画素については、形状候補推定部154は、当該画素に対応する形状候補値を、推定不能を表す値とする。形状候補推定部154は、算出した形状候補値をデータ修正部160内のデータ補正部162に出力する。   The shape candidate estimation unit 154 in the candidate value estimation unit 150 evaluates the focus of each pixel in the image with respect to each of the plurality of images based on the contrast evaluation value input from the contrast evaluation unit 152. Further, the shape candidate estimation unit 154 selects the most focused pixel among a plurality of images having different focal positions for each pixel in the image. The shape candidate estimation unit 154 acquires information on the focal position when the most focused image is captured from the image acquisition unit 110, and based on the information, the depth of the subject corresponding to each pixel in the image And a shape candidate value which is information as a candidate value of the three-dimensional shape of the subject is calculated. For pixels for which the depth of the subject cannot be estimated based on the contrast evaluation value, the shape candidate estimation unit 154 sets the shape candidate value corresponding to the pixel as a value indicating that estimation is impossible. The shape candidate estimation unit 154 outputs the calculated shape candidate value to the data correction unit 162 in the data correction unit 160.

データ修正部160が備えるデータ補正部162は、形状候補推定部154から入力された形状候補値に対して例えばノイズコアリングを行い、形状候補値のノイズを除去する。データ補正部162は、ノイズコアリングを行う際に、後に詳述するように、パラメータ決定部144から入力された補正パラメータを用いる。データ補正部162は、ノイズが除去された形状候補値であるノイズ除去形状候補値を、データ補間部164に出力する。   The data correction unit 162 included in the data correction unit 160 performs, for example, noise coring on the shape candidate value input from the shape candidate estimation unit 154 to remove noise from the shape candidate value. The data correction unit 162 uses the correction parameter input from the parameter determination unit 144 when performing noise coring, as will be described in detail later. The data correction unit 162 outputs the noise removal shape candidate value, which is the shape candidate value from which noise has been removed, to the data interpolation unit 164.

データ修正部160が備えるデータ補間部164は、データ補正部162から入力されたノイズ除去形状候補値のうち、推定不能を表す値となっている画素について、データの補間を行う。データ補間部164は、データを補間する際に、後述するようにパラメータ決定部144から入力された補間パラメータを用いる。データ補間部164は、ノイズが除去され推定不能な画素の値が補間された形状候補値である補間形状候補値を、3D形状推定部170に出力する。   The data interpolation unit 164 included in the data correction unit 160 performs data interpolation on the pixel that is a value indicating that estimation is impossible among the noise removal shape candidate values input from the data correction unit 162. When interpolating data, the data interpolation unit 164 uses the interpolation parameter input from the parameter determination unit 144 as will be described later. The data interpolation unit 164 outputs to the 3D shape estimation unit 170 an interpolation shape candidate value that is a shape candidate value obtained by interpolating a pixel value that cannot be estimated from which noise has been removed.

3D形状推定部170は、データ補間部164から入力された補間形状候補値に基づいて、高さ情報の最適化を行い、被写体の3次元形状の推定値を確定する。3D形状推定部170は、確定した被写体の3次元形状を画像合成部180に出力する。画像合成部180は、3D形状推定部170から入力された被写体の3次元形状と、画像取得部110から取得した複数の画像とに基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する。この合成画像は、例えば3次元再構成画像や、全焦点画像等である。画像合成部180は、作成した合成画像を、例えば表示させるために表示部に出力したり、例えば記憶させるために記憶装置に出力する。   The 3D shape estimation unit 170 optimizes the height information based on the interpolation shape candidate value input from the data interpolation unit 164, and determines the estimated value of the three-dimensional shape of the subject. The 3D shape estimation unit 170 outputs the determined three-dimensional shape of the subject to the image composition unit 180. The image synthesis unit 180 synthesizes a plurality of images with different focal positions based on the three-dimensional shape of the subject input from the 3D shape estimation unit 170 and the plurality of images acquired from the image acquisition unit 110. Create This synthesized image is, for example, a three-dimensional reconstructed image or an omnifocal image. The image composition unit 180 outputs the created composite image to the display unit for display, for example, or outputs it to the storage device for storage, for example.

本実施形態に係る画像処理システム100の動作の一例を、図4に示すフローチャートを参照して説明する。画像取得部110は、ステップS101において、同一被写体について焦点位置を変化させながら撮像された複数の画像を取得する。これら画像には、その画像が取得された際の光学系の焦点位置に係る情報等の奥行に係る情報が含まれているものとする。画像取得部110は、取得した画像を記憶部114に記憶する。   An example of the operation of the image processing system 100 according to the present embodiment will be described with reference to the flowchart shown in FIG. In step S101, the image acquisition unit 110 acquires a plurality of images captured while changing the focal position of the same subject. These images include information related to depth, such as information related to the focal position of the optical system when the image is acquired. The image acquisition unit 110 stores the acquired image in the storage unit 114.

帯域処理部120は、ステップS102において、記憶部114に記憶された焦点位置が異なる複数の画像の各画素に対し、例えば第1のフィルタ121、第2のフィルタ122及び第3のフィルタ123のそれぞれを用いてフィルタリング処理を行う。ここで、フィルタの数はいくつでもよいので、以降の説明において帯域処理部120は、N個のフィルタを有しているものとして説明する。帯域処理部120は、フィルタリング処理の結果を帯域特性評価部130に出力する。   In step S102, the band processing unit 120 applies, for example, each of the first filter 121, the second filter 122, and the third filter 123 to each pixel of the plurality of images having different focal positions stored in the storage unit 114. The filtering process is performed using Here, since the number of filters is not limited, the band processing unit 120 will be described as having N filters in the following description. Band processing unit 120 outputs the result of the filtering process to band characteristic evaluation unit 130.

帯域特性評価部130は、ステップS103において、フィルタリング処理された複数の画像の各領域に対し、帯域ごとに帯域評価値を算出する。すなわち、各焦点位置h(h=1,2,…,H)について、また、各画素(i,j)(画像の全領域Aに含まれる各画素(i,j))について、すなわち、データI(h,i,j)のそれぞれについて、周波数帯域f(n=1,2,…,N)ごとに帯域評価値Q(h,f,i,j)を算出する。帯域評価値Q(h,f,i,j)は、例えばフィルタを通過した信号の積分値として算出され、このフィルタを透過する帯域における振幅に相当する量となる。帯域特性評価部130は、帯域評価値Q(h,f,i,j)を統計情報算出部142及びコントラスト評価部152に出力する。 In step S103, the band characteristic evaluation unit 130 calculates a band evaluation value for each band for each region of the plurality of filtered images. That is, for each focal position h (h = 1, 2,..., H) and for each pixel (i, j) (each pixel (i, j) included in the entire area A of the image), that is, data For each of I (h, i, j), a band evaluation value Q (h, f n , i, j) is calculated for each frequency band f n (n = 1, 2,..., N). The band evaluation value Q (h, f n , i, j) is calculated, for example, as an integral value of the signal that has passed through the filter, and is an amount corresponding to the amplitude in the band that passes through the filter. The band characteristic evaluation unit 130 outputs the band evaluation value Q (h, f n , i, j) to the statistical information calculation unit 142 and the contrast evaluation unit 152.

統計情報算出部142は、ステップS104において、周波数帯域ごとに、焦点位置が異なる複数の画像について帯域評価値Q(h,f,i,j)の平均値を表す統計情報値を算出する。この統計情報値は、例えば平均値L(f,i,j)として下記式(1)で表される。

Figure 0005914092
統計情報算出部142は、算出した統計情報値をパラメータ決定部144に出力する。 In step S104, the statistical information calculation unit 142 calculates a statistical information value representing an average value of the band evaluation values Q (h, f n , i, j) for a plurality of images having different focal positions for each frequency band. This statistical information value is represented by the following formula (1) as an average value L (f n , i, j), for example.
Figure 0005914092
The statistical information calculation unit 142 outputs the calculated statistical information value to the parameter determination unit 144.

パラメータ決定部144は、ステップS105において、有効周波数fνを決定する。有効周波数fνは、例えば以下のように決定される。平均値L(f,i,j)に係る値が所定の条件を満たすか否かに応じて、変数L(f,i,j)を1又は0とする。すなわち、変数L(f,i,j)は例えば下記式(2)で表される。

Figure 0005914092
ここで、閾値Thrは、例えばN=5の場合は0.2といった任意の設計値である。この変数L(f,i,j)を用いて、有効周波数fνを決定する。例えば、低周波数側から計数して、すなわち低周波数側からnを順に大きくして、下記条件式(3)を満たす最小の周波数fに対するfm−1を有効周波数fνとする。
Figure 0005914092
すなわち、下記式(4)の条件を満たす最大の周波数を有効周波数fνとする。
Figure 0005914092
なお、上記式(2)及び(3)を用いた処理に限らず、単に閾値Thrを超える最大の周波数を有効周波数fνとしてもよい。 In step S105, the parameter determining unit 144 determines the effective frequency fν. The effective frequency fν is determined as follows, for example. The variable L N (f n , i, j) is set to 1 or 0 depending on whether or not the value relating to the average value L (f n , i, j) satisfies a predetermined condition. That is, the variable L N (f n , i, j) is expressed by, for example, the following formula (2).
Figure 0005914092
Here, the threshold value Thr is an arbitrary design value such as 0.2 when N = 5, for example. The effective frequency fν is determined using the variable L N (f n , i, j). For example, counted from the low frequency side, that is, in turn increasing the n from a low frequency side, the f m-1 and effective frequency fν for minimum frequency f m which satisfies the following conditional expression (3).
Figure 0005914092
That is, the maximum frequency that satisfies the condition of the following expression (4) is set as the effective frequency fν.
Figure 0005914092
Note that the processing is not limited to the processing using the above formulas (2) and (3), and the maximum frequency exceeding the threshold Thr may be simply set as the effective frequency fν.

パラメータ決定部144は、ステップS106において、有効周波数fνに基づいて、データ補正部162で用いられる補正パラメータm,n,w(k,l)と、データ補間部164で用いられる補間パラメータσ,σとを決定する。パラメータ決定部144は、例えば有効周波数fνと補正パラメータm,n,w(k,l)との関係を示すルックアップテーブルを記憶している。パラメータ決定部144は、このルックアップテーブルを参照して、有効周波数fνに基づいて補正パラメータm,n,w(k,l)を決定する。ここで、補正パラメータm,nは、有効周波数fνが低いほど大きな値となる。また、w(k,l)としては、後述の式(7)においてm,nの値が大きいときに重みが減少しないような関数が与えられる。パラメータ決定部144は、決定した補正パラメータm,n,w(k,l)をデータ補正部162に出力する。 In step S106, the parameter determination unit 144 determines the correction parameters m, n, w (k, l) used in the data correction unit 162 and the interpolation parameters σ k , used in the data interpolation unit 164 based on the effective frequency fν. σ l is determined. The parameter determination unit 144 stores, for example, a lookup table indicating the relationship between the effective frequency fν and the correction parameters m, n, w (k, l). The parameter determination unit 144 refers to this lookup table and determines the correction parameters m, n, w (k, l) based on the effective frequency fν. Here, the correction parameters m and n become larger as the effective frequency fν is lower. Further, as w (k, l), a function is provided such that the weight does not decrease when the values of m and n in Expression (7) described later are large. The parameter determination unit 144 outputs the determined correction parameters m, n, w (k, l) to the data correction unit 162.

また、距離の次元と周波数の次元(例えば単位距離ごとの周期数)は逆数の関係にあることから、パラメータ決定部144は、下記式(5)により、補正パラメータm,nを求めてもよい。

Figure 0005914092
ここで、intは整数化処理であり、C及びCは任意の係数である。このほかに一般に負の相関を有する関数を使用してもよい。 Further, since the distance dimension and the frequency dimension (for example, the number of periods per unit distance) are inversely related, the parameter determination unit 144 may obtain the correction parameters m and n by the following equation (5). .
Figure 0005914092
Here, int is an integer process, and C 1 and C 2 are arbitrary coefficients. In addition, a function generally having a negative correlation may be used.

また、パラメータ決定部144は、有効周波数fνに基づいて、データ補間部164で用いられる補間パラメータσ,σを決定する。パラメータ決定部144は、例えば有効周波数fνと補間パラメータσ,σとの関係を示すルックアップテーブルを記憶している。パラメータ決定部144は、このルックアップテーブルを参照して、有効周波数fνに基づいて補間パラメータσ,σを決定する。ここで、補間パラメータσ,σは、有効周波数fνが低いほど大きな値となる。パラメータ決定部144は、決定した補間パラメータσ,σをデータ補間部164に出力する。 The parameter determination unit 144 determines the interpolation parameters σ k and σ l used by the data interpolation unit 164 based on the effective frequency fν. The parameter determination unit 144 stores a look-up table indicating the relationship between the effective frequency fν and the interpolation parameters σ k and σ l , for example. The parameter determination unit 144 refers to this lookup table and determines the interpolation parameters σ k and σ l based on the effective frequency fν. Here, the interpolation parameters σ k and σ l become larger as the effective frequency fν is lower. The parameter determination unit 144 outputs the determined interpolation parameters σ k and σ l to the data interpolation unit 164.

また、補間パラメータσ,σは分散を表し、分散は距離の次元を有することから、補正パラメータm,nの場合と同様に、パラメータ決定部144は、下記式(6)により補間パラメータσ,σを求めてもよい。

Figure 0005914092
ここで、intは整数化処理であり、C及びCは任意の係数である。 In addition, since the interpolation parameters σ k and σ l represent dispersion and the dispersion has a dimension of distance, the parameter determination unit 144, like the correction parameters m and n, uses the following equation (6) to calculate the interpolation parameter σ You may obtain | require k and (sigma) l .
Figure 0005914092
Here, int is an integerization process, and C 3 and C 4 are arbitrary coefficients.

コントラスト評価部152は、ステップS107において、帯域特性評価部130から帯域評価値Q(h,f,i,j)を取得し、複数の画像の各画素について高周波成分の強度を評価し、コントラスト評価値を算出する。コントラスト評価部152は、算出した各画像の各画素に係るコントラスト評価値を形状候補推定部154に出力する。 In step S107, the contrast evaluation unit 152 acquires the band evaluation value Q (h, f n , i, j) from the band characteristic evaluation unit 130, evaluates the intensity of the high frequency component for each pixel of the plurality of images, and performs contrast. An evaluation value is calculated. The contrast evaluation unit 152 outputs the calculated contrast evaluation value relating to each pixel of each image to the shape candidate estimation unit 154.

形状候補推定部154は、ステップS108において、コントラスト評価部152から入力されたコントラスト評価値に基づいて、複数の画像のそれぞれについて画像中の各画素の合焦を評価する。形状候補推定部154は、例えばコントラストが高いほど合焦度が高いと評価する。さらに、形状候補推定部154は、画像中の各画素について焦点面が異なる複数の画像のうち最も合焦している画像を選択する。形状候補推定部154は、最も合焦している画像が撮像された際の焦点位置の情報を画像取得部110から取得する。形状候補推定部154は、画像取得部110から取得した情報に基づいて画像中の各画素に対応する被写体の奥行を推定し、被写体の形状に係る情報である形状候補値P(i,j)を算出する。形状候補値P(i,j)は、例えば座標(i,j)における被写体の奥行を表す。コントラスト評価値に基づいて被写体の奥行を推定できなかった場合は、形状候補推定部154は、当該画素に対応する形状候補値P(i,j)を、推定不能を表す値とする。形状候補推定部154は、算出した形状候補値P(i,j)をデータ修正部160内のデータ補正部162に出力する。   In step S108, the shape candidate estimation unit 154 evaluates the focus of each pixel in the image for each of the plurality of images based on the contrast evaluation value input from the contrast evaluation unit 152. The shape candidate estimation unit 154 evaluates that, for example, the higher the contrast, the higher the degree of focus. Furthermore, the shape candidate estimation unit 154 selects the most focused image among a plurality of images having different focal planes for each pixel in the image. The shape candidate estimation unit 154 acquires information on the focal position when the most focused image is captured from the image acquisition unit 110. The shape candidate estimation unit 154 estimates the depth of the subject corresponding to each pixel in the image based on the information acquired from the image acquisition unit 110, and the shape candidate value P (i, j) that is information related to the shape of the subject. Is calculated. The shape candidate value P (i, j) represents, for example, the depth of the subject at the coordinates (i, j). When the depth of the subject cannot be estimated based on the contrast evaluation value, the shape candidate estimation unit 154 sets the shape candidate value P (i, j) corresponding to the pixel as a value indicating that estimation is impossible. The shape candidate estimation unit 154 outputs the calculated shape candidate value P (i, j) to the data correction unit 162 in the data correction unit 160.

データ補正部162は、ステップS109において、形状候補値P(i,j)に対してノイズ又は孤立点の除去を行うノイズ・孤立点除去処理を行う。本実施形態では、ノイズ・孤立点除去処理は、コアリング処理によって行われる。ノイズ・孤立点除去処理の例を図5に示すフローチャートを参照して説明する。   In step S109, the data correction unit 162 performs noise / isolated point removal processing for removing noise or isolated points on the shape candidate value P (i, j). In the present embodiment, the noise / isolated point removal process is performed by a coring process. An example of noise / isolated point removal processing will be described with reference to a flowchart shown in FIG.

ステップS210において、データ補正部162は、形状候補値P(i,j)を読み込む。本実施形態では、画像のサイズは、横が0からpまでのp+1画素、縦が0からqまでのq+1画素であるものとする。ステップS220において、データ補正部162は、補正パラメータm,n,w(k,l)を読み込む。   In step S210, the data correction unit 162 reads the shape candidate value P (i, j). In the present embodiment, it is assumed that the image size is p + 1 pixels in the horizontal direction from 0 to p, and q + 1 pixels in the vertical direction from 0 to q. In step S220, the data correction unit 162 reads the correction parameters m, n, w (k, l).

本実施形態では、図5に示すように、ステップS231乃至ステップS234において、画像の全画素に対応する形状候補値P(i,j)について順に以下の処理を行う。ステップS231において、データ補正部162は、(i,j)を含む領域の基準値Pave(i,j,m,n)を下記式(7)に基づいて算出する。

Figure 0005914092
上記式(7)のとおり、基準値Pave(i,j,m,n)は、この領域における平均値を表す。また、上記式(7)において、パラメータ決定部144が決定した補正パラメータm,n,w(k,l)が用いられている。すなわち、上記式(7)は、有効周波数fνに応じて変化する。 In the present embodiment, as shown in FIG. 5, in steps S231 to S234, the following processing is sequentially performed on the shape candidate values P (i, j) corresponding to all the pixels of the image. In step S231, the data correction unit 162 calculates the reference value P ave (i, j, m, n) of the region including (i, j) based on the following equation (7).
Figure 0005914092
As shown in the above formula (7), the reference value P ave (i, j, m, n) represents an average value in this region. In the above equation (7), the correction parameters m, n, w (k, l) determined by the parameter determining unit 144 are used. That is, the above equation (7) changes according to the effective frequency fν.

ステップS232において、データ補正部162は、形状候補値P(i,j)と基準値Pave(i,j,m,n)との差が所定の閾値よりも小さいか否かを判定する。形状候補値P(i,j)と基準値Pave(i,j,m,n)との差が所定の閾値Thr−1よりも小さいとき、すなわち、「|P(i,j)−Pave(i,j,m,n)|<Thr−1」の判断が真のとき、処理はステップS234に進む。なお、ここで閾値Thr−1は、基準値の誤差範囲内に入るか否かの基準等、経験則に基づいて決定される。 In step S232, the data correction unit 162 determines whether the difference between the shape candidate value P (i, j) and the reference value P ave (i, j, m, n) is smaller than a predetermined threshold value. When the difference between the shape candidate value P (i, j) and the reference value P ave (i, j, m, n) is smaller than the predetermined threshold Th r−1 , that is, “| P (i, j) − When the determination of P ave (i, j, m, n) | <Th r−1 ”is true, the process proceeds to step S234. Here, the threshold value Th r−1 is determined based on an empirical rule such as a criterion for determining whether or not the error falls within the reference value error range.

一方、形状候補値P(i,j)と基準値Pave(i,j,m,n)との差が所定の閾値よりも小さくないとき、ステップS233において、データ補正部162は、形状候補値P(i,j)は孤立点であるか否かを判定する。形状候補値P(i,j)は孤立点であるとき、処理はステップS234に進む。 On the other hand, when the difference between the shape candidate value P (i, j) and the reference value P ave (i, j, m, n) is not smaller than the predetermined threshold value, in step S233, the data correction unit 162 determines the shape candidate. It is determined whether the value P (i, j) is an isolated point. When the shape candidate value P (i, j) is an isolated point, the process proceeds to step S234.

ここで、孤立点であるか否かの判定には、例えば「|P(i,j)−Pave(i,j,m,n)|>Thr−2」が真であるか否かの判断が用いられる。ここで、Thr−2は所定の複数画素領域における分散値に基づいて設定される閾値である。より具体的には、例えば、分散値がσであった場合、Thr−2は±2σに設定される。 Here, for determining whether or not the point is an isolated point, for example, whether or not “| P (i, j) −P ave (i, j, m, n) |> Th r-2 ” is true. Is used. Here, Th r-2 is a threshold value set based on the variance value in a predetermined plurality of pixel regions. More specifically, for example, when the variance value is σ, Th r−2 is set to ± 2σ.

ステップS234において、データ補正部162は、形状候補値P(i,j)の値を基準値Pave(i,j,m,n)に設定する。これらステップS231乃至ステップS234の処理が、全ての画素について行われる。すなわち、本処理は、上記の所定の閾値をΔTとし、処理後の形状候補値をノイズ除去形状候補値P´(i,j)としたときに、下記式(8)で表される。

Figure 0005914092
In step S234, the data correction unit 162 sets the value of the shape candidate value P (i, j) to the reference value P ave (i, j, m, n). The processes in steps S231 to S234 are performed for all pixels. That is, this process is expressed by the following formula (8) when the predetermined threshold is ΔT and the processed shape candidate value is the noise removal shape candidate value P ′ (i, j).
Figure 0005914092

本実施形態で用いられるコアリング処理の概念を図6A,6B,6Cを参照して説明する。図6Aは、形状候補値P(i,j)に相当する原信号を表す。この原信号に対して、上記式(7)で算出される平均値に相当する移動平均が、図6Bに一点鎖線で示されている。また、移動平均に対して上記の所定の閾値ΔTに相当する閾値を加算又は減算した値が図6Bに破線で示されている。この場合、上記式(8)で表されるように、図6Bにおいて原信号が2本の破線の間に位置する場合には、原信号は、一点鎖線で示された移動平均に置き換えられる。その結果、図6Cに示すような結果が得られる。なお、この図において丸印は移動平均に置き換えられた値を示す。このように、コアリング処理は、小振幅信号と判断される変動成分を抑制し、エラーを削除する効果を有する。   The concept of the coring process used in this embodiment will be described with reference to FIGS. 6A, 6B, and 6C. FIG. 6A represents an original signal corresponding to the shape candidate value P (i, j). For this original signal, a moving average corresponding to the average value calculated by the above equation (7) is shown by a one-dot chain line in FIG. 6B. A value obtained by adding or subtracting a threshold corresponding to the predetermined threshold ΔT to the moving average is indicated by a broken line in FIG. 6B. In this case, as represented by the above equation (8), when the original signal is located between two broken lines in FIG. 6B, the original signal is replaced with a moving average indicated by a one-dot chain line. As a result, a result as shown in FIG. 6C is obtained. In this figure, a circle indicates a value replaced with a moving average. As described above, the coring process has an effect of suppressing a fluctuation component that is determined to be a small amplitude signal and eliminating an error.

データ補正部162は、形状候補値P(i,j)に対して図5を参照して説明したノイズ・孤立点除去処理を施したもの、すなわち、ノイズ除去形状候補値P´(i,j)を、データ補間部164に出力する。   The data correction unit 162 performs the noise / isolated point removal processing described with reference to FIG. 5 on the shape candidate value P (i, j), that is, the noise removal shape candidate value P ′ (i, j). ) Is output to the data interpolation unit 164.

データ補間部164は、ステップS110において、データ補正部162から入力されたノイズ除去形状候補値P´(i,j)について、推定不能を表す値となっているデータについて補間する補間処理を行う。推定不能とは、コントラスト評価部152が算出したコントラスト評価値に基づいて形状候補推定部154が形状候補値P(i,j)を算出する際に、形状候補推定部154が画像の合焦を特定できなかったことを意味する。すなわち推定不能とは、当該画素について複数の画像のうち何れの画像のコントラスト評価値も、所定の合焦を示す条件に適合しなかったことを表す。   In step S110, the data interpolation unit 164 performs an interpolation process for interpolating data that is a value indicating that estimation is impossible for the noise removal shape candidate value P ′ (i, j) input from the data correction unit 162. Inability to estimate means that, when the shape candidate estimation unit 154 calculates the shape candidate value P (i, j) based on the contrast evaluation value calculated by the contrast evaluation unit 152, the shape candidate estimation unit 154 focuses the image. It means that it could not be identified. In other words, the impossibility of estimation means that the contrast evaluation value of any of the plurality of images for the pixel does not meet the condition indicating a predetermined focus.

ノイズ除去形状候補値P´(i,j)について推定不能を表す値の周囲が推定不能でない場合、すなわち、例えば5画素×5画素の領域のうち1画素のみが推定不能である場合には、データ補間部164は、当該推定不能のデータについて近隣のデータを用いて補間を行う。この際、データ補間部164は、データの補間に例えば双1次補間(bilinear interpolation)や、双3次補間(bicubic interpolation)を用いることができる。   When the periphery of the value indicating the impossibility of estimation for the noise removal shape candidate value P ′ (i, j) is not incapable of estimation, that is, for example, when only one pixel in the region of 5 pixels × 5 pixels cannot be estimated, The data interpolation unit 164 interpolates the data that cannot be estimated using neighboring data. At this time, the data interpolation unit 164 can use, for example, bilinear interpolation or bicubic interpolation for data interpolation.

一方、ノイズ除去形状候補値P´(i,j)について推定不能を表す値が連続して存在する場合には、データ補間部164は、近隣のデータとの相関を表す関数に基づいて、推定不能となっているデータの補間を行う。すなわち、推定不能となっている箇所の周辺の分布を仮定することで、当該箇所の値を推定する。本実施形態では、補間にカーネル回帰法が用いられる。この際、データ補間部164は、パラメータ決定部144から入力された補間パラメータσ,σを用いる。この補間処理の例を図7に示すフローチャートを参照して説明する。 On the other hand, when there are consecutive values indicating that estimation is not possible for the noise removal shape candidate value P ′ (i, j), the data interpolation unit 164 performs estimation based on a function that represents a correlation with neighboring data. Interpolate data that is disabled. That is, assuming the distribution around the location that cannot be estimated, the value of the location is estimated. In this embodiment, a kernel regression method is used for interpolation. At this time, the data interpolation unit 164 uses the interpolation parameters σ k and σ l input from the parameter determination unit 144. An example of this interpolation processing will be described with reference to the flowchart shown in FIG.

ステップS310において、データ補間部164は、ノイズ除去形状候補値P´(i,j)を読み込む。ステップS320において、データ補間部164は、補間パラメータσ,σを読み込む。続いてデータ補間部164は、補間データR(i,j)の算出を行う。ここで、補間データR(i,j)は、下記式(9)で表される。

Figure 0005914092
ここで、Nはサンプリング数を表し、下記式(10)で表される。
Figure 0005914092
また、C(k,l)は、下記式(11)で表される。
Figure 0005914092
上記式(11)に示すようにC(k,l)は、補間パラメータσ,σに応じて決定される。なお、Bは変数である。 In step S310, the data interpolation unit 164 reads the noise removal shape candidate value P ′ (i, j). In step S320, the data interpolation unit 164 reads the interpolation parameters σ k and σ l . Subsequently, the data interpolation unit 164 calculates the interpolation data R (i, j). Here, the interpolation data R (i, j) is expressed by the following equation (9).
Figure 0005914092
Here, N represents the number of samplings and is represented by the following formula (10).
Figure 0005914092
C (k, l) is expressed by the following formula (11).
Figure 0005914092
As shown in the above equation (11), C (k, l) is determined according to the interpolation parameters σ k and σ l . B is a variable.

ステップS331において、データ補間部164は、変数Bを更新する。ステップS332において、データ補間部164は、ノイズ除去形状候補値P´(i,j)に、上記式(9)乃至(11)に基づいてガウスカーネルを重畳する。ステップS333において、データ補間部164は、ステップS332で得られた値が例えば下記式(12)で表される所定の収束条件を満たしているか否かを判定する。

Figure 0005914092
ここで、Thrは、所定の閾値である。この収束条件を満たしていれば、処理はステップS340に進む。一方、収束条件を満たしていなければ、所定の回数であるD回まで、ステップS331乃至ステップS333の処理を繰り返す。すなわち、収束条件を満たすまで、ステップS331で変数Bの値を変更しながら、ステップS332で各変数Bに対する補間データR(i,j)を算出し、ステップS333で算出した補間データR(i,j)が収束条件を満たすか否か判定する。 In step S331, the data interpolation unit 164 updates the variable B. In step S332, the data interpolation unit 164 superimposes a Gaussian kernel on the noise removal shape candidate value P ′ (i, j) based on the above equations (9) to (11). In step S333, the data interpolation unit 164 determines whether or not the value obtained in step S332 satisfies a predetermined convergence condition represented by the following formula (12), for example.
Figure 0005914092
Here, Thr is a predetermined threshold value. If this convergence condition is satisfied, the process proceeds to step S340. On the other hand, if the convergence condition is not satisfied, the processing from step S331 to step S333 is repeated up to a predetermined number of times D. That is, until the convergence condition is satisfied, the interpolation data R (i, j) for each variable B is calculated in step S332 while changing the value of the variable B in step S331, and the interpolation data R (i, j, calculated in step S333). It is determined whether j) satisfies the convergence condition.

ステップS333における判定で、補間データR(i,j)が収束条件を満たしていると判定されたら、ステップS340において、データ補間部164は、条件を満たした補間データR(i,j)に基づいて拡張データを生成する。ステップS350において、データ補間部164は、ノイズ除去形状候補値P´(i,j)のうち推定不能であったデータに生成した拡張データを割り当てて、補間形状候補値P´´(i,j)を生成する。データ補間部164は、生成した補間形状候補値P´´(i,j)を3D形状推定部170に出力する。   If it is determined in step S333 that the interpolation data R (i, j) satisfies the convergence condition, in step S340, the data interpolation unit 164 is based on the interpolation data R (i, j) that satisfies the condition. To generate extended data. In step S350, the data interpolation unit 164 assigns the generated extension data to data that cannot be estimated among the noise removal shape candidate values P ′ (i, j), and the interpolation shape candidate value P ″ (i, j). ) Is generated. The data interpolation unit 164 outputs the generated interpolation shape candidate value P ″ (i, j) to the 3D shape estimation unit 170.

図4に戻って説明を続ける。3D形状推定部170は、ステップS111において、データ補間部164から入力された補間形状候補値P´´(i,j)に基づいて、高さ情報の最適化を行い、被写体の3次元形状を推定する。3D形状推定部170は、推定した被写体の3次元形状を画像合成部180に出力する。   Returning to FIG. 4, the description will be continued. In step S111, the 3D shape estimation unit 170 optimizes the height information based on the interpolation shape candidate value P ″ (i, j) input from the data interpolation unit 164, and determines the three-dimensional shape of the subject. presume. The 3D shape estimation unit 170 outputs the estimated three-dimensional shape of the subject to the image composition unit 180.

画像合成部180は、ステップS112において、3D形状推定部170から入力された被写体の3次元形状と、画像取得部110から取得した複数の画像とに基づいて、焦点面が異なる複数の画像を合成して合成画像を作成する。例えば合成画像が3次元再構成画像であれば、3次元形状とその3次元形状の各部に係る合焦している画像を合成させた合成画像を作成する。また、例えば合成画像が全焦点画像であれば、各画素についてその高さに相当する焦点面を有する画像から抽出した画像を組み合わせて、全ての画素について合焦している画像を合成する。画像合成部180は、作成した合成画像を表示部や記憶装置に出力する。   In step S112, the image composition unit 180 synthesizes a plurality of images with different focal planes based on the three-dimensional shape of the subject input from the 3D shape estimation unit 170 and the plurality of images acquired from the image acquisition unit 110. To create a composite image. For example, if the synthesized image is a three-dimensional reconstructed image, a synthesized image is created by synthesizing a three-dimensional shape and a focused image relating to each part of the three-dimensional shape. For example, if the composite image is an omnifocal image, an image extracted from an image having a focal plane corresponding to the height of each pixel is combined to synthesize an image focused on all the pixels. The image composition unit 180 outputs the created composite image to a display unit or a storage device.

例えば顕微鏡画像のように、被写界深度が浅い光学系を用いて被写界深度よりも大きな奥行きを有する被写体が撮像された場合、その画像はユーザに認識されにくい。これに対して3次元再構成画像や全焦点画像によれば、被写界深度よりも大きな奥行きを有する被写体の像が、容易にユーザに認識され得る。   For example, when a subject having a depth larger than the depth of field is captured using an optical system having a shallow depth of field, such as a microscope image, the image is not easily recognized by the user. On the other hand, according to the three-dimensional reconstructed image or the omnifocal image, an image of a subject having a depth larger than the depth of field can be easily recognized by the user.

このように、例えば画像取得部110は、同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部として機能する。例えば候補値推定部150は、画像の各画素に対し、複数の画像に基づき3次元形状の候補値を推定する候補値推定部として機能する。例えば帯域特性評価部130は、複数の画像の各画素に対し、複数の周波数帯域ごとに、画像が含む帯域の帯域評価値を算出する帯域特性評価部として機能する。例えば有効周波数決定部140は、帯域評価値の統計情報に基づいて画素の有効周波数を決定する有効周波数決定部として機能する。例えばデータ修正部160は、有効周波数に基づいて、候補値に対してデータ補正とデータ補間とのうち少なくとも一方を行い、被写体の3次元形状を表す修正候補値を算出する候補値修正部として機能する。例えばデータ補正部162は、候補値修正部は、候補値が表す局所領域の値の相関を用いて修正候補値を算出する修正候補値算出部として機能する。例えば3D形状推定部170は、全焦点画像作成部又は3次元再構成画像作成部として機能する。   Thus, for example, the image acquisition unit 110 functions as an image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject. For example, the candidate value estimation unit 150 functions as a candidate value estimation unit that estimates a three-dimensional shape candidate value based on a plurality of images for each pixel of the image. For example, the band characteristic evaluation unit 130 functions as a band characteristic evaluation unit that calculates a band evaluation value of a band included in the image for each of a plurality of frequency bands for each pixel of the plurality of images. For example, the effective frequency determination unit 140 functions as an effective frequency determination unit that determines the effective frequency of the pixel based on the statistical information of the band evaluation value. For example, the data correction unit 160 functions as a candidate value correction unit that performs at least one of data correction and data interpolation on the candidate value based on the effective frequency, and calculates a correction candidate value representing the three-dimensional shape of the subject. To do. For example, the data correction unit 162 functions as a correction candidate value calculation unit that calculates a correction candidate value using a correlation between values of local regions represented by the candidate value. For example, the 3D shape estimation unit 170 functions as an omnifocal image creation unit or a 3D reconstructed image creation unit.

本実施形態によれば、データ補正部162によるノイズ・孤立点除去処理の結果、画像のノイズ及び推定処理に起因するエラーが効果的に低減させられる。ここで、本実施形態では、ノイズ・孤立点除去処理で用いられる補正パラメータm,nは、画像における有効周波数fνに基づいて決定されている。すなわち、補正パラメータm,nは有効周波数fνが低いほど大きな値となっているので、上記式(7)において、有効周波数fνが低いほど広い領域の形状候補値P(i,j)に基づいて基準値Pave(i,j,m,n)が算出され、有効周波数fνが高いほど狭い領域の形状候補値P(i,j)に基づいて基準値Pave(i,j,m,n)が算出される。つまり、画像の有効周波数fνに応じた最適な基準値Pave(i,j,m,n)が算出されることになる。その結果、画像の有効周波数fνを考慮しない場合に比べて、精度よくノイズが低減させられ得る。すなわち、形状候補値P(i,j)が過度に平滑化されることも無く、ノイズが多い場合でも入力信号が過度に高周波信号であると評価されることも無い。 According to the present embodiment, as a result of the noise / isolated point removal processing by the data correction unit 162, image noise and errors due to estimation processing are effectively reduced. Here, in the present embodiment, the correction parameters m and n used in the noise / isolated point removal processing are determined based on the effective frequency fν in the image. That is, since the correction parameters m and n are larger as the effective frequency fν is lower, in the above equation (7), the lower the effective frequency fν, the larger the shape candidate value P (i, j). reference value P ave (i, j, m , n) is calculated, shape candidate value narrow enough effective frequency fν region of high P (i, j) to the reference value P ave (i based, j, m, n ) Is calculated. That is, the optimum reference value P ave (i, j, m, n) corresponding to the effective frequency fν of the image is calculated. As a result, noise can be reduced more accurately than in the case where the effective frequency fν of the image is not taken into consideration. That is, the shape candidate value P (i, j) is not excessively smoothed, and even when there is a lot of noise, the input signal is not evaluated as an excessively high frequency signal.

また、データ補間部164における補間処理では、近隣のデータの相関が仮定される際に画像の有効周波数fνの情報が用いられる。すなわち、周波数帯域に応じて最適化されたガウスカーネルが生成され、コントラスト評価値に基づいて推定不能であった位置における被写体の奥行の値が推定される。この際、有効周波数fνに基づいて補間パラメータσ,σが与えられるので、これらの値を変化させながら収束値が探索される場合に比べて、計算量が減少するため処理速度が上昇し、かつ、計算結果が誤った値に集束することが防止され得る。ここで、補間パラメータσ,σは有効周波数fνが低いほど大きな値となるので、上記式(9)において、有効周波数fνが低いほど広い領域のノイズ除去形状候補値P´(i,j)に基づいて補間データR(i,j)が算出され、有効周波数fνが高いほど狭い領域のノイズ除去形状候補値P´(i,j)に基づいて補間データR(i,j)が算出される。すなわち、過度に平滑化されることなく、エッジ構造の評価も適正に行われ、ノイズが多い場合でも入力信号が過度に高周波信号と評価されることも無い。 Further, in the interpolation processing in the data interpolation unit 164, information on the effective frequency fν of the image is used when the correlation of neighboring data is assumed. That is, a Gaussian kernel optimized according to the frequency band is generated, and the depth value of the subject at a position that cannot be estimated is estimated based on the contrast evaluation value. At this time, since the interpolation parameters σ k and σ l are given based on the effective frequency fν, the calculation speed is reduced and the processing speed is increased as compared with the case where the convergence value is searched while changing these values. And it is possible to prevent the calculation result from converging to an incorrect value. Here, since the interpolation parameters σ k and σ l become larger as the effective frequency fν is lower, in the above equation (9), the noise removal shape candidate value P ′ (i, j in a wider region is smaller as the effective frequency fν is lower. ) To calculate interpolation data R (i, j). The higher the effective frequency fν, the more the interpolation data R (i, j) is calculated based on the noise removal shape candidate value P ′ (i, j) in a narrow area. Is done. That is, the edge structure is appropriately evaluated without being excessively smoothed, and even when there is a lot of noise, the input signal is not excessively evaluated as a high-frequency signal.

なお、上記の各式は一例であり、上述の効果が得られれば、これらの式に限定されず、他の式が用いられてももちろんよい。例えば上記式(5)及び(6)に代わり、実数次数の多項式、対数関数、指数関数が用いられ得る。また、上記式(1)の代わりに分散等も用いられ得る。なお、上述の実施形態では、画素ごとに処理が行われているが、複数の画素からなる領域ごとに処理が行われてもよい。   In addition, each said formula is an example, if the above-mentioned effect is acquired, it will not be limited to these formulas, Of course, another formula may be used. For example, real order polynomials, logarithmic functions, and exponential functions may be used instead of the above equations (5) and (6). Moreover, dispersion | distribution etc. can be used instead of the said Formula (1). In the above-described embodiment, the process is performed for each pixel, but the process may be performed for each region including a plurality of pixels.

[第1の実施形態の変形例]
第1の実施形態の変形例について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については同一の符号を付してその説明を省略する。第1の実施形態におけるデータ補間部164による処理では、図5を参照して説明したステップS331乃至ステップS333のループ処理において、上記式(11)におけるσ,σには補間パラメータσ,σが設定され、これらの値は変化しない。
[Modification of First Embodiment]
A modification of the first embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the processing by the data interpolating portion 164 in the first embodiment, in the loop process of steps S331 through step S333 described with reference to FIG. 5, sigma k in the above equation (11), the sigma l interpolation parameter sigma k, σ l is set and these values do not change.

これに対して本変形例では、σ,σもステップS331において変化させられながら収束値が探索される。このため本変形例では、パラメータ決定部144は、補間パラメータσ,σとして、取り得る範囲又は確率密度関数をデータ補間部164に出力する。データ補間部164は、ステップS331乃至ステップS333のループ処理において、パラメータ決定部144から入力された補間パラメータσ,σとしての取り得る範囲又は確率密度関数に基づいて、σ,σも変化させながら収束値を探索する。その他の動作は第1の実施形態と同様である。 On the other hand, in this modification, the convergence values are searched for while σ k and σ l are also changed in step S331. Therefore, in the present modification, the parameter determination unit 144 outputs a possible range or probability density function to the data interpolation unit 164 as the interpolation parameters σ k and σ l . Data interpolating unit 164, the loop process of steps S331 through step S333, interpolation parameter sigma k input from parameter determining section 144, based on the possible range or probability density function of the σ l, σ k, σ l also The convergence value is searched while changing. Other operations are the same as those in the first embodiment.

本変形例によれば、第1の実施形態よりも処理量は増加するが、補間データR(i,j)は、第1の実施形態よりも適した収束値に集束し得る。本変形例においてもパラメータ決定部144は、有効周波数fνに基づいて補間パラメータσ,σとしての取り得る範囲又は確率密度関数を決定するので、第1の実施形態と同様の効果が得られる。 According to this modification, the processing amount is increased as compared with the first embodiment, but the interpolation data R (i, j) can be converged to a convergence value more suitable than that of the first embodiment. Also in the present modification, the parameter determination unit 144 determines a possible range or probability density function as the interpolation parameters σ k and σ l based on the effective frequency fν, so that the same effect as in the first embodiment can be obtained. .

[第2の実施形態]
本発明の第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、データ補正部162においてノイズ除去のためにバイラテラルフィルタが用いられる。本実施形態で用いられるバイラテラルフィルタを表す式を、下記式(13)に示す。

Figure 0005914092
ここで、C(k,l)は距離相関を規定する因子であり、S(P−P)は異なる画素間における画素レベルの差に起因する相関を規定する因子である。C(k,l)及びS(P−P)にどのような分布関数を用いるかによって、生成される画像の鮮鋭度、S/N比が変化する。 [Second Embodiment]
A second embodiment of the present invention will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In this embodiment, the data correction unit 162 uses a bilateral filter for noise removal. A formula representing the bilateral filter used in the present embodiment is shown in the following formula (13).
Figure 0005914092
Here, C (k, l) is a factor that defines the distance correlation, and S (P 1 −P 2 ) is a factor that defines the correlation caused by the difference in pixel level between different pixels. The sharpness and S / N ratio of the generated image vary depending on what distribution function is used for C (k, l) and S (P 1 -P 2 ).

本実施形態では、例えばC(k,l)及びS(P−P)にガウス分布に基づく関数が用いられる。すなわち、C(k,l)を例えば下記式(14)とする。

Figure 0005914092
ここで、σ,σは補正パラメータであり、Cは所定の定数である。補正パラメータσ,σは、第1の実施形態における補間パラメータσ,σと同じである。また、S(P−P)を例えば下記式(15)とする。
Figure 0005914092
ここで、σは補正パラメータであり、Cは所定の定数である。本実施形態では、パラメータ決定部144は、補正パラメータσをも画像の有効周波数fνに基づいてルックアップテーブルを参照して決定する。ここで、補正パラメータσは、有効周波数fνが低いほど大きな値となる。 In the present embodiment, for example, a function based on a Gaussian distribution is used for C (k, l) and S (P 1 −P 2 ). That is, C (k, l) is, for example, the following formula (14).
Figure 0005914092
Here, σ k and σ l are correction parameters, and C 5 is a predetermined constant. The correction parameters σ k and σ l are the same as the interpolation parameters σ k and σ l in the first embodiment. Further, S (P 1 -P 2 ) is, for example, the following formula (15).
Figure 0005914092
Here, σ P is a correction parameter, and C 6 is a predetermined constant. In the present embodiment, the parameter determination unit 144 determines the correction parameter σ P by referring to the lookup table based on the effective frequency fν of the image. Here, the correction parameter σ P has a larger value as the effective frequency fν is lower.

また、補正パラメータσpと周波数とは正の相関を有することから、パラメータ決定部144は、下記式(16)に示すようなM(M>0の整数)次の多項式を用いて補正パラメータσpを求めてもよい。

Figure 0005914092
In addition, since the correction parameter σ p and the frequency have a positive correlation, the parameter determination unit 144 uses the M (M> 0) integer polynomial as shown in the following equation (16) to correct the correction parameter σ p may be obtained.
Figure 0005914092

第1実施形態の場合と同様に、画像の有効周波数fνの情報が取得されれば、画像が本来持っている鮮鋭度が推定され得る。例えば、有効周波数fνが低い場合には、長距離の相関が重視されるように、C(k,l)が設定され、さらに、近隣のデータで急激な段差が生じないという仮定に基づいてS(P−P)が設定される。このように、例えばS(P−P)は、離れた2点の値の相関である第1の相関として機能する。例えばC(k,l)は、距離による相関である第2の相関として機能する。 As in the case of the first embodiment, if information on the effective frequency fν of an image is acquired, the sharpness inherent in the image can be estimated. For example, when the effective frequency fν is low, C (k, l) is set so that long-range correlation is emphasized, and further, based on the assumption that there is no abrupt step in neighboring data. (P 1 -P 2 ) is set. Thus, for example, S (P 1 −P 2 ) functions as a first correlation that is a correlation between two distant values. For example, C (k, l) functions as a second correlation that is a correlation by distance.

本実施形態では、近隣データの相関が仮定される際に、画像が本来持っている周波数帯域の情報が用いられる。この近隣データの相関に基づいて、バイラテラルフィルタが設定される。その結果、本実施形態によれば、形状候補値P(i,j)のノイズ及びエラーが効果的に低減させられたノイズ除去形状候補値P´(i,j)が取得され得る。   In the present embodiment, when the correlation of neighboring data is assumed, information on the frequency band that the image originally has is used. A bilateral filter is set based on the correlation of the neighboring data. As a result, according to the present embodiment, the noise removal shape candidate value P ′ (i, j) in which the noise and error of the shape candidate value P (i, j) are effectively reduced can be acquired.

なお、本実施形態においても第1の実施形態の第1の変形例と同様に、補正パラメータσ,σ,σPを確立密度変数としてもよい。この場合も本実施形態と同様の効果が得られる。 In the present embodiment as well, the correction parameters σ k , σ l , and σ P may be used as the established density variables, as in the first modification of the first embodiment. In this case, the same effect as that of the present embodiment can be obtained.

[第2の実施形態の第1の変形例]
第2の実施形態の第1の変形例について説明する。ここでは、第2の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本変形例では、データ補正部162においてノイズ除去のためにトリラテラルフィルタが用いられる。本実施形態で用いられるトリラテラルフィルタを表す式を、下記式(17)に示す。

Figure 0005914092
ここで、PΔ(i,j,k,l)は、下記式(18)で表される。
Figure 0005914092
また、N(i,j,k,l)は、下記式(19)で表される。
Figure 0005914092
ここで、U(i,j)は平滑化した勾配ベクトルを表し、下記式(20)で表される。
Figure 0005914092
ここで、P(i,j,k,l)は、下記式(21)で表される。
Figure 0005914092
ここで、U(i,j)は勾配の水平成分を表し、U(i,j)は勾配の垂直成分を表している。 [First Modification of Second Embodiment]
A first modification of the second embodiment will be described. Here, differences from the second embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the present modification, the data correction unit 162 uses a trilateral filter for noise removal. A formula representing the trilateral filter used in the present embodiment is shown in the following formula (17).
Figure 0005914092
Here, PΔ (i, j, k, l) is expressed by the following formula (18).
Figure 0005914092
N (i, j, k, l) is represented by the following formula (19).
Figure 0005914092
Here, U (i, j) represents a smoothed gradient vector and is represented by the following equation (20).
Figure 0005914092
Here, P f (i, j, k, l) is expressed by the following equation (21).
Figure 0005914092
Here, U (i, j) i represents the horizontal component of the gradient, and U (i, j) j represents the vertical component of the gradient.

このトリラテラルフィルタは、第2の実施形態で用いられるバイラテラルフィルタを勾配∇P(i,j)に適用したものである。∇P(i,j)を導入することにより、インパルスノイズ、すなわち、孤立変動成分を強く抑制することができる。   This trilateral filter is obtained by applying the bilateral filter used in the second embodiment to the gradient ∇P (i, j). By introducing ∇P (i, j), impulse noise, that is, an isolated fluctuation component can be strongly suppressed.

本変形例でも、第2の実施形態の場合と同様に、画像の有効周波数fνに応じて決定されたC(k,l)及びS(P−P)が用いられる。その結果、第2の実施形態の場合と同様の効果が得られる。 Also in this modification, C (k, l) and S (P 1 −P 2 ) determined according to the effective frequency fν of the image are used as in the case of the second embodiment. As a result, the same effect as in the second embodiment can be obtained.

[第3の実施形態]
本発明の第3の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態は、第1の実施形態に係る画像処理システム100を備える顕微鏡システム200である。
[Third Embodiment]
A third embodiment of the present invention will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. The present embodiment is a microscope system 200 including the image processing system 100 according to the first embodiment.

本実施形態に係る顕微鏡システム200の構成例の概略を図8に示す。この図に示すように、顕微鏡システム200は、顕微鏡210と第1の実施形態に係る画像処理システム100とを有する。顕微鏡210は、例えばデジタル顕微鏡である。顕微鏡210は、LED光源211と、照明光学系212と、光路制御素子213と、対物レンズ214と、図示しないステージ上の標本面215と、観察光学系218と、撮像面219と、撮像部220と、コントローラ222とを有する。観察光学系218は、ズーム光学系216と、結像光学系217とを有する。観察光路には、標本面215から撮像面219に向かって、対物レンズ214と、光路制御素子213と、ズーム光学系216と、結像光学系217とが、この順に配置されている。   An outline of a configuration example of the microscope system 200 according to the present embodiment is shown in FIG. As shown in this figure, the microscope system 200 includes a microscope 210 and the image processing system 100 according to the first embodiment. The microscope 210 is a digital microscope, for example. The microscope 210 includes an LED light source 211, an illumination optical system 212, an optical path control element 213, an objective lens 214, a specimen surface 215 on a stage (not shown), an observation optical system 218, an imaging surface 219, and an imaging unit 220. And a controller 222. The observation optical system 218 includes a zoom optical system 216 and an imaging optical system 217. In the observation optical path, an objective lens 214, an optical path control element 213, a zoom optical system 216, and an imaging optical system 217 are arranged in this order from the sample surface 215 to the imaging surface 219.

LED光源211から射出された照明光は、照明光学系212を介して、光路制御素子213に入射する。光路制御素子213は、照明光を観察光路上の対物レンズ214に向けて反射する。照明光は、対物レンズ214を介して標本面215に配置された標本に照射される。   The illumination light emitted from the LED light source 211 enters the optical path control element 213 via the illumination optical system 212. The optical path control element 213 reflects the illumination light toward the objective lens 214 on the observation optical path. The illumination light is applied to the sample disposed on the sample surface 215 via the objective lens 214.

標本に照明光が照射されると、標本から観察光が生じる。ここで、観察光は反射光や蛍光等である。観察光は、光路制御素子213に入射する。光路制御素子213は、照明光の場合と異なり、観察光を透過させて、観察光をズーム光学系216及び結像光学系217を有する観察光学系218に入射させる。このように光路制御素子213は、入射光の特性に応じて、入射光を反射又は透過させる光学素子である。光路制御素子213には、例えば、入射光の偏光方向に応じて入射光を反射又は透過させるワイヤーグリッドや偏光ビームスプリッタ(PBS)等の偏光素子が用いられ得る。なお、この光路制御素子213は、例えば、入射光の周波数に応じて入射光を反射又は透過させるダイクロイックミラー等を用いても良い。   When the sample is irradiated with illumination light, observation light is generated from the sample. Here, the observation light is reflected light, fluorescence, or the like. The observation light is incident on the optical path control element 213. Unlike the case of illumination light, the optical path control element 213 transmits observation light and makes the observation light incident on an observation optical system 218 having a zoom optical system 216 and an imaging optical system 217. Thus, the optical path control element 213 is an optical element that reflects or transmits incident light according to the characteristics of the incident light. For the optical path control element 213, for example, a polarization element such as a wire grid or a polarization beam splitter (PBS) that reflects or transmits incident light according to the polarization direction of the incident light can be used. The optical path control element 213 may use, for example, a dichroic mirror that reflects or transmits incident light according to the frequency of incident light.

観察光学系218は、観察光を撮像面219に集光させ、標本の像を撮像面219に結像させる。撮像部220は、撮像面219に結像した画像に基づく画像信号を生成し、この画像信号を顕微鏡画像として画像取得部110に出力する。コントローラ222は、顕微鏡210の動作を制御する。本実施形態では、顕微鏡210は、同一標本について、異なる焦点面において撮像した複数の顕微鏡画像を取得する。このため、コントローラ222は、顕微鏡210の光学系を制御して焦点面を徐々に変化させながら、各焦点面における標本の画像を撮像部220に撮像させる。具体的には、例えばコントローラ222は、顕微鏡210のステージの高さ、又は、対物レンズの高さの位置を変化させながら、撮像部220に撮像させる。コントローラ222は、撮像部220が撮像した画像と関連付けて、焦点位置に係る情報を画像取得部110に出力する。   The observation optical system 218 collects observation light on the imaging surface 219 and forms an image of the sample on the imaging surface 219. The imaging unit 220 generates an image signal based on the image formed on the imaging surface 219 and outputs the image signal to the image acquisition unit 110 as a microscope image. The controller 222 controls the operation of the microscope 210. In the present embodiment, the microscope 210 acquires a plurality of microscope images captured at different focal planes for the same specimen. For this reason, the controller 222 controls the optical system of the microscope 210 to cause the imaging unit 220 to capture an image of the sample on each focal plane while gradually changing the focal plane. Specifically, for example, the controller 222 causes the imaging unit 220 to capture an image while changing the height of the stage of the microscope 210 or the position of the height of the objective lens. The controller 222 outputs information related to the focal position to the image acquisition unit 110 in association with the image captured by the imaging unit 220.

本実施形態に係る顕微鏡システム200の動作を説明する。標本は、標本面215を有するように図示しないステージ上に配置される。コントローラ222は、顕微鏡210を制御する。コントローラ222は、例えば標本面215の位置を光軸方向に徐々に変化させ、標本に対する光学系の焦点位置を徐々に変化させる。具体的には、例えばコントローラ222は、顕微鏡210のステージの高さ、対物レンズの高さ又はフォーカスレンズの位置を変化させる。このとき、コントローラ222は、各焦点位置における標本の顕微鏡画像を撮像部220に順次撮像させる。画像取得部110は、撮像部220から各焦点位置における標本の顕微鏡画像を取得する。また、画像取得部110は、コントローラ222から各画像が撮像された際の焦点位置を取得する。画像取得部110は、取得した顕微鏡画像をその焦点位置と関連付けて記憶部114に記憶する。   An operation of the microscope system 200 according to the present embodiment will be described. The sample is placed on a stage (not shown) so as to have a sample surface 215. The controller 222 controls the microscope 210. For example, the controller 222 gradually changes the position of the sample surface 215 in the optical axis direction, and gradually changes the focal position of the optical system with respect to the sample. Specifically, for example, the controller 222 changes the height of the stage of the microscope 210, the height of the objective lens, or the position of the focus lens. At this time, the controller 222 causes the imaging unit 220 to sequentially capture microscopic images of the specimen at each focal position. The image acquisition unit 110 acquires a microscopic image of the specimen at each focal position from the imaging unit 220. Further, the image acquisition unit 110 acquires the focal position when each image is captured from the controller 222. The image acquisition unit 110 stores the acquired microscope image in the storage unit 114 in association with the focal position.

記憶部114に記憶された顕微鏡画像に基づいて、焦点位置が異なる複数の画像を合成して合成画像を作成する処理は、第1の実施形態の処理と同様である。本実施形態では、顕微鏡システム200は、顕微鏡画像に係る合成画像、例えば3次元再構成画像や全焦点画像を作成する。画像合成部180は、作成した合成画像を、例えば、表示させるために表示部に出力したり、記憶させるために記憶装置に出力したりする。3次元再構成画像や全焦点画像によれば、一般の顕微鏡画像のように被写界深度よりも大きな奥行きを有する被写体の像が、容易にユーザに認識され得る。   The process of creating a composite image by combining a plurality of images with different focal positions based on the microscope image stored in the storage unit 114 is the same as the process of the first embodiment. In the present embodiment, the microscope system 200 creates a composite image related to a microscope image, such as a three-dimensional reconstructed image or an omnifocal image. The image composition unit 180 outputs the created composite image, for example, to the display unit for display or to the storage device for storage. According to the three-dimensional reconstructed image and the omnifocal image, an image of a subject having a depth larger than the depth of field like a general microscope image can be easily recognized by the user.

このように、例えば照明光学系212、光路制御素子213、対物レンズ214、観察光学系218等は、顕微鏡光学系として機能する。例えば撮像部220は、顕微鏡光学系を介した標本の像を標本画像として取得する撮像部として機能する。   Thus, for example, the illumination optical system 212, the optical path control element 213, the objective lens 214, the observation optical system 218, and the like function as a microscope optical system. For example, the imaging unit 220 functions as an imaging unit that acquires a specimen image through a microscope optical system as a specimen image.

一般に、顕微鏡の光学系は、デジタルカメラの光学系に比べて像の拡大率が大きい。このため、顕微鏡撮影においては、カメラの撮像素子のサンプリング帯域に対して、顕微鏡の光学系の帯域がそれほど高くない場合がある。また、光学系の帯域は、光学系の開口数や倍率等によって変化し得る。例えば顕微鏡がズーム光学系を有する場合にも、その光学系の帯域は変化する。本実施形態によれば、統計情報算出部142は画像の周波数帯域が考慮された統計情報値を算出し、パラメータ決定部144はこの統計情報値に基づいて補正パラメータ及び補間パラメータを算出する。画像の有効周波数fνを考慮しない場合に比べて、精度よくノイズ等が低減させられ、また適切に補間がなされ得る。その結果、顕微鏡システム200は、精度よく3次元再構築顕微鏡画像や全焦点顕微鏡画像を作成できる。   In general, an optical system of a microscope has a larger image enlargement ratio than an optical system of a digital camera. For this reason, in microscope photography, the bandwidth of the optical system of the microscope may not be so high with respect to the sampling bandwidth of the camera image sensor. Further, the bandwidth of the optical system can change depending on the numerical aperture, magnification, etc. of the optical system. For example, when the microscope has a zoom optical system, the band of the optical system changes. According to the present embodiment, the statistical information calculation unit 142 calculates a statistical information value in consideration of the frequency band of the image, and the parameter determination unit 144 calculates a correction parameter and an interpolation parameter based on the statistical information value. Compared with the case where the effective frequency fν of the image is not taken into consideration, noise or the like can be reduced with high accuracy and interpolation can be appropriately performed. As a result, the microscope system 200 can create a three-dimensional reconstructed microscope image and an omnifocal microscope image with high accuracy.

なお、顕微鏡210の光学系にズーム光学系が含まれている場合、ズーム光学系の焦点距離に応じて開口数が変化し顕微鏡画像の帯域が変化するので、本実施形態は特に効果を奏する。上記の実施形態では、画像処理システム100は第1の実施形態に係るものであるとして説明したが、第2の実施形態やそれらの変形例が用いられてもよい。   Note that when the zoom optical system is included in the optical system of the microscope 210, the numerical aperture changes in accordance with the focal length of the zoom optical system and the band of the microscope image changes, so this embodiment is particularly effective. In the above embodiment, the image processing system 100 has been described as related to the first embodiment. However, the second embodiment or a modification thereof may be used.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても、発明が解決しようとする課題の欄で述べられた課題が解決でき、かつ、発明の効果が得られる場合には、この構成要素が削除された構成も発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the problem described in the column of problems to be solved by the invention can be solved and the effect of the invention can be obtained. The configuration in which this component is deleted can also be extracted as an invention. Furthermore, constituent elements over different embodiments may be appropriately combined.

100…画像処理システム、110…画像取得部、114…記憶部、120…帯域処理部、121…第1のフィルタ、122…第2のフィルタ、123…第3のフィルタ、130…帯域特性評価部、140…有効周波数決定部、142…統計情報算出部、144…パラメータ決定部、150…候補値推定部、152…コントラスト評価部、154…形状候補推定部、160…データ修正部、162…データ補正部、164…データ補間部、170…3D形状推定部、180…画像合成部、200…顕微鏡システム、210…顕微鏡、211…LED光源、212…照明光学系、213…光路制御素子、214…対物レンズ、215…標本面、216…ズーム光学系、217…結像光学系、218…観察光学系、219…撮像面、220…撮像部、222…コントローラ。   DESCRIPTION OF SYMBOLS 100 ... Image processing system 110 ... Image acquisition part 114 ... Memory | storage part 120 ... Band processing part 121 ... 1st filter 122 ... 2nd filter 123 ... 3rd filter 130 ... Band characteristic evaluation part , 140 ... effective frequency determination unit, 142 ... statistical information calculation unit, 144 ... parameter determination unit, 150 ... candidate value estimation unit, 152 ... contrast evaluation unit, 154 ... shape candidate estimation unit, 160 ... data correction unit, 162 ... data Correction unit, 164 ... Data interpolation unit, 170 ... 3D shape estimation unit, 180 ... Image composition unit, 200 ... Microscope system, 210 ... Microscope, 211 ... LED light source, 212 ... Illumination optical system, 213 ... Optical path control element, 214 ... Objective lens, 215 ... specimen surface, 216 ... zoom optical system, 217 ... imaging optical system, 218 ... observation optical system, 219 ... imaging surface, 220 ... imaging , 222 ... controller.

Claims (13)

同一被写体に対し異なる焦点位置で撮像された複数の画像を取得する画像取得部と、
前記画像の各画素に対し複数の前記画像に基づき3次元形状の候補値を推定する候補値推定部と、
複数の前記画像の各画素に対し、複数の周波数帯域ごとに、前記画像が含む帯域の帯域評価値を算出する帯域特性評価部と、
前記帯域評価値の統計情報に基づいて前記画素の有効周波数を決定する有効周波数決定部と、
前記有効周波数に基づいて、前記候補値に対してデータ補正とデータ補間とのうち少なくとも一方を行い、前記被写体の3次元形状を表す修正候補値を算出する候補値修正部と、
を具備し、
前記候補値修正部は、前記候補値が表す局所領域の値の相関を用いて前記修正候補値を算出する修正候補値算出部を含み、
前記局所領域の面積は、前記有効周波数に応じて決定される
ことを特徴とする画像処理システム。
An image acquisition unit that acquires a plurality of images captured at different focal positions for the same subject;
A candidate value estimator for estimating a candidate value of a three-dimensional shape based on a plurality of the images for each pixel of the image;
A band characteristic evaluation unit that calculates a band evaluation value of a band included in the image for each of a plurality of frequency bands for each pixel of the plurality of images,
An effective frequency determining unit that determines an effective frequency of the pixel based on statistical information of the band evaluation value;
A candidate value correction unit that performs at least one of data correction and data interpolation on the candidate value based on the effective frequency, and calculates a correction candidate value representing a three-dimensional shape of the subject;
Equipped with,
The candidate value correction unit includes a correction candidate value calculation unit that calculates the correction candidate value using a correlation of values of local regions represented by the candidate value;
The area of the local region is determined according to the effective frequency .
前記データ補正は、前記候補値が表す局所領域の値の相関を用いて小振幅信号と判断される変動成分を抑制することを特徴とする請求項に記載の画像処理システム。 The image processing system according to claim 1 , wherein the data correction suppresses a fluctuation component that is determined to be a small amplitude signal by using a correlation between values of a local region represented by the candidate value. 前記相関は、離れた2点の値の相関である第1の相関と、距離による相関である第2の相関とを含み、
前記第1の相関と前記第2の相関とは、前記有効周波数に応じて決定される、
ことを特徴とする請求項に記載の画像処理システム。
The correlation includes a first correlation that is a correlation between two points separated from each other, and a second correlation that is a correlation based on distance.
The first correlation and the second correlation are determined according to the effective frequency.
The image processing system according to claim 1 .
前記修正候補値算出部は、前記第1の相関と前記第2の相関とを含むバイラテラルフィルタを用いて前記修正候補値を算出することを特徴とする請求項に記載の画像処理システム。 The image processing system according to claim 3 , wherein the correction candidate value calculation unit calculates the correction candidate value using a bilateral filter including the first correlation and the second correlation. 前記相関は、確率密度関数に基づくことを特徴とする請求項に記載の画像処理システム。 The image processing system according to claim 3 , wherein the correlation is based on a probability density function. 前記データ補正は、前記候補値に含まれる孤立変動成分を抑制することを含むことを特徴とする請求項に記載の画像処理システム。 The image processing system according to claim 1 , wherein the data correction includes suppressing an isolated variation component included in the candidate value. 前記データ補間は、距離による相関を用いて、前記候補値のうち決定できなかった値を補間することを含むことを特徴とする請求項1乃至のうち何れか1項に記載の画像処理システム。 The data interpolation using the correlation due to the distance, the image processing system according to any one of claims 1 to 6, characterized in that it comprises interpolating the values could not be determined from among the candidate values . 前記修正候補値と前記複数の画像とに基づいて、全焦点画像を作成する全焦点画像作成部をさらに具備することを特徴とする請求項1乃至のうち何れか1項に記載の画像処理システム。 The image processing according to any one of claims 1 to 7 , further comprising an omnifocal image creating unit that creates an omnifocal image based on the correction candidate value and the plurality of images. system. 前記修正候補値と前記複数の画像とに基づいて、3次元再構成画像を作成する3次元再構成画像作成部をさらに具備することを特徴とする請求項1乃至のうち何れか1項に記載の画像処理システム。 Based on said plurality of images and the correction candidate value, to any one of claims 1 to 7, characterized by further comprising a three-dimensional reconstructed image creating unit that creates a three-dimensional reconstructed image The image processing system described. 前記面積は、前記有効周波数が低いほど広くなるように決定されることを特徴とする請求項に記載の画像処理システム。 The image processing system according to claim 1 , wherein the area is determined so as to increase as the effective frequency decreases. 前記距離による相関は、前記有効周波数が低いほど広い領域の値の重みが高くなるように決定されることを特徴とする請求項に記載の画像処理システム。 The image processing system according to claim 7 , wherein the correlation based on the distance is determined such that the weight of the value in a wide area becomes higher as the effective frequency is lower. 顕微鏡光学系と、
前記顕微鏡光学系を介した標本の像を標本画像として取得する撮像部と、
前記標本画像を前記画像として取得する請求項1乃至11のうち何れか1項に記載の画像処理システムと、
を備えることを特徴とする顕微鏡システム。
Microscope optics,
An imaging unit that obtains an image of a specimen through the microscope optical system as a specimen image;
The image processing system according to any one of claims 1 to 11 , wherein the sample image is acquired as the image.
A microscope system comprising:
前記顕微鏡光学系は、変倍光学系を含むことを特徴とする請求項12に記載の顕微鏡システム。 The microscope system according to claim 12 , wherein the microscope optical system includes a variable magnification optical system.
JP2012073354A 2012-03-28 2012-03-28 Image processing system and microscope system including the same Active JP5914092B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012073354A JP5914092B2 (en) 2012-03-28 2012-03-28 Image processing system and microscope system including the same
US13/788,526 US9509977B2 (en) 2012-03-28 2013-03-07 Image processing system and microscope system including the same
US15/338,852 US20170046846A1 (en) 2012-03-28 2016-10-31 Image processing system and microscope system including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012073354A JP5914092B2 (en) 2012-03-28 2012-03-28 Image processing system and microscope system including the same

Publications (2)

Publication Number Publication Date
JP2013207488A JP2013207488A (en) 2013-10-07
JP5914092B2 true JP5914092B2 (en) 2016-05-11

Family

ID=49526185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012073354A Active JP5914092B2 (en) 2012-03-28 2012-03-28 Image processing system and microscope system including the same

Country Status (1)

Country Link
JP (1) JP5914092B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111837031B (en) * 2018-03-30 2024-01-12 株式会社岛津制作所 Imaging data processing device and imaging data processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3961729B2 (en) * 1999-03-03 2007-08-22 株式会社デンソー All-focus imaging device
JP5418777B2 (en) * 2010-02-19 2014-02-19 富士ゼロックス株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2013207488A (en) 2013-10-07

Similar Documents

Publication Publication Date Title
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
JP6112824B2 (en) Image processing method and apparatus, and program.
JP6957197B2 (en) Image processing device and image processing method
US20170046846A1 (en) Image processing system and microscope system including the same
JP5868183B2 (en) Imaging apparatus and imaging method
JP5824364B2 (en) Distance estimation device, distance estimation method, integrated circuit, computer program
JP5635844B2 (en) Focus adjustment apparatus and imaging apparatus
TWI554106B (en) Method and image capturing device for generating image bokeh effect
JP5374119B2 (en) Distance information acquisition device, imaging device, and program
JP6594101B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012005056A (en) Image processing device, image processing method and program
US20160343111A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
US9942534B2 (en) Image processing system and microscope system including the same
JP5965638B2 (en) Microscope system with image processing system
JP6239985B2 (en) Image processing apparatus, image processing program, and imaging apparatus
JP6821526B2 (en) Image processing method, image processing device, imaging device, and program
JP5914092B2 (en) Image processing system and microscope system including the same
JP6682184B2 (en) Image processing method, image processing program, image processing device, and imaging device
JP2002247439A (en) Image input unit, image input method, and computer readable recording medium stored with program to allow computer to execute the method
JP6537228B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP5846895B2 (en) Image processing system and microscope system including the same
JP5645981B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP2017050662A (en) Image processing system, imaging apparatus, and image processing program
JP5868758B2 (en) Image processing system and microscope system including the same
CN104125385B (en) Image editing method and image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160404

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250