JP2013235110A - Autofocus device and microscope including the same - Google Patents

Autofocus device and microscope including the same Download PDF

Info

Publication number
JP2013235110A
JP2013235110A JP2012106921A JP2012106921A JP2013235110A JP 2013235110 A JP2013235110 A JP 2013235110A JP 2012106921 A JP2012106921 A JP 2012106921A JP 2012106921 A JP2012106921 A JP 2012106921A JP 2013235110 A JP2013235110 A JP 2013235110A
Authority
JP
Japan
Prior art keywords
lens system
objective lens
pupil
focus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012106921A
Other languages
Japanese (ja)
Inventor
Hironori Yazawa
洋紀 矢澤
Fumihiro Take
文宏 嶽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012106921A priority Critical patent/JP2013235110A/en
Publication of JP2013235110A publication Critical patent/JP2013235110A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an autofocus device that enables a stable, accurate and quick focus adjustment, and to provide a microscope including the autofocus device.SOLUTION: The autofocus device comprises: an objective lens system 11 that condenses a light flux from a specimen S; a structuring pupil 14 that includes a plate-shape member 14a provided at a position almost conjugate to a position of an exit pupil position of the objective lens system 11 and blocking the light flux from the objective lens system 11, a plurality of apertures 14h of the plate-shape member 14a and filters 14r, 14b and 14g attached to the plurality of apertures 14h and transmitting only predetermined color components; an imaging lens system 15 that images a light flux transmitted through each filter on an imaging element 16; and a focus position detection part 17 that processes and analyzes image data acquired from the first imaging element 16 and detects a focus position. The focus position detection part 17 acquires from the first imaging element 16 an image based on the light flux transmitted through each filter and separated into a plurality of different color components and detects a focus position of the objective lens system 11 from how these images are overlapped.

Description

本発明は、オートフォーカス装置に関する。   The present invention relates to an autofocus device.

顕微鏡のオートフォーカス(以下、AF)装置として、AF用光源から標本に対して投光し、標本からの反射光を検出することで焦点ズレ量を算出し、対物レンズの位置を制御するアクティブ方式(例えば、特許文献1を参照)や、標本からの光を検出することで焦点ズレ量を検出して、ピント合わせを行うパッシブ方式(例えば、特許文献2を参照)が知られている。   As an autofocus (hereinafter referred to as AF) device for a microscope, an active method for projecting a specimen from an AF light source, detecting a reflected light from the specimen, calculating a defocus amount, and controlling the position of the objective lens (For example, refer to Patent Document 1) and a passive method (for example, refer to Patent Document 2) that detects the amount of defocus by detecting light from a specimen and performs focusing.

特開2003-167183号公報Japanese Patent Laid-Open No. 2003-167183 特開平5−21318号公報Japanese Patent Laid-Open No. 5-21318

方式の如何にかかわらず、オートフォーカス装置に対しては、安定、正確かつ迅速に合焦調整を行うことが望まれている。   Regardless of the method, it is desirable for the autofocus device to perform focus adjustment stably, accurately, and quickly.

本発明は、このような問題に鑑みてなされたものであり、安定、正確かつ迅速に合焦調整を行うことが可能なオートフォーカス装置およびこれを有する顕微鏡を提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide an autofocus device capable of performing focus adjustment stably, accurately and quickly, and a microscope having the same.

このような目的を達成するため、本発明を例示する第一の態様に従えば、標本からの光束を集光する対物レンズ系と、前記対物レンズ系の射出側において、前記対物レンズ系の射出瞳位置もしくは前記瞳位置と略共役な位置に設けられ、前記対物レンズ系からの光束を遮蔽する板状部材と、前記板状部材に形成された複数の開口と、前記複数の開口に装着され所定の色成分の光束のみを透過させるフィルタとを有する構造化瞳と、前記構造化瞳の各フィルタを透過した光束を撮像素子に結像させる結像レンズ系と、前記撮像素子から取得した画像データを処理・解析し、前記対物レンズ系の焦点位置を検出する焦点位置検出部とを有し、前記焦点位置検出部は、前記撮像素子から前記構造化瞳の各フィルタを透過して複数の異なる色成分に分離された光束に基づく画像を取得し、これら複数の異なる色成分の光束に基づく画像の重なり具合から、前記対物レンズ系の焦点位置を検出することを特徴とするオートフォーカス装置が提供される。   In order to achieve such an object, according to a first aspect illustrating the present invention, an objective lens system that collects a light beam from a specimen, and an exit of the objective lens system on the exit side of the objective lens system A plate-like member provided at a pupil position or a position substantially conjugated with the pupil position, which shields the light beam from the objective lens system, a plurality of openings formed in the plate-like member, and a plurality of openings attached A structured pupil having a filter that transmits only a light beam of a predetermined color component, an imaging lens system that forms an image on the image sensor with a light beam that has passed through each filter of the structured pupil, and an image acquired from the image sensor A focal position detector that processes and analyzes data and detects a focal position of the objective lens system, and the focal position detector transmits a plurality of filters of the structured pupil from the imaging device. Split into different color components Image acquires based on the light beam, the overlapping state of an image based on the light beam of the plurality of different color components, said autofocus apparatus and detecting the focal position of the objective lens system is provided.

なお、各レンズ系は、1つのレンズで構成したものであっても、複数のレンズで構成したものであってもよい。   Each lens system may be constituted by one lens or may be constituted by a plurality of lenses.

また、本発明を例示する第二の態様に従えば、第一の態様のオートフォーカス装置を有することを特徴とする顕微鏡が提供される。   Moreover, according to the 2nd aspect which illustrates this invention, the microscope characterized by having the autofocus apparatus of a 1st aspect is provided.

本発明によれば、安定、正確かつ迅速に合焦調整を行うことが可能なオートフォーカス装置およびこれを有する顕微鏡を提供することができる。   According to the present invention, it is possible to provide an autofocus device capable of performing focus adjustment stably, accurately and quickly, and a microscope having the same.

第1の実施形態に係るオートフォーカス装置および該装置が組み込まれる顕微鏡の構成図である。1 is a configuration diagram of an autofocus device according to a first embodiment and a microscope in which the device is incorporated. FIG. 色ズレの原理を説明する図である。It is a figure explaining the principle of color shift. (a)は構造化瞳の平面図、(b)は焦点ズレがない場合に第1の撮像素子により撮像された画像の模式図、(c)は焦点ズレがある場合に第1の撮像素子により撮像された画像の模式図である。(A) is a plan view of the structured pupil, (b) is a schematic diagram of an image captured by the first image sensor when there is no focus shift, and (c) is the first image sensor when there is a focus shift. It is a schematic diagram of the image imaged by. リファレンス座標、各色成分の光束に基づく標本像および局所ウィンドウの関係を説明する図である。It is a figure explaining the relationship between a reference image, the sample image based on the light beam of each color component, and a local window. 色ズレ量の算出方法について説明する図である。It is a figure explaining the calculation method of the amount of color shift. 焦点ズレの方向の算出方法について説明する図である。It is a figure explaining the calculation method of the direction of a focus gap. オートフォーカス装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an auto-focus apparatus. 第1の実施形態に係る、別のオートフォーカス装置および該装置が組み込まれる顕微鏡の構成図である。It is a block diagram of another microscope based on 1st Embodiment and the microscope incorporating this apparatus. ピクセル構造の液晶表示素子と、変調部がリング状に形成されている液晶表示素子とについて説明する図である。It is a figure explaining the liquid crystal display element of a pixel structure, and the liquid crystal display element in which the modulation | alteration part is formed in the ring shape. 第2の実施形態に係るオートフォーカス装置および該装置が組み込まれる顕微鏡の構成図である。It is a block diagram of the autofocus apparatus which concerns on 2nd Embodiment, and the microscope in which this apparatus is incorporated. 標本面のチルト情報の算出方法について説明する図である。It is a figure explaining the calculation method of the tilt information of a sample surface. 3次元補正機構の構成例を示す図である。It is a figure which shows the structural example of a three-dimensional correction mechanism.

以下、本発明に係る実施形態について、図面を用いて説明する。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings.

(第1の実施形態)
第1の実施形態に係るオートフォーカス装置が組み込まれる顕微鏡の構成例を図1に示す。第1の実施形態では、オートフォーカス装置として、合焦指標光を投影しないパッシブ方式を採用する。本方式では、撮像した標本の画像をそのままリアルタイムに、オートフォーカスの指標として用いる。この方式では、対物レンズ系により結像された像と本来の像面との位置ズレ、すなわち焦点ズレの情報を、極めて単純な方法で、かつ高速に取得できる点がメリットである。
(First embodiment)
FIG. 1 shows a configuration example of a microscope in which the autofocus device according to the first embodiment is incorporated. In the first embodiment, a passive method that does not project the focus index light is employed as the autofocus device. In this method, the captured sample image is used as it is as an autofocus index in real time. This method has an advantage that information on the positional deviation between the image formed by the objective lens system and the original image plane, that is, information on the focal deviation can be acquired at a high speed by a very simple method.

まず、図1(a),(b)を参照しつつ、顕微鏡の構成について説明する。顕微鏡は、図1(a)に示すように、標本側から光軸に沿って順に並んだ、対物レンズ系11、瞳拡大レンズ系12、ビームスプリッタ13、第2の結像レンズ系31からなる観察用光学系と、第2の撮像素子32とを有する。そして、標本Sが対物レンズ系11に対して合焦している状態では、標本Sからの光束が、対物レンズ系11、瞳拡大レンズ系12およびビームスプリッタ13を順に透過して、第2の結像レンズ系31により第2の撮像素子32の撮像面に結像される。なお、図1は、すでに焦点ズレが生じている場合を示している。したがって、標本Sと、第1の撮像素子16および第2の撮像素子32は、共役関係とはなっていないことに注意されたい。   First, the configuration of the microscope will be described with reference to FIGS. 1 (a) and 1 (b). As shown in FIG. 1A, the microscope includes an objective lens system 11, a pupil magnifying lens system 12, a beam splitter 13, and a second imaging lens system 31 arranged in order along the optical axis from the specimen side. An observation optical system and a second image sensor 32 are included. When the sample S is in focus with respect to the objective lens system 11, the light beam from the sample S sequentially passes through the objective lens system 11, the pupil enlarging lens system 12, and the beam splitter 13, and the second An image is formed on the imaging surface of the second imaging element 32 by the imaging lens system 31. Note that FIG. 1 shows a case where a focus shift has already occurred. Therefore, it should be noted that the sample S and the first image sensor 16 and the second image sensor 32 are not in a conjugate relationship.

第2の撮像素子32の撮像面では、合焦の状態に応じて、標本Sの像の形成のされ方が異なる。例えば、対物レンズ系11が合焦位置にあれば、図1(b)の左図に示すように、鮮明な標本Sの像が形成され、対物レンズ系11が合焦位置になければ、図1(b)の右図に示すように、ボケた標本Sの像が形成される。   On the imaging surface of the second imaging element 32, the way in which the image of the sample S is formed differs depending on the in-focus state. For example, if the objective lens system 11 is in the in-focus position, as shown in the left diagram of FIG. 1B, a clear image of the specimen S is formed, and if the objective lens system 11 is not in the in-focus position, FIG. As shown in the right figure of 1 (b), an image of the blurred specimen S is formed.

次に、図1(a),(c)を参照しつつ、オートフォーカス装置について説明する。オートフォーカス装置は、図1(a)に示すように、標本側から光軸に沿って順に並んだ、対物レンズ系11、瞳拡大レンズ系12、ビームスプリッタ13、構造化瞳14、第1の結像レンズ系15からなるAF用光学系と、第1の撮像素子16とを有する。なお、理想光学系を達成すべく、レンズ系を両側テレセントリックとなるように構成したが、これは絶対要件ではない。   Next, the autofocus device will be described with reference to FIGS. 1 (a) and 1 (c). As shown in FIG. 1 (a), the autofocus device includes an objective lens system 11, a pupil magnifying lens system 12, a beam splitter 13, a structured pupil 14, and a first pupil arranged in order from the sample side along the optical axis. An AF optical system including an imaging lens system 15 and a first image sensor 16 are included. In order to achieve an ideal optical system, the lens system is configured to be telecentric on both sides, but this is not an absolute requirement.

対物レンズ系11は、標本Sからの光を集光し、該標本Sの像を形成する。対物レンズ系11は、後述の駆動部19により光軸に沿う方向に往復移動可能に構成されており、対物レンズ系11と標本Sとの光軸方向の相対位置を変化させることが可能になっている。   The objective lens system 11 collects the light from the sample S and forms an image of the sample S. The objective lens system 11 is configured to be reciprocally movable in a direction along the optical axis by a driving unit 19 described later, and the relative position in the optical axis direction between the objective lens system 11 and the sample S can be changed. ing.

瞳拡大レンズ系12は、対物レンズ系11の射出瞳を拡大してリレーする。   The pupil magnifying lens system 12 enlarges and relays the exit pupil of the objective lens system 11.

ビームスプリッタ13は、瞳拡大レンズ系12を透過した標本Sからの光を2つに分離し、一方をAF用光学系の構造化瞳14へと導き、他方を観察用光学系の第2の結像レンズ31へと導く。   The beam splitter 13 separates the light from the sample S that has passed through the pupil enlarging lens system 12 into two parts, leads one to the structured pupil 14 of the AF optical system, and the other to the second of the observation optical system. Guide to the imaging lens 31.

構造化瞳14は、対物レンズ系11の射出側において、対物レンズ系11の射出瞳位置と略共役な位置に設けられ、対物レンズ系11からの光束を遮蔽する板状部材14aと、板状部材14aに形成された複数の開口14hと、複数の開口14hに装着され所定の色成分の光束のみを透過させるフィルタ、例えば赤,緑,青のカラーフィルタ14r,14g,14bを有する。複数の開口14hは、対物レンズ系11の射出瞳の中心に対してそれぞれ偏心した位置に設けられている。   The structured pupil 14 is provided at a position substantially conjugate with the exit pupil position of the objective lens system 11 on the exit side of the objective lens system 11, a plate-like member 14 a that shields the light beam from the objective lens system 11, and a plate-like shape A plurality of openings 14h formed in the member 14a and filters that are attached to the plurality of openings 14h and transmit only light beams of a predetermined color component, for example, red, green, and blue color filters 14r, 14g, and 14b are provided. The plurality of openings 14 h are provided at positions that are decentered with respect to the center of the exit pupil of the objective lens system 11.

本実施形態では、フィルタとして以下全て赤,緑,青の3色を想定するが、2色以上であれば本手法を実現できる。また、各フィルタの透過波長領域は、第1の撮像素子16の測定可能帯域であればよく、特定の波長に限定されるわけではない。構造化瞳14の設置位置は、上記に限定されず、対物レンズ系11の瞳位置であってもよい。構造化瞳14の構成は、精度よく色成分ごとの画像を取得できるものであればよく、本実施形態に限定されるわけではない。但し、開口14hを大きくしすぎると、後述するように合焦の検出精度の低下を招くため、注意が必要である。構造化瞳14は、固定開口を予め配置してもよいし、空間光変調器などにより電気的に生成してもよい。   In the present embodiment, all three colors of red, green, and blue are assumed as filters below, but this method can be realized if there are two or more colors. Further, the transmission wavelength region of each filter may be a measurable band of the first image sensor 16 and is not limited to a specific wavelength. The installation position of the structured pupil 14 is not limited to the above, and may be the pupil position of the objective lens system 11. The structure of the structured pupil 14 is not limited to the present embodiment as long as it can acquire an image for each color component with high accuracy. However, if the opening 14h is too large, the focus detection accuracy will be lowered as will be described later, so care must be taken. The structured pupil 14 may be provided with a fixed aperture in advance, or may be electrically generated by a spatial light modulator or the like.

第1の結像レンズ系15は、構造化瞳14の各フィルタ14r,14g,14bを透過した光束を、第1の撮像素子16に結像させる。   The first imaging lens system 15 causes the first imaging element 16 to form an image of the light flux that has passed through the filters 14 r, 14 g, and 14 b of the structured pupil 14.

第1の撮像素子16は、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal-oxide Semiconductor)センサにより形成され、各フィルタ14r,14g,14bを透過した光束に対応する色(本実施形態では、赤,緑,青)の画像信号を生成し、生成した各色の画像信号を焦点位置検出部17に出力する。   The first image sensor 16 is formed by a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal-oxide Semiconductor) sensor, and corresponds to a color (in this embodiment, a light beam transmitted through each filter 14r, 14g, 14b. Red, green, and blue) image signals are generated, and the generated image signals of the respective colors are output to the focal position detection unit 17.

なお、顕微鏡の観察用光学系と、オートフォーカス装置のAF用光学系とは、構造化瞳14が設けられているか否かという点を除いて、全て同じ光学配置である。すなわち、現行のアクティブ方式のオートフォーカス装置のように、対物レンズ系11の倍率、収差特性および迷光等の影響を考慮したAF用光学系を別途設計・組み込む必要がない。よって、装置が複雑化、大型化せず、また製造コストの抑制にも繋がる。   It should be noted that the observation optical system of the microscope and the AF optical system of the autofocus device are all in the same optical arrangement except that the structured pupil 14 is provided. That is, unlike the current active autofocus device, it is not necessary to separately design and incorporate an AF optical system in consideration of the magnification, aberration characteristics, stray light, and the like of the objective lens system 11. Therefore, the apparatus does not become complicated and large, and the manufacturing cost is suppressed.

このような構成を有する本実施形態において、標本Sから射出された光は、対物レンズ系11および瞳拡大レンズ系12を通過し、ビームスプリッタ13で反射されて、構造化瞳14および第1の結像レンズ15を経て、第1の撮像素子16上に結像される一方、ビームスプリッタ13を透過して、第2の結像レンズ系31により、第2の撮像素子32上に結像される。   In the present embodiment having such a configuration, the light emitted from the specimen S passes through the objective lens system 11 and the pupil magnifying lens system 12, is reflected by the beam splitter 13, and the structured pupil 14 and the first pupil are reflected. The image is formed on the first image sensor 16 through the image forming lens 15, while passing through the beam splitter 13 and imaged on the second image sensor 32 by the second image forming lens system 31. The

そして、オートフォーカス装置は、第1の撮像素子16から取得した画像データを処理・解析し、対物レンズ系11の焦点位置を検出する焦点位置検出部17と、標本Sを載置するステージ18および対物レンズ系11の少なくとも一方を対物レンズ系11の光軸に沿って上下動させる駆動部19と、焦点位置検出部17による検出結果に基づいて駆動部19を駆動して標本Sに対する合焦制御を行う合焦制御部20とを有する。   Then, the autofocus device processes and analyzes the image data acquired from the first image sensor 16, detects the focal position of the objective lens system 11, a stage 18 on which the sample S is placed, Focusing control for the specimen S by driving the drive unit 19 based on the detection result by the focus position detection unit 17 and the drive unit 19 that moves at least one of the objective lens system 11 up and down along the optical axis of the objective lens system 11. And a focusing control unit 20 for performing

駆動部19としては、例えばピエゾアクチュエータや、ステッピングモータ等が利用される。本実施形態では、駆動部19により対物レンズ系11を光軸方向に移動させることにより標本Sとの相対位置を変化させるが、ステージ18を光軸方向に移動させたり、対物レンズ系11とステージ18の両方を光軸方向に移動させたりしてもよい。   For example, a piezo actuator or a stepping motor is used as the drive unit 19. In the present embodiment, the relative position with respect to the specimen S is changed by moving the objective lens system 11 in the optical axis direction by the drive unit 19. However, the stage 18 is moved in the optical axis direction, or the objective lens system 11 and the stage are moved. Both of them may be moved in the optical axis direction.

ここで、焦点位置検出部17の機能についてより詳しく説明する。焦点位置検出部17は、第1の撮像素子16から構造化瞳14の各フィルタ14r,14g,14bを透過して複数の異なる色成分(赤,緑,青)に分離された光束に基づく画像を取得し、これら複数の異なる色成分の光束に基づく画像の重なり具合から、対物レンズ系11の焦点位置を検出する。これは、以下に示す色ズレの原理を利用したものである。   Here, the function of the focal position detection unit 17 will be described in more detail. The focal position detection unit 17 transmits an image based on a light beam that is transmitted from the first image sensor 16 through the filters 14r, 14g, and 14b of the structured pupil 14 and separated into a plurality of different color components (red, green, and blue). And the focal position of the objective lens system 11 is detected from the overlapping state of the images based on the light fluxes of the plurality of different color components. This utilizes the principle of color misregistration described below.

例えば、インコヒーレント結像、もしくは限りなくこれに近い部分的コヒーレント結像においては、瞳は、標本から発せられた光線群のうち、どの光線を結像に寄与させるかを選択する役割を果たす。焦点ズレが起こっていない場合、瞳を通った全ての光線は、同じセンサ位置にたどり着く。この場合、瞳を通るどの位置の光線を選択しても、結像位置は変わらない(図2(a)参照)。一方で、焦点ズレが起こっている場合、瞳を通る光線の位置ごとに、光線がたどり着くセンサ位置が異なる。この場合、瞳のどの位置を通る光線を選択するかによって、結像位置が変化する(図2(b)参照)。すなわち、瞳の上側の光線群L1を選択すると、光軸より下側に像I1が形成され、瞳の下側の光線群L2を選択すると、光軸より上側に像I2が形成されることになる(これらの像は一般的に「視差画像」と呼ばれる)。このときのシフト量(光軸から結像位置までの距離)は、焦点ズレの大きさに依存する。なぜならば、焦点ズレが大きいと画像のボケも大きくなり、各視差画像の広がりが大きくなることを意味するからである。 For example, in incoherent imaging, or in partial coherent imaging that is almost as close as possible, the pupil plays a role in selecting which rays of the group of rays emitted from the specimen contribute to the imaging. If there is no focus shift, all rays through the pupil will reach the same sensor position. In this case, the position of image formation does not change regardless of the position of the light beam passing through the pupil (see FIG. 2A). On the other hand, when a focus shift occurs, the sensor position where the light beam reaches differs for each position of the light beam passing through the pupil. In this case, the imaging position changes depending on which position of the pupil is selected (see FIG. 2B). That is, when the light ray group L 1 above the pupil is selected, an image I 1 is formed below the optical axis, and when the light ray group L 2 below the pupil is selected, an image I 2 is formed above the optical axis. (These images are generally referred to as “parallax images”). The shift amount (distance from the optical axis to the imaging position) at this time depends on the magnitude of the focus shift. This is because if the focus shift is large, the blur of the image also increases, which means that the spread of each parallax image increases.

このような色ズレの原理から、AF用光学系を介して取得される標本Sの画像は、構造化瞳14に偏心配置された各カラーフィルタ14r,14g,14bの作用により、焦点ズレに応じて色成分ごとに画像の位置ずれ(色ズレ)を起こしている。例えば、図3(a)に示すように、構造化瞳14において、光の入射方向から見て、赤色のフィルタ14rが瞳の下側、緑色のフィルタ14gが瞳の右側、青色のフィルタ14bが瞳の右側に配置されている場合、(1)焦点が合っていれば、3つの色成分、赤色,緑色,青色の光束それぞれに基づく標本像R1,G1,B1は、第1の撮像素子16の撮像面の同じ位置に形成されるため、色ズレは起こらない(図3(b)参照)、(2)焦点位置が手前にズレていれば、赤色成分の光束に基づく標本像R2は上側、緑色成分の光束に基づく標本像G2は右側、青色成分に基づく画像B2は左側にそれぞれズレて観察される(図3(c)参照)、(3)焦点位置が後側にズレていれば、色ズレ方向が逆になる。そして、色ズレの大きさは、焦点ズレの大きさに依存する。 Based on the principle of such color shift, the image of the sample S acquired through the AF optical system corresponds to the focus shift by the action of the color filters 14r, 14g, and 14b arranged eccentrically on the structured pupil 14. Thus, image misregistration (color misregistration) occurs for each color component. For example, as shown in FIG. 3A, in the structured pupil 14, the red filter 14 r is below the pupil, the green filter 14 g is the right side of the pupil, and the blue filter 14 b is viewed from the light incident direction. When arranged on the right side of the pupil, (1) if in focus, the sample images R 1 , G 1 , and B 1 based on the three color components, red, green, and blue, respectively, Since it is formed at the same position on the image pickup surface of the image pickup device 16, no color shift occurs (see FIG. 3B). (2) If the focal position is shifted forward, the sample image based on the luminous flux of the red component R 2 is observed on the upper side, the sample image G 2 based on the light flux of the green component is observed on the right side, and the image B 2 based on the blue component is observed on the left side (see FIG. 3C). If it is shifted to the side, the color shift direction is reversed. The size of the color shift depends on the size of the focus shift.

このような色ズレの原理は、光学結像理論により、瞳関数と点像強度分布関数(PSF)とを用いて説明できる。以下、説明を容易にするため、AF用光学系は、インコヒーレント結像系であり、かつ合焦時において無収差光学系であると仮定する。   The principle of such color misregistration can be explained using a pupil function and a point spread function (PSF) by optical imaging theory. Hereinafter, for ease of explanation, it is assumed that the AF optical system is an incoherent imaging system and is an aberration optical system at the time of focusing.

光学結像理論によれば、AF用光学系の伝達関数をPSF(point spread function)としたとき、物体O(x,y)、像I(x,y)およびPSF(x,y)の三者の関係は、次式(1)で表される。   According to the optical imaging theory, when the transfer function of the AF optical system is PSF (point spread function), the object O (x, y), the image I (x, y), and the PSF (x, y) are three. The relationship between the persons is expressed by the following equation (1).

そして、AF用光学系の伝達関数を意味するPSF(x,y)は、点像振幅分布(amplitude spread function)をASF(x,y)とし、瞳から射出する光線の方向余弦を(ξ,η)とし、瞳関数をG(ξ,η)とし、瞳の振幅(開口)をA(ξ,η)とし、AF用光学系の収差を表す波面収差をW(ξ,η)としたとき、次式(2)で記述できる。   PSF (x, y), which means a transfer function of the AF optical system, has a point spread amplitude function as ASF (x, y), and the direction cosine of the light beam emitted from the pupil is (ξ, η), the pupil function is G (ξ, η), the pupil amplitude (aperture) is A (ξ, η), and the wavefront aberration representing the aberration of the AF optical system is W (ξ, η). Can be described by the following equation (2).

瞳の振幅A(ξ,η)は、瞳の開口数をa(<1)としたとき、次式(3)となる。   The pupil amplitude A (ξ, η) is expressed by the following equation (3) when the numerical aperture of the pupil is a (<1).

ここでまず、AF用光学系において、焦点ズレが生じていない場合を考える。本実施形態では、AF用光学系を無収差光学系として扱っているので、波面収差はW(ξ,η)=0となる。よって、点像振幅分布ASF(x,y)は、次式(4)で表せる。   First, let us consider a case where there is no focus shift in the AF optical system. In the present embodiment, since the AF optical system is handled as an aberration-free optical system, the wavefront aberration is W (ξ, η) = 0. Therefore, the point image amplitude distribution ASF (x, y) can be expressed by the following equation (4).

但し、Cは定数である。 However, C is a constant.

この状態から、瞳の開口位置がξおよびη方向に開口数sだけシフトした場合、新たな点像振幅分布ASFshift(x,y)は、次式(5)で表せる。 From this state, when the opening position of the pupil is shifted by the numerical aperture s in the ξ and η directions, a new point spread amplitude distribution ASF shift (x, y) can be expressed by the following equation (5).

よって、このときの点像強度分布PSFshift(x,y)は、次式(6)で表せる。 Therefore, the point image intensity distribution PSF shift (x, y) at this time can be expressed by the following equation (6).

すなわち、構造化瞳14において開口位置がシフトとしても、AF用光学系の伝達関数PSFが不変であることから、像形成に影響を及ぼさないことが分かる。   That is, it can be seen that even if the aperture position is shifted in the structured pupil 14, the transfer function PSF of the AF optical system is unchanged, so that it does not affect image formation.

次に、瞳の開口位置がξおよびη方向に開口数sだけシフトしている状態で、焦点ズレが生じた場合を考える。焦点ズレは、光学的には瞳に2次の波面収差W(ξ,η)=β(ξ2+η2)を付加することと等しい。但し、βは、焦点ズレの大きさを示す係数である。すると、点像振幅分布ASFshift(x,y)は、次式(7)で表せる。 Next, let us consider a case where a focus shift occurs in a state where the pupil aperture position is shifted by the numerical aperture s in the ξ and η directions. The defocus is optically equivalent to adding a second-order wavefront aberration W (ξ, η) = β (ξ 2 + η 2 ) to the pupil. Here, β is a coefficient indicating the magnitude of the focus shift. Then, the point image amplitude distribution ASF shift (x, y) can be expressed by the following equation (7).

ここで、瞳の開口数aが1に比べて十分に小さい場合を想定し、2次の項ξ2およびη2無視すると、式(7)は、次式(8)のように表せる。 Here, assuming that the numerical aperture a of the pupil is sufficiently smaller than 1, assuming that the secondary terms ξ 2 and η 2 are ignored, the equation (7) can be expressed as the following equation (8).

よって、このときの点像強度分布PSFshift(x,y)は、次式(9)と表せる。 Therefore, the point image intensity distribution PSF shift (x, y) at this time can be expressed by the following equation (9).

これは、AF用光学系の伝達関数PSFが、強度分布不変のまま、−2βsだけシフトしたことを意味する。よって、結像方程式に従えば、構造化瞳14を通って形成される像は、像自体は変わらず、結像位置だけが−2βsシフトすることになる。また、画像のシフト量は、焦点ズレの大きさβ、および瞳の開口位置のシフト量sに依存することが分かる。   This means that the transfer function PSF of the AF optical system is shifted by −2βs while the intensity distribution remains unchanged. Therefore, according to the imaging equation, the image formed through the structured pupil 14 is not changed, and only the imaging position is shifted by −2βs. It can also be seen that the image shift amount depends on the focus shift amount β and the pupil opening position shift amount s.

以上の色ズレの原理により、構造化瞳14の配置によって、ここを通って分離された各色成分の光束に基づく標本像が、焦点ズレ量に依存した色ズレを起こすことが分かる。   Based on the above principle of color misregistration, it can be seen that the sample image based on the luminous flux of each color component separated through the structured pupil 14 causes color misregistration depending on the focus misregistration amount.

なお、計算過程で無視した2次の項ξ2およびη2は、点像強度分布PSFの幅を広げる効果を持つ(すなわち、ボケを意味する)。よって、瞳の開口数aが大きく、これらの項が無視できない場合は、像のシフトとともにボケを生じさせる。これは、後述の焦点ズレの計算過程において、検出精度の低下を招くことになるので、瞳の開口数aの設定には注意が必要である。 Note that the second-order terms ξ 2 and η 2 ignored in the calculation process have the effect of widening the width of the point image intensity distribution PSF (that is, blur). Therefore, when the numerical aperture a of the pupil is large and these terms cannot be ignored, blurring occurs as the image shifts. This causes a reduction in detection accuracy in the process of calculating a focus shift, which will be described later, so care must be taken in setting the numerical aperture a of the pupil.

続いて、図4〜図6を参照しつつ、焦点位置検出部17による、焦点ズレ量およびズレ方向の算出方法について説明する。図4に示すように、第1の撮像素子16から取得した、赤,緑,青の各色成分の光束に基づく画像R3,G3,B3の中心(換言すると各色成分の光束の結像位置)をそれぞれIr,Ig,Ibとする。そして、仮想的な中央の視点を、リファレンス座標に取る。このリファレンス座標(x,y)における色ズレ量(視差)をd画素とすると、R(赤),G(緑),B(青)成分はそれぞれIr(x,y−d)、Ig(x+d,y)、Ib(x−d,y)と表現できる。次に、リファレンス座標(x,y)の周りに局所ウィンドウw(x,y)を考え、そこに含まれる画素色の集合を、次式(10)で表す。 Next, a calculation method of the focus shift amount and the shift direction by the focus position detection unit 17 will be described with reference to FIGS. 4 to 6. As shown in FIG. 4, the centers of images R 3 , G 3 , and B 3 based on the light fluxes of the respective color components of red, green, and blue acquired from the first image sensor 16 (in other words, the image formation of the light fluxes of the respective color components). (Position) is I r , I g , and I b , respectively. Then, a virtual central viewpoint is taken as a reference coordinate. When the amount of color misregistration (parallax) at the reference coordinates (x, y) is d pixels, the R (red), G (green), and B (blue) components are I r (x, y−d) and I g, respectively. It can be expressed as (x + d, y), I b (x−d, y). Next, a local window w (x, y) is considered around the reference coordinates (x, y), and a set of pixel colors included therein is expressed by the following equation (10).

この色集合の位置関係を、次式(11)で計算する。但し、λ0、λ1、λ2(λ0≧λ1≧λ2≧0)は、色集合S(x,y;d)の主成分軸に沿った分散(すなわちS(x,y;d)の共分散行列Σの固有値)であり、σr 2、σg 2、σb 2は色集合のR(赤)軸、G(緑)軸、B(青)軸のそれぞれに沿った分散である。 The positional relationship of this color set is calculated by the following equation (11). However, λ 0 , λ 1 , λ 20 ≧ λ 1 ≧ λ 2 ≧ 0) is a variance along the principal component axis of the color set S (x, y; d) (that is, S (x, y; d) eigenvalues of the covariance matrix Σ), and σ r 2 , σ g 2 , and σ b 2 are along the R (red) axis, G (green) axis, and B (blue) axis of the color set, respectively. Distributed.

固有値間の大小に差があるほど、式(11)すなわちL(x,y;d)の値は小さくなる。色集合が直線的な分布(λ0>>λ12)であれば、Lは0に近く、完全無相関のとき最大値L=1をとる。つまり、図5に示すように、色ズレがない場合はL=0であり(In-focus)、色ズレが大きくなるほどLの値が大きくなる(Defocus-1,Defocus-2)。しかしながら、Lは必ず正の値をとるため、対物レンズ系11の焦点ズレの方向が判定できない。そこで、図6に示す、以下の方法をとる。 The greater the difference between the eigenvalues, the smaller the expression (11), that is, the value of L (x, y; d). If the color set has a linear distribution (λ 0 >> λ 1 , λ 2 ), L is close to 0 and takes the maximum value L = 1 when completely uncorrelated. That is, as shown in FIG. 5, when there is no color misalignment, L = 0 (In-focus), and as the color misregistration increases, the value of L increases (Defocus-1, Defocus-2). However, since L always takes a positive value, the direction of focus shift of the objective lens system 11 cannot be determined. Therefore, the following method shown in FIG. 6 is taken.

まず、取得した局所ウィンドウw(x,y)内の赤,緑,青の各色成分の光束に基づく画像R,G,Bを、色ズレ方向に対して(R軸,G軸,B軸にそれぞれ沿って)±p画素だけシフトさせた画像を計算機内で用意し、これらに対応するLの値をL+、L-として算出する。焦点ズレが後側の場合は、−p画素だけシフトさせるとR,G,Bの各画像は互いに近づき、+p画素だけシフトさせるとR,G,Bの各画像は互いに遠ざかる、つまりL+ > L > L-という関係が成り立つ。焦点ズレが前側の場合は、−p画素だけシフトさせるとR,G,Bの各画像は互いに遠ざかり、+p画素だけシフトさせるとR,G,Bの各画像は互いに近づく、つまりL- > L > L+、という関係が成り立つ。このように、Lの値を算出して色ズレの有無を確認するのに加えて、L+ とL- の値を算出してこれらの大小関係を同時に確認すれば、焦点ズレの方向(前側か、後側か)も判定することができる。 First, images R 4 , G 4 , and B 4 based on the luminous fluxes of the red, green, and blue color components in the acquired local window w (x, y) are displayed in the direction of color shift (R axis, G axis, Images shifted by ± p pixels (along the B axis) are prepared in the computer, and the values of L corresponding to these are calculated as L + and L . When the focus shift is on the rear side, the images R 4 , G 4 , and B 4 approach each other when shifted by −p pixels, and the images R 4 , G 4 , and B 4 move toward each other when shifted by + p pixels. away, in other words L +> L> L - holds relationship. When the focus shift is on the front side, the R 4 , G 4 , and B 4 images move away from each other when shifted by −p pixels, and the R 4 , G 4 , and B 4 images approach each other when shifted by + p pixels. That is, the relationship L >L> L + holds. In this way, in addition to calculating the value of L and confirming the presence or absence of color misregistration, calculating the values of L + and L and confirming the magnitude relationship at the same time, the direction of focus misalignment (front side) Or the rear side).

なお、pの値として、最小視差量である1画素が適切だと考えられるが、特定の値に限定されるわけではない。また、Lの計算は、標本像の構造を所与とするため、画像が大きくボケてその構造が不明瞭になると、同時に測定精度も低下する可能性が高い。よって、構造化瞳14の開口サイズには十分に注意する。   Note that, as the value of p, one pixel, which is the minimum amount of parallax, is considered appropriate, but it is not limited to a specific value. In addition, since the calculation of L gives the structure of the sample image, if the image is greatly blurred and the structure becomes unclear, there is a high possibility that the measurement accuracy will also decrease at the same time. Therefore, pay sufficient attention to the opening size of the structured pupil 14.

続いて、焦点位置検出部17により算出される、焦点ズレの測定分解能(奥行き分解能)Δzについて説明する。焦点ズレの測定分解能Δzは、薄肉レンズを想定した近軸近似幾何光学により見積もると、次式(12)で表すことができる。   Subsequently, the measurement resolution (depth resolution) Δz of the focus shift calculated by the focus position detection unit 17 will be described. The focus shift measurement resolution Δz can be expressed by the following equation (12) when estimated by paraxial approximate geometric optics assuming a thin lens.

ここで、Dは構造化瞳14の各フィルタ14r,14g,14bの瞳中心位置の相対距離間隔、fobjは対物レンズ系11の焦点距離、Fobjは対物レンズ系11のFナンバー、γは瞳拡大レンズ系12による外部繰り出し瞳の拡大倍率、f3は第1の結像レンズ系15の焦点距離、psは第1の撮像素子16のピクセルサイズである。 Here, D is the relative distance between the pupil center positions of the filters 14r, 14g, and 14b of the structured pupil 14, f obj is the focal length of the objective lens system 11, F obj is the F number of the objective lens system 11, and γ is The magnification of the external extension pupil by the pupil magnifying lens system 12, f 3 is the focal length of the first imaging lens system 15, and ps is the pixel size of the first image sensor 16.

すなわち、分解能を向上させたい場合は、構造化瞳14の各フィルタの瞳中心位置の相対距離間隔Dを大きくするか、ピクセルサイズps、対物レンズ系11の焦点距離fobj、対物レンズ系11のFナンバーFobjなどを小さくするように設計すればよい。 That is, when it is desired to improve the resolution, the relative distance interval D between the pupil center positions of each filter of the structured pupil 14 is increased, or the pixel size ps, the focal length f obj of the objective lens system 11, and the objective lens system 11 What is necessary is just to design so that F number Fobj etc. may be made small.

参考として、fobj=20mm、Fobj=1.5、γ=5、f3=200mm、ps=4.5μm、D=30mmという条件では、Δz=0.3μmという分解能を達成できる。 For reference, a resolution of Δz = 0.3 μm can be achieved under the conditions of f obj = 20 mm, F obj = 1.5, γ = 5, f 3 = 200 mm, ps = 4.5 μm, and D = 30 mm.

図7に、オートフォーカス装置における、焦点位置検出部17による焦点ズレの測定から、合焦制御部20による対物レンズ系11と標本Sとを相対移動させて焦点位置を補正するまでの一連の処理過程を示す。ここでは、現行のAFと同じ、リアルタイムフィードバックを行っている。   FIG. 7 shows a series of processes from the measurement of the focus shift by the focus position detection unit 17 to the correction of the focus position by relatively moving the objective lens system 11 and the sample S by the focus control unit 20 in the autofocus device. Show the process. Here, the same real-time feedback is performed as in the current AF.

まず、画像全体を複数のウィンドウに分割し、各ウィンドウごとにLを計算する。このうち、Lの値が最小値を取るウィンドウを初期ピント位置と決定する。以下の処理では、このウィンドウ箇所のみ、Lの計算対象とする。焦点位置検出部17は、第1の撮像素子16から1フレームごとに、R(赤)成分,G(緑)成分,B(青)成分の画像をそれぞれ取得する(ステップST1)。   First, the entire image is divided into a plurality of windows, and L is calculated for each window. Among these, the window in which the value of L takes the minimum value is determined as the initial focus position. In the following processing, only this window portion is set as an L calculation target. The focal position detection unit 17 acquires R (red) component, G (green) component, and B (blue) component images for each frame from the first image sensor 16 (step ST1).

次に、焦点位置検出部17は、上述の色ズレ量の算出方法に基づきL-,L,L+の値をそれぞれ計算し(図6参照)、焦点のズレ量およびズレ方向を判定する(ステップST2)。 Next, the focal position detection unit 17 calculates the values of L , L, and L + based on the above-described color deviation amount calculation method (see FIG. 6), and determines the focal deviation amount and the deviation direction (see FIG. 6). Step ST2).

なお、ステップST2において、画像の取込みおよびズレ量の計算は、(外部処理ではなく)オートフォーカス装置に設けられたハードウェアにより直接実行させる。撮像した画像を一旦パソコンに取込み、パソコン内で計算させるという手法も考えられるが、処理・通信速度の点から好ましくないからである。   Note that in step ST2, the image capture and the shift amount calculation are directly executed by hardware (not external processing) provided in the autofocus device. Although a method of taking a captured image once in a personal computer and calculating it in the personal computer is also conceivable, it is not preferable from the viewpoint of processing and communication speed.

そして、焦点位置検出部17は、Lの値が目標値であるゼロであるか否かを判定する(ステップST3)。ここで、Lの値がゼロである場合、つまり合焦状態である場合は、ステップST1に戻る。一方、Lの値がゼロではない場合、つまり焦点ズレが発生している場合は、ステップST4に進む。   Then, the focal position detection unit 17 determines whether or not the value of L is a target value of zero (step ST3). Here, when the value of L is zero, that is, in the in-focus state, the process returns to step ST1. On the other hand, if the value of L is not zero, that is, if a focus shift has occurred, the process proceeds to step ST4.

合焦制御部20は、焦点位置検出部17により検出された焦点ズレ量およびズレ方向から、補正値(駆動部19への付加電圧値)を導出する(ステップST4)。   The focus control unit 20 derives a correction value (additional voltage value to the drive unit 19) from the focus shift amount and the shift direction detected by the focus position detection unit 17 (step ST4).

本実施形態では、対物レンズ系11を駆動部19により光軸方向に微動させて、焦点ズレの補正を行う。駆動部19への付加電圧量と、対物レンズ系11の移動量との関係は、予めキャリブレーションしておく。この関係をもとに、合焦制御部20は、焦点ズレ量を、補正値(駆動部19への付加電圧値)に換算する。   In this embodiment, the objective lens system 11 is finely moved in the optical axis direction by the drive unit 19 to correct the focus shift. The relationship between the amount of additional voltage applied to the drive unit 19 and the amount of movement of the objective lens system 11 is calibrated in advance. Based on this relationship, the focus control unit 20 converts the focus shift amount into a correction value (additional voltage value to the drive unit 19).

最後に、補正値(付加電圧値)に基づき駆動部19を駆動して、対物レンズ系11を微動させ、焦点ズレを補正する(ステップST5)。   Finally, the drive unit 19 is driven based on the correction value (additional voltage value) to finely move the objective lens system 11 to correct the focus shift (step ST5).

このようなフィードバックプロセスを常時行うことで、リアルタイムオートフォーカス制御を実現している。   Real-time autofocus control is realized by always performing such a feedback process.

本実施形態では、「画像取得」、「焦点ズレ量計算」、「補正値換算」というプロセスを経るので、実質上のオートフォーカス(AF)応答速度を決めるのは、ハードウェアによる焦点ズレ量の計算処理速度、および、その範囲で許容されるセンサの最高フレームレート(一連の画像を取得可能である速度)ということになる。ここで、ハードウェアによる計算速度の見積もりとして、FPGAデバイスを用いてほぼ同様の計算処理をするリアルタイムステレオカメラ開発の研究分野を参考にすると、解像度640×480pixの画像で、フレームレート約270fpsという、高速度でのリアルタイム処理が可能である。よって、本実施形態でのAF応答速度としては、およそ数10msオーダーという高速度が見込め、これは現行のAF応答速度と比較しても十分であると言える。   In the present embodiment, since processes such as “image acquisition”, “focus shift amount calculation”, and “correction value conversion” are performed, the actual autofocus (AF) response speed is determined by the focus shift amount by hardware. That is, the calculation processing speed and the maximum frame rate of the sensor allowed in the range (speed at which a series of images can be acquired). Here, as an estimation of the calculation speed by hardware, referring to the research field of real-time stereo camera development that performs almost the same calculation processing using an FPGA device, an image with a resolution of 640 × 480 pixels and a frame rate of about 270 fps is obtained. Real-time processing at high speed is possible. Therefore, as the AF response speed in this embodiment, a high speed of the order of several tens of ms can be expected, which can be said to be sufficient even when compared with the current AF response speed.

第1の実施形態(図1参照)と同様の効果を実現させる別の形態として、観察用光学系とAF用光学系とを分けずに、同一の光学系で目的を実現しうる形態も考えられる。図8(a)に、その光学系の構成図を示す。この実施形態では、AF用光学系がない点、構造化瞳の真上に透過型の液晶表示素子LCD(Liquid Crystral Display)が配置されている点、構造化瞳の形状が変わっている点が、図1に示す形態と異なる。以下、図1の形態と同一の部材についてはそれと同じ番号を付し、その説明は省略する。   As another form for realizing the same effect as that of the first embodiment (see FIG. 1), a form in which the object can be realized by the same optical system without dividing the observation optical system and the AF optical system is also considered. It is done. FIG. 8A shows a configuration diagram of the optical system. In this embodiment, there is no AF optical system, a transmissive liquid crystal display element LCD (Liquid Crystal Display) is disposed immediately above the structured pupil, and the shape of the structured pupil is changed. This is different from the configuration shown in FIG. Hereinafter, the same members as those in the embodiment of FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.

構造化瞳14´は、板状部材14a´がドーナツ型であり、リングの部分に複数の開口14h´が形成され、各開口14h´にはそれぞれファイル14r,14b,14gが装着される。   In the structured pupil 14 ', the plate-like member 14a' has a donut shape, a plurality of openings 14h 'are formed in the ring portion, and files 14r, 14b, and 14g are attached to the respective openings 14h'.

透過型の液晶表示素子LCDには、2つの透過マスクパターンを付加する。ここでは、円形の開口部21を有する第1のマスクパターン(図8(b)の左図参照)と、図8(c)に示す輪帯状の開口部22を有する第2のマスクパターン(図8(c)の左図参照)を付加する。   Two transmissive mask patterns are added to the transmissive liquid crystal display element LCD. Here, a first mask pattern having a circular opening 21 (see the left figure in FIG. 8B) and a second mask pattern having a ring-shaped opening 22 shown in FIG. 8 (c), see the left figure).

なお、第1のマスクパターンの開口部21の大きさは、構造化瞳14´の開口部の大きさとほぼ等しい。よって、構造化瞳14´と第1のマスクパターンを組み合わせると、第2の撮像素子32の撮像面には、第2の結像レンズ系31により、瞳拡大レンズ系12を介した対物レンズ系11を透過した光束がそのまま結像される。また、第2のマスクパターンの開口部22の幅は、構造化瞳14´のリング部分の幅とほぼ等しい。よって、構造化瞳14´と第2のマスクパターンを組み合わせると、第2の撮像素子32の撮像面には、第2の結像レンズ系31により、構造化瞳14の各フィルタを透過した所定の色成分の光束のみが結像される。   Note that the size of the opening 21 of the first mask pattern is substantially equal to the size of the opening of the structured pupil 14 '. Therefore, when the structured pupil 14 ′ and the first mask pattern are combined, the objective lens system via the pupil magnifying lens system 12 is provided on the imaging surface of the second imaging element 32 by the second imaging lens system 31. 11 is directly imaged. Further, the width of the opening 22 of the second mask pattern is substantially equal to the width of the ring portion of the structured pupil 14 '. Therefore, when the structured pupil 14 ′ and the second mask pattern are combined, the second imaging lens system 31 passes through each filter of the structured pupil 14 to the imaging surface of the second imaging element 32. Only the luminous flux of the color component is imaged.

よって、標本Sを撮影するときは、液晶表示素子LCDに図8(b)の第1のマスクパターンを付加する。結果として、図1の観察用光学系と同じ構成になり、純然たる標本Sの像を取得できる(通常モード)。一方、焦点ズレの検出を行うときは、液晶表示素子LCDに図8(c)の第2のマスクパターンを付加する。結果として、図1のAF用光学系と同じ構成になり、焦点ズレに関する情報を取得できる(AFモード)。   Therefore, when the specimen S is photographed, the first mask pattern shown in FIG. 8B is added to the liquid crystal display element LCD. As a result, the configuration is the same as that of the observation optical system in FIG. 1, and a pure image of the specimen S can be acquired (normal mode). On the other hand, when detecting the focus shift, the second mask pattern shown in FIG. 8C is added to the liquid crystal display element LCD. As a result, the configuration is the same as that of the AF optical system in FIG. 1, and information regarding the focus shift can be acquired (AF mode).

液晶表示素子LCDのマスクパターンの切り替えと、第2の撮像素子32による画像取得のタイミングを同期させる。すなわち、液晶表示素子LCDの通常モードとAFモードを、第2の撮像素子32のフレームレートに対応させて、交互に切り替える。すなわち、サンプル像と焦点ズレ情報を交互に取得する。   The switching of the mask pattern of the liquid crystal display element LCD and the timing of image acquisition by the second image sensor 32 are synchronized. That is, the normal mode and the AF mode of the liquid crystal display element LCD are alternately switched in accordance with the frame rate of the second image sensor 32. That is, the sample image and the focus shift information are obtained alternately.

この手法では、標本Sの像のフレームレートが半減する、光学解像力が低下する、液晶表示素子LCDのピッチ構造による回折現象が起こる、などのデメリットがあるが、AF用光学系を別途用意する必要が全くないことから、小型化・低コスト化が図れるというメリットがある。また、回折現象が問題となる場合は、図9に示すように、従来のピクセル構造ではなく、ドーナツ形状である(変調部がリング型である)液晶表示素子を別途作成・使用すれば解決できる。   This method has disadvantages such as halving the frame rate of the image of the specimen S, reducing the optical resolving power, and causing a diffraction phenomenon due to the pitch structure of the liquid crystal display element LCD, but it is necessary to prepare an AF optical system separately. There is no merit in that there is a merit that the size and cost can be reduced. Further, when the diffraction phenomenon becomes a problem, as shown in FIG. 9, it can be solved by separately creating and using a liquid crystal display element having a donut shape (modulation portion is a ring type) instead of a conventional pixel structure. .

ここに、改めて第1の実施形態のメリットをまとめると、(1)観察用光学系から独立した、AF用光学系を別途設計・組込をする必要がない、(2)焦点ズレを色成分が異なる標本像の重なり具合から読み取るので、何らかの理由により光学系のアライメントが変動した場合でも検出精度への影響が少なく、安定した合焦検出が行える、(3)極めて単純な処理で、かつ高速なオートフォーカス装置を実現することができる。   The advantages of the first embodiment are summarized here. (1) It is not necessary to separately design and incorporate an AF optical system that is independent from the observation optical system. (2) Focus deviation is a color component. Is read from the overlapping state of different specimen images, so even if the alignment of the optical system fluctuates for some reason, it has little effect on detection accuracy, and stable focus detection can be performed. (3) Extremely simple processing and high speed A simple autofocus device can be realized.

(第2の実施形態)
図10は、第2の実施形態に係るオートフォーカス装置が組み込まれる顕微鏡の構成例を示す。図10では、説明を簡単にするため、AF用光学系のみを図示し、標本Sを撮影するための観察用光学系は省略している。以下、第1の実施形態と同一の部材についてはそれと同じ番号を付し、その説明は省略する。
(Second Embodiment)
FIG. 10 shows a configuration example of a microscope in which the autofocus device according to the second embodiment is incorporated. In FIG. 10, only the optical system for AF is shown for simplicity of explanation, and the optical system for observation for photographing the specimen S is omitted. Hereinafter, the same members as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

第2の実施形態では、オートフォーカス装置として、アクティブ方式を採用する。本方式では、AF用の光学パターンを標本面に投影し、その反射光をオートフォーカスの指標として用いる。この方式では、標本面の傾き(以下、チルト)情報も加えた、視野域全体の焦点ズレが検出できる点がメリットである。   In the second embodiment, an active method is adopted as the autofocus device. In this method, an optical pattern for AF is projected onto the sample surface, and the reflected light is used as an autofocus index. This method is advantageous in that it can detect a focus shift of the entire field of view, including information on the tilt (hereinafter referred to as tilt) of the specimen surface.

第2の実施形態に係るオートフォーカス装置は、ケーラー照明系40と、標本側から光軸に沿って順に並んだ、対物レンズ系11、ビームスプリッタ13、瞳拡大レンズ系12、構造化瞳14および第1の結像レンズ系15からなるAF用光学系と、第1の撮像素子16とを有する。   The autofocus device according to the second embodiment includes a Koehler illumination system 40, an objective lens system 11, a beam splitter 13, a pupil magnifying lens system 12, a structured pupil 14, and a structured pupil 14 arranged in order along the optical axis from the sample side. An AF optical system including the first imaging lens system 15 and a first image sensor 16 are included.

ケーラー照明系40は、波長幅を有する光を射出するAF用光源(白色光源)41と、コンデンサレンズ41と、光を透過する領域を有するパターンが所定の方向に沿って繰り返し形成された投影マスク43と、(対物レンズ系11、ビームスプリッタ13を含む)リレーレンズ系44とを有する。なお、投影マスク43は、予め固定開口を配置してもよいし、空間光変調器などにより電気的に生成してもよい。   The Kohler illumination system 40 includes an AF light source (white light source) 41 that emits light having a wavelength width, a condenser lens 41, and a projection mask in which a pattern having a light transmitting region is repeatedly formed along a predetermined direction. 43 and a relay lens system 44 (including the objective lens system 11 and the beam splitter 13). The projection mask 43 may be provided with a fixed opening in advance, or may be electrically generated by a spatial light modulator or the like.

第2の実施形態では、まず、コンデンサレンズ42を介してAF用光源41から射出された光によって照明された投影マスク43のパターンの像を、リレーレンズ系44を介して標本Sに投影する。ここでは、例えば図10に示すような、視野全体に均等に丸型構造が投影されるパターンを有する投影マスク43を想定する。   In the second embodiment, first, an image of the pattern of the projection mask 43 illuminated by the light emitted from the AF light source 41 via the condenser lens 42 is projected onto the specimen S via the relay lens system 44. Here, for example, a projection mask 43 having a pattern in which a round structure is projected uniformly over the entire field of view as shown in FIG. 10 is assumed.

標本面で反射されたパターン像は、ビームスプリッタ13で反射され、AF用光学系に向かう。その後の光学構成および構造化瞳の形状については、第1の実施形態に準じる。第1の撮像素子16で撮影された画像は、対物レンズ系11の焦点ズレ量に応じた色ズレを起こす。但し、第1の実施形態とは異なり、図11に示すような、撮像面上での形成位置が異なる各パターン像S1,S2,・・・Sn-1,Snのそれぞれにおいて色ズレ量を検出すれば、標本面の傾き情報も含む視野域全体の焦点ズレ情報を得ることができる。 The pattern image reflected by the sample surface is reflected by the beam splitter 13 and travels to the AF optical system. The subsequent optical configuration and the shape of the structured pupil conform to the first embodiment. The image captured by the first image sensor 16 causes a color shift corresponding to the focus shift amount of the objective lens system 11. However, unlike the first embodiment, as shown in FIG. 11, the color at each formation position on the imaging surface is different from the pattern image S 1, S 2, ··· S n-1, S n If the amount of deviation is detected, it is possible to obtain focus deviation information for the entire visual field area including information on the inclination of the sample surface.

本実施形態において、焦点ズレ量およびズレ方向の算出方法およびフィードバック制御の処理過程は、上述の第1の実施形態と同様である。但し、標本面のチルト情報を推定するために、以下の計算処理を追加する(図11参照)。   In the present embodiment, the method of calculating the focus shift amount and the shift direction and the process of feedback control are the same as those in the first embodiment described above. However, the following calculation processing is added in order to estimate the tilt information of the sample surface (see FIG. 11).

まず、撮像面に投影されたパターンの位置を基準として、焦点ズレ量Lの数値マップ(行列)を準備する。これを平面と仮定し、この行列を1次元ベクトルに再配列したものをMと表記する。ここで、x方向の傾き、y方向の傾き、およびz方向(光軸方向)の焦点ズレを表現する基底平面行列を準備し、これを1次元ベクトルに再配列したものをX、YおよびZと表記する。また、これらにかかる係数をそれぞれax,ayおよびazと表記する。最小二乗法により係数ax,ayおよびazをMに対してフィッテングすることで、標本面のチルト情報を推定することができる。具体的には、次式(13)から求める。 First, a numerical map (matrix) of the focus shift amount L is prepared with reference to the position of the pattern projected on the imaging surface. This is assumed to be a plane, and this matrix is rearranged into a one-dimensional vector and denoted as M. Here, X, Y, and Z are prepared by preparing a base plane matrix that expresses an inclination in the x direction, an inclination in the y direction, and a focus shift in the z direction (optical axis direction), and rearranges the matrix into a one-dimensional vector. Is written. In addition, the coefficients related to these are expressed as a x , a y and a z , respectively. By fitting the coefficients a x , a y, and a z with respect to M by the least square method, it is possible to estimate the tilt information of the sample surface. Specifically, it is obtained from the following equation (13).

また、A+は、Aの疑似逆行列である。 A + is a pseudo inverse matrix of A.

得られた係数ax,ayおよびazに基づき、各軸方向への補正量に換算し、これをフィードバック指標とする。 Based on the obtained coefficients a x , a y, and a z, they are converted into correction amounts in the respective axial directions, and this is used as a feedback index.

なお、3次元の焦点ズレの補正機構としては、例えば図12に示すように、サンプルステージ51の下部に3つのピエゾステージ52,53,54を取り付けて行う。x軸方向の平面ズレはピエゾステージ52,53を同時に動かすことで補正する。y軸方向の平面ずれはピエゾステージ53,54を同時に動かすことで補正する。そして、z軸方向の焦点ズレは全てのピエゾステージ52,53,54を同時に動かすことで補正する。   As a three-dimensional focus shift correction mechanism, for example, as shown in FIG. 12, three piezo stages 52, 53, and 54 are attached to the lower part of the sample stage 51. The plane deviation in the x-axis direction is corrected by moving the piezo stages 52 and 53 simultaneously. The plane deviation in the y-axis direction is corrected by moving the piezo stages 53 and 54 simultaneously. The defocus in the z-axis direction is corrected by moving all the piezo stages 52, 53, and 54 simultaneously.

ここに、第2の実施形態のメリットをまとめると、(1)焦点ズレを、色成分が異なる標本像の重なり具合から読み取るので、何らかの理由により光学系のアライメントが変動した場合でも検出精度への影響が少なく、安定した合焦検出が行える、(2)極めて単純、かつ高速な処理で、焦点ズレ情報を集めることができるとともに、標本面のチルト情報も加えて、視野域全体の焦点ズレおよびその補正を実現できる。   Here, the advantages of the second embodiment are summarized as follows: (1) Since the focus shift is read from the overlapping state of the sample images having different color components, even if the alignment of the optical system fluctuates for some reason, the detection accuracy is improved. (2) The focus shift information can be collected by extremely simple and high-speed processing, and the tilt information of the sample surface is added, and the focus shift and The correction can be realized.

ここまで本発明を分かりやすくするために、実施形態の構成要件を付して説明したが、本発明がこれに限定されるものではないことは言うまでもない。   In order to make the present invention easy to understand, the configuration requirements of the embodiment have been described, but it goes without saying that the present invention is not limited to this.

11 対物レンズ系
14 構造化瞳
14a 板状部材
14h 構造化瞳の開口
14r,14b,14g フィルタ
15 第1の結像レンズ系(AF用光学系)
16 第1の撮像素子(AF用光学系)
17 焦点位置検出部
18 ステージ
19 駆動部
20 合焦制御部
31 第2の結像レンズ系(観察用光学系)
32 第2の撮像素子(観察用光学系)
S 標本
DESCRIPTION OF SYMBOLS 11 Objective lens system 14 Structured pupil 14a Plate-shaped member 14h Structured pupil aperture 14r, 14b, 14g Filter 15 First imaging lens system (AF optical system)
16 First image sensor (AF optical system)
17 focus position detection unit 18 stage 19 drive unit 20 focusing control unit 31 second imaging lens system (observation optical system)
32 Second image sensor (observation optical system)
S specimen

Claims (13)

標本からの光束を集光する対物レンズ系と、
前記対物レンズ系の射出側において、前記対物レンズ系の射出瞳位置もしくは前記瞳位置と略共役な位置に設けられ、前記対物レンズ系からの光束を遮蔽する板状部材と、前記板状部材に形成された複数の開口と、前記複数の開口に装着され所定の色成分の光束のみを透過させるフィルタとを有する構造化瞳と、
前記構造化瞳の各フィルタを透過した光束を撮像素子に結像させる結像レンズ系と、
前記撮像素子から取得した画像データを処理・解析し、前記対物レンズ系の焦点位置を検出する焦点位置検出部とを有し、
前記焦点位置検出部は、前記撮像素子から前記構造化瞳の各フィルタを透過して複数の異なる色成分に分離された光束に基づく画像を取得し、これら複数の異なる色成分の光束に基づく画像の重なり具合から、前記対物レンズ系の焦点位置を検出することを特徴とするオートフォーカス装置。
An objective lens system that collects the luminous flux from the specimen;
On the exit side of the objective lens system, a plate-like member that is provided at an exit pupil position of the objective lens system or a position substantially conjugate with the pupil position, and shields the light beam from the objective lens system; and A structured pupil having a plurality of formed openings and a filter that is attached to the plurality of openings and transmits only a light beam of a predetermined color component;
An imaging lens system that forms an image on the imaging device with a light beam transmitted through each filter of the structured pupil,
Processing and analyzing image data acquired from the image sensor, and having a focal position detection unit that detects a focal position of the objective lens system;
The focal position detection unit acquires an image based on a light beam that has been transmitted from the image sensor through each filter of the structured pupil and separated into a plurality of different color components, and an image based on the light beams of the plurality of different color components. An autofocus device that detects a focal position of the objective lens system from the degree of overlap of the objective lens system.
前記複数の開口は、前記対物レンズ系の射出瞳の中心に対して偏心した位置に形成されていることを特徴とする請求項1に記載のオートフォーカス装置。   2. The autofocus device according to claim 1, wherein the plurality of apertures are formed at positions decentered with respect to a center of an exit pupil of the objective lens system. 前記焦点位置検出部は、前記構造化瞳の各フィルタを透過した複数の異なる色成分に分離された光束に基づく画像が全て重なったとき、前記対物レンズ系が合焦位置にあると判定することを特徴とする請求項1または2に記載のオートフォーカス装置。   The focus position detection unit determines that the objective lens system is in a focus position when images based on light beams separated into a plurality of different color components transmitted through the filters of the structured pupil all overlap. The autofocus device according to claim 1 or 2. 前記フィルタは、赤色の光束のみを透過させるフィルタ、緑色の光束のみを透過させるフィルタと、青色の光束のみを透過させるフィルタであることを特徴とする請求項1〜3のいずれかに記載のオートフォーカス装置。   The auto filter according to any one of claims 1 to 3, wherein the filter is a filter that transmits only a red light beam, a filter that transmits only a green light beam, and a filter that transmits only a blue light beam. Focus device. 前記焦点位置検出部は、前記撮像素子により取得された前記画像の一部分である局所ウィンドウにおいて、そこに含まれる画素色の集合の位置関係を利用して、焦点ズレの有無およびその方向を判定することを特徴とする請求項1〜4のいずれか一項に記載のオートフォーカス装置。   The focal position detection unit determines the presence and direction of a focal shift using a positional relationship of a set of pixel colors included in a local window that is a part of the image acquired by the imaging device. The autofocus device according to any one of claims 1 to 4, wherein 前記焦点位置検出部は、前記局所ウィンドウに含まれる前記画素色の集合において、線形性が存在するときは焦点ズレ無しと判定し、線形性が存在しないときは焦点ズレ有りと判定することを特徴とする請求項5に記載のオートフォーカス装置。   The focus position detection unit determines that there is no focus shift when linearity exists in the set of pixel colors included in the local window, and determines that there is focus shift when linearity does not exist. The autofocus device according to claim 5. 前記焦点位置検出部は、前記局所ウィンドウに含まれる画素色の集合の線形性を測る指標をLとしたとき、所定の計算式を用いてLの値を算出し、L<αであれば線形性が存在し焦点ズレ無しと判定し、L≧αであれば線形性が存在せず焦点ズレ有りと判定することを特徴とする請求項8に記載のオートフォーカス装置(但し、αは限りなく0に近い値とする)。   The focal position detection unit calculates a value of L using a predetermined calculation formula where L is an index for measuring the linearity of a set of pixel colors included in the local window. 9. The autofocus device according to claim 8, wherein it is determined that there is a focus shift and there is no focus shift, and if L ≧ α, there is no linearity and it is determined that there is a focus shift (where α is not limited) Value close to 0). 前記焦点位置検出部は、前記局所ウィンドウに含まれる画素色の集合の線形性を測る指標をLとし、前記局所ウィンドウにおいて各色成分の光束に基づく画像を色ズレ方向に対して+p画素だけシフトさせたと仮定したときの画素色の集合の線形性を測る指標をL+とし、前記局所ウィンドウにおいて各色成分の光束に基づく画像を色ズレ方向に対して−p画素だけシフトさせたと仮定したときの画素色の集合の線形性を測る指標をL-としたとき、前記所定の計算式を用いてL,L+,L-の値をそれぞれ算出し、L+>L>L-という関係が成り立つときは焦点ズレの方向が後側(前記被検物側)であると判定し、L->L>L+という関係が成り立つときは焦点ズレの方向が前側(前記対物レンズ系側)であると判定することを特徴とする請求項5または6に記載のオートフォーカス装置。 The focal position detection unit shifts an image based on the light flux of each color component in the local window by + p pixels with respect to the direction of color shift in the local window, where L is an index for measuring the linearity of a set of pixel colors included in the local window. An index for measuring the linearity of a set of pixel colors is assumed to be L +, and a pixel when it is assumed that an image based on the luminous flux of each color component is shifted by −p pixels in the color shift direction in the local window. when a, L by using the predetermined formula, L +, L - - a measure of linearity of the color set of L values to the respectively calculated, L +> L> L - when the relationship is established that determines that the later direction of defocus side (the subject side), L -> L> when L + is the direction of defocus when the relation holds that is the front side (the objective lens system side) It is characterized by judging The autofocus device according to claim 5 or 6. 前記所定の計算式は、次式で表されることを特徴とする請求項7または8に記載のオートフォーカス装置。
L=λ0λ1λ2/σr 2σg 2σb 2
但し、
L:前記局所ウィンドウに含まれる画素色の集合の線形性を測る指標、
λ0,λ1,λ2(λ0≧λ1≧λ2≧0):前記局所ウィンドウに含まれる画素色の集合の主成分軸に沿った分散、
σr 2,σg 2,σb 2:前記色の集合のR軸、G軸、B軸のそれぞれに沿った分散。
9. The autofocus device according to claim 7, wherein the predetermined calculation formula is represented by the following formula.
L = λ 0 λ 1 λ 2 / σ r 2 σ g 2 σ b 2
However,
L: an index for measuring the linearity of a set of pixel colors included in the local window;
λ 0 , λ 1 , λ 20 ≧ λ 1 ≧ λ 2 ≧ 0): dispersion along the principal component axis of a set of pixel colors included in the local window,
σ r 2 , σ g 2 , σ b 2 : dispersion along the R axis, G axis, and B axis of the set of colors.
前記対物レンズ系の射出瞳を拡大してリレーする瞳拡大レンズ系を有し、
前記構造化瞳は、前記瞳投影レンズ系により拡大してリレーされた前記対物レンズ系の射出瞳と略共役な位置に設けられていることを特徴とする請求項1〜9のいずれか一項に記載のオートフォーカス装置。
A pupil magnifying lens system for enlarging and relaying the exit pupil of the objective lens system;
10. The structured pupil is provided at a position substantially conjugate with an exit pupil of the objective lens system enlarged and relayed by the pupil projection lens system. The autofocus device described in 1.
波長幅を有する光を射出する光源と、光を透過する領域を有するパターンが所定の方向に沿って繰り返し形成された投影マスクとを有し、前記光源から射出された光によって照明された前記投影マスクのパターンの像を、前記対物レンズ系を介して前記標本面に投影するケーラー照明系を有し、
前記焦点位置検出部は、前記標本面に投影されたパターンの位置ごとに、前記構造化瞳の各フィルタを透過して複数の異なる色成分に分離された光束に基づく画像を前記撮像素子から取得し、これら複数の異なる色成分の光束に基づく画像の重なり具合から、前記対物レンズ系の焦点位置および前記標本面のチルト情報を検出することを特徴とする請求項1〜10のいずれか一項に記載のオートフォーカス装置。
The projection that has a light source that emits light having a wavelength width and a projection mask in which a pattern having a light transmitting region is repeatedly formed along a predetermined direction, and is illuminated by the light emitted from the light source A Koehler illumination system that projects an image of a mask pattern onto the specimen surface via the objective lens system;
The focal position detection unit obtains, from the image sensor, an image based on a light beam that is transmitted through each filter of the structured pupil and separated into a plurality of different color components for each position of the pattern projected on the specimen surface. The focus position of the objective lens system and the tilt information of the sample surface are detected from the degree of overlap of images based on the light beams of the plurality of different color components. The autofocus device described in 1.
前記標本を載置するステージと、
前記ステージおよび前記対物レンズ系の少なくとも一方を、前記対物レンズ系の光軸に沿って上下動させる駆動部と、
前記焦点位置検出部による検出結果に基づいて前記駆動部を駆動し、前記標本と前記対物レンズ系との間隔を変更させる合焦制御部とを有することを特徴とする請求項1〜11のいずれか一項に記載のオートフォーカス装置。
A stage on which the specimen is placed;
A drive unit that moves up and down at least one of the stage and the objective lens system along an optical axis of the objective lens system;
The focus control unit that drives the drive unit based on a detection result by the focus position detection unit and changes an interval between the sample and the objective lens system. The autofocus device according to claim 1.
請求項1〜12のいずれか一項に記載のオートフォーカス装置を有することを特徴とする顕微鏡。   A microscope comprising the autofocus device according to any one of claims 1 to 12.
JP2012106921A 2012-05-08 2012-05-08 Autofocus device and microscope including the same Pending JP2013235110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012106921A JP2013235110A (en) 2012-05-08 2012-05-08 Autofocus device and microscope including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012106921A JP2013235110A (en) 2012-05-08 2012-05-08 Autofocus device and microscope including the same

Publications (1)

Publication Number Publication Date
JP2013235110A true JP2013235110A (en) 2013-11-21

Family

ID=49761286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012106921A Pending JP2013235110A (en) 2012-05-08 2012-05-08 Autofocus device and microscope including the same

Country Status (1)

Country Link
JP (1) JP2013235110A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225238A (en) * 2014-05-28 2015-12-14 株式会社ミツトヨ Focus detection unit and optical device
JPWO2016002006A1 (en) * 2014-07-01 2017-04-27 日産自動車株式会社 Display device for vehicle and display method for vehicle
US9995924B2 (en) 2014-12-16 2018-06-12 Olympus Corporation Three-dimensional position information acquiring method and three-dimensional position information acquiring apparatus
US10114207B2 (en) 2015-05-13 2018-10-30 Olympus Corporation Apparatus and method for obtaining three-dimensional information
WO2019007698A1 (en) * 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digital determination of focus position
CN114137714A (en) * 2021-11-09 2022-03-04 南京泰立瑞信息科技有限公司 Different-color light source matching detection method for rapid focusing device of amplification imaging system
JP7036396B1 (en) 2021-12-30 2022-03-15 株式会社 Zido Autofocus device
CN116774496A (en) * 2023-07-03 2023-09-19 西安电子科技大学杭州研究院 Phase shift detection automatic focusing device and method for color double-hole modulation
CN116774496B (en) * 2023-07-03 2024-04-16 西安电子科技大学杭州研究院 Phase shift detection automatic focusing device and method for color double-hole modulation

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105301751A (en) * 2014-05-28 2016-02-03 株式会社三丰 Focus detection unit and optical apparatus
JP2015225238A (en) * 2014-05-28 2015-12-14 株式会社ミツトヨ Focus detection unit and optical device
JPWO2016002006A1 (en) * 2014-07-01 2017-04-27 日産自動車株式会社 Display device for vehicle and display method for vehicle
US9995924B2 (en) 2014-12-16 2018-06-12 Olympus Corporation Three-dimensional position information acquiring method and three-dimensional position information acquiring apparatus
US10754139B2 (en) 2014-12-16 2020-08-25 Olympus Corporation Three-dimensional position information acquiring method and three-dimensional position information acquiring apparatus
US10114207B2 (en) 2015-05-13 2018-10-30 Olympus Corporation Apparatus and method for obtaining three-dimensional information
US11460683B2 (en) 2017-07-05 2022-10-04 Carl Zeiss Microscopy Gmbh Digital determination of focus position
WO2019007698A1 (en) * 2017-07-05 2019-01-10 Carl Zeiss Microscopy Gmbh Digital determination of focus position
CN110945398A (en) * 2017-07-05 2020-03-31 卡尔蔡司显微镜有限责任公司 Digitally determining the position of the focus
CN114137714A (en) * 2021-11-09 2022-03-04 南京泰立瑞信息科技有限公司 Different-color light source matching detection method for rapid focusing device of amplification imaging system
CN114137714B (en) * 2021-11-09 2024-03-29 南京泰立瑞信息科技有限公司 Different-color light source matching detection method of rapid focusing device of amplification imaging system
JP7036396B1 (en) 2021-12-30 2022-03-15 株式会社 Zido Autofocus device
WO2023127261A1 (en) * 2021-12-30 2023-07-06 株式会社Zido Auto-focus device
JP2023099250A (en) * 2021-12-30 2023-07-12 株式会社 Zido Autofocus device
CN116774496A (en) * 2023-07-03 2023-09-19 西安电子科技大学杭州研究院 Phase shift detection automatic focusing device and method for color double-hole modulation
CN116774496B (en) * 2023-07-03 2024-04-16 西安电子科技大学杭州研究院 Phase shift detection automatic focusing device and method for color double-hole modulation

Similar Documents

Publication Publication Date Title
JP2013235110A (en) Autofocus device and microscope including the same
JP5169499B2 (en) Imaging device and imaging apparatus
JP6584149B2 (en) Imaging device
JP5942757B2 (en) Focus detection apparatus and imaging apparatus
JP2012073285A (en) Imaging method and microscope device
US10171732B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating an image based on plurality of parallax images
JP7288226B2 (en) ranging camera
JP5251323B2 (en) Imaging device
JP2020088689A (en) Image processing apparatus, imaging apparatus, and image processing method
JP2006259377A (en) Microscope system
WO2012099034A1 (en) Focus position maintaining apparatus, and microscope
JP2015215571A (en) Imaging apparatus and control method thereof
CN110945398B (en) Digitally determining the position of the focus
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP2006071950A (en) Optical equipment
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP2009251523A (en) Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus
JP6106956B2 (en) Microscope equipment
JP5589799B2 (en) Imaging device
US10200622B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP5691440B2 (en) Imaging device
JP2015121778A (en) Imaging device, imaging system, imaging device control method, program, and storage medium
JP6136364B2 (en) Defocus amount detection device and camera
JP2013140380A (en) Imaging apparatus
JP6493444B2 (en) Imaging device