JP2012145747A - Stereo microscope apparatus - Google Patents

Stereo microscope apparatus Download PDF

Info

Publication number
JP2012145747A
JP2012145747A JP2011003809A JP2011003809A JP2012145747A JP 2012145747 A JP2012145747 A JP 2012145747A JP 2011003809 A JP2011003809 A JP 2011003809A JP 2011003809 A JP2011003809 A JP 2011003809A JP 2012145747 A JP2012145747 A JP 2012145747A
Authority
JP
Japan
Prior art keywords
image
optical system
eye
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011003809A
Other languages
Japanese (ja)
Inventor
Hiroaki Nakayama
浩明 中山
Takayuki Morita
喬之 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011003809A priority Critical patent/JP2012145747A/en
Publication of JP2012145747A publication Critical patent/JP2012145747A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a stereo microscope apparatus capable of three dimensional observation with high resolution.SOLUTION: The stereo microscope includes: a micro lens array 14 having a plurality of micro lenses ML arranged in positions respectively receiving light from a sample S condensed by an observation optical system 10; imaging elements 15 composed by having a plurality of pixels allotted for every micro lens ML; an image processing circuit 22 for generating an image for the left eye and an image for the right eye by applying a prescribed process to output of the imaging element 15; and a display apparatus for the left eye 16 L and a display apparatus for the right eye 16R for respectively displaying the image for the left eye and the image for the right eye generated in the image processing circuit 22. In this case, the image processing circuit 22 respectively extracts image data of a prescribed number of pixels which have the identical positioning to each other for every plurality of pixels allotted to the micro lens ML, generates a plurality of parallax images with different parallax from each other by synthesizing the extracted pixel data according to the positioning and acquires the image for the left eye and the image for the right eye from the plurality of parallax images.

Description

本発明は、標本を立体的に観察することができる実体顕微鏡装置に関する。   The present invention relates to a stereomicroscope device that can observe a specimen in three dimensions.

従来から、生物分野や工業分野等において立体観察などの用途で実体顕微鏡が広く利用されている。例えば、平行系実体顕微鏡では、単対物レンズで被検物体(標本)からの光を集光した後、左右独立した光学系(アフォーカルズームレンズと結像レンズを組み合わせた結像光学系)に分割することにより、互いに視差の異なる像をそれぞれ結像させる。観察者は、各像を接眼レンズを通して個別に左右の眼で観察することにより立体視が可能である。   Conventionally, stereomicroscopes have been widely used in applications such as stereoscopic observation in the biological field and industrial field. For example, in a parallel system stereomicroscope, the light from the object to be examined (specimen) is collected with a single objective lens, and then the left and right independent optical systems (imaging optical systems combining afocal zoom lenses and imaging lenses) are used. By dividing, images with different parallax are formed. An observer can perform stereoscopic viewing by observing each image individually with the left and right eyes through an eyepiece.

このような平行系実体顕微鏡では、対物レンズで集光された光が左右の光学系において2つの光路に分割されるため、左右の光学系の各有効径(光束のNA)が対物レンズの有効径の約半分程度になってしまい、それに応じて分解能が低下することとなる。そのため、有効径を左右の光学系で非対称に構成して有効径に差を付けることで、有効径の大きい一方の光学系では分解能を向上させ、有効径の小さい他方の光学系では焦点深度を深くさせた実体顕微鏡が提案されている(例えば、特許文献1を参照)。   In such a parallel stereomicroscope, the light collected by the objective lens is divided into two optical paths in the left and right optical systems, so that each effective diameter (NA of the luminous flux) of the left and right optical systems is effective for the objective lens. It becomes about half of the diameter, and the resolution is reduced accordingly. Therefore, by making the effective diameter asymmetric between the left and right optical systems and making a difference in the effective diameter, the resolution is improved in one optical system with a large effective diameter, and the depth of focus is increased in the other optical system with a small effective diameter. A deep stereo microscope has been proposed (see, for example, Patent Document 1).

特開2007−65651号公報JP 2007-65651 A

しかしながら、上記従来の実体顕微鏡においても、対物レンズからの光を2つの光路に分割しているため、左右の光学系で有効径に差を付けた場合に、一方の光学系の有効径を大きく確保すると、他方の光学系の有効径は小さくしなければならず、それに応じて分解能がさらに低下するという課題があった。   However, even in the conventional stereomicroscope, since the light from the objective lens is divided into two optical paths, the effective diameter of one optical system is increased when there is a difference in effective diameter between the left and right optical systems. If secured, the effective diameter of the other optical system has to be reduced, and there is a problem that the resolution further decreases accordingly.

本発明は、このような課題に鑑みてなされたものであり、高分解能で立体観察することができる実体顕微鏡装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a stereomicroscope apparatus that can perform stereoscopic observation with high resolution.

このような目的を達成するため、本発明に係る実体顕微鏡装置は、標本からの光を集光する観察光学系と、前記観察光学系により集光された前記標本からの光をそれぞれ受ける位置に配列された複数のマイクロレンズを有するレンズアレイと、前記マイクロレンズごとに複数の画素が割り当てられてなる撮像素子と、前記撮像素子の出力に対して所定の処理を施して左眼用画像及び右眼用画像を生成する画像処理部と、前記画像処理部において生成された前記左眼用画像及び前記右眼用画像をそれぞれ表示する左眼用表示部及び右眼用表示部とを備え、前記画像処理部は、前記マイクロレンズに割り当てられた前記複数の画素ごとに互いに同一の配置となる所定数の画素の画素データをそれぞれ抽出し、この抽出された画素データを当該配置に応じて合成することで互いに視差の異なる複数の視差画像を生成し、前記複数の視差画像の中から前記左眼用画像及び前記右眼用画像を取得する。   In order to achieve such an object, the stereomicroscope device according to the present invention includes an observation optical system that collects light from a specimen, and a position that receives light from the specimen collected by the observation optical system. A lens array having a plurality of microlenses arranged, an imaging device in which a plurality of pixels are assigned to each microlens, and a left eye image and a right by performing predetermined processing on the output of the imaging device An image processing unit that generates an image for the eye, and a display unit for the left eye and a display unit for the right eye that respectively display the image for the left eye and the image for the right eye generated in the image processing unit, The image processing unit extracts pixel data of a predetermined number of pixels having the same arrangement for each of the plurality of pixels assigned to the microlens, and the extracted pixel data is arranged in the arrangement Depending generates a plurality of parallax images with different parallaxes with each other by synthesizing, to obtain the left-eye image and the right-eye image from among the plurality of parallax images.

なお、本発明に係る実体顕微鏡装置において、前記複数の画素において、前記左眼用画像を生成するために抽出される前記所定数と、前記右眼用画像を生成するために抽出される前記所定数とが互いに相違するように構成してもよい。   In the stereomicroscope device according to the present invention, in the plurality of pixels, the predetermined number extracted for generating the left-eye image and the predetermined number extracted for generating the right-eye image. You may comprise so that a number may mutually differ.

また、本発明に係る実体顕微鏡装置において、前記左眼用画像を生成するために抽出される前記所定数と、前記右眼用画像を生成するために抽出される前記所定数とのうちの、いずれか一方の所定数が1であり、他方の所定数が複数である構成でもよい。   Further, in the stereomicroscope device according to the present invention, of the predetermined number extracted for generating the left eye image and the predetermined number extracted for generating the right eye image, One of the predetermined numbers may be 1, and the other predetermined number may be plural.

また、本発明に係る実体顕微鏡装置において、前記観察光学系が、前記標本からの光を入射させて略平行光束として射出する対物レンズと、前記対物レンズからの光束を受けて当該光束径を変更する変倍光学系と、前記変倍光学系からの光束を受けて前記マイクロレンズの近傍位置に一次像面を形成する結像レンズとを有し、以下の条件式を満足することが好ましい。
NA ≦ D/2f
p/f ≦ NA
但し、
NA:前記変倍光学系の最低倍率時における1次像面での光束のNA、
NA:前記変倍光学系の最高倍率時における1次像面での光束のNA、
f :前記マイクロレンズの焦点距離、
D :前記マイクロレンズの有効径、
p :前記撮像素子の画素ピッチ。
In the stereomicroscope device according to the present invention, the observation optical system receives the light from the sample and emits it as a substantially parallel light beam, and receives the light beam from the objective lens to change the light beam diameter. It is preferable that the zoom lens system has a variable magnification optical system and an imaging lens that receives a light beam from the variable magnification optical system and forms a primary image plane in the vicinity of the micro lens, and satisfies the following conditional expression.
NA L ≦ D / 2f
p / f ≤ NA H
However,
NA L : NA of the light beam on the primary image plane at the minimum magnification of the zoom optical system,
NA H : NA of the light beam on the primary image plane at the maximum magnification of the zoom optical system,
f: focal length of the microlens,
D: effective diameter of the microlens,
p: Pixel pitch of the image sensor.

また、本発明に係る実体顕微鏡装置において、前記結像レンズと前記レンズアレイとの間の光路に、フィールドレンズが前記変倍光学系の変倍率に応じて挿抜自在に配置されている構成でもよい。   Further, in the stereomicroscope device according to the present invention, a configuration may be adopted in which a field lens is detachably disposed in an optical path between the imaging lens and the lens array in accordance with a variable magnification of the variable magnification optical system. .

本発明によれば、高分解能で立体観察することができる実体顕微鏡装置を提供することが可能である。   According to the present invention, it is possible to provide a stereomicroscope device that can perform stereoscopic observation with high resolution.

本実施形態に係る実体顕微鏡の斜視図である。It is a perspective view of the stereomicroscope based on this embodiment. 上記実体顕微鏡の要部構成を示す図である。It is a figure which shows the principal part structure of the said stereomicroscope. 本実施形態の光学系の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the optical system of this embodiment. 撮像素子面におけるML領域の一例を示す図である。It is a figure which shows an example of ML area | region in an image pick-up element surface. ML領域における画素信号の検出方法を説明するための図である。It is a figure for demonstrating the detection method of the pixel signal in ML area | region. 1画素単位の画素ブロックによる画素信号の検出方法を説明するための図である。It is a figure for demonstrating the detection method of the pixel signal by the pixel block of 1 pixel unit. 1画素単位の画素ブロックにおいて撮像素子の出力から左眼用画像及び右眼用画像を生成する処理を示す図である。It is a figure which shows the process which produces | generates the image for left eyes and the image for right eyes from the output of an image pick-up element in the pixel block of 1 pixel unit. 複数画素単位の画素ブロックによる画素信号の検出方法を説明するための図である。It is a figure for demonstrating the detection method of the pixel signal by the pixel block of a several pixel unit. 複数画素単位の画素ブロックにおいて撮像素子の出力から左眼用画像及び右眼用画像を生成する処理を示す図である。It is a figure which shows the process which produces | generates the image for left eyes and the image for right eyes from the output of an image pick-up element in the pixel block of a several pixel unit. ズーム光学系を変倍したときの一次像面での光束のNAの変化を示す図である。It is a figure which shows the change of NA of the light beam in the primary image plane when zooming a zoom optical system. 上記実体顕微鏡においてフィールドレンズを配置した変形例を示す図である。It is a figure which shows the modification which has arrange | positioned the field lens in the said stereomicroscope. ズーム光学系の変倍に応じてフィールドレンズを挿抜したときの光線の変化の様子を示す図である。It is a figure which shows the mode of a change of the light ray when a field lens is inserted / extracted according to the zooming of a zoom optical system. 画素ブロックの取り方の変形例を示す図である。It is a figure which shows the modification of how to take a pixel block. 画素ブロックの上記変形例において、撮像素子の出力から左眼用画像及び右眼用画像を生成する処理を示す図である。It is a figure which shows the process which produces | generates the image for left eyes and the image for right eyes from the output of an image pick-up element in the said modification of a pixel block.

以下、本発明の一実施形態に係る実体顕微鏡について図面を参照して説明する。なお、以下の実施の形態は、発明の理解の容易化のためのものに過ぎず、本発明の技術的思想を逸脱しない範囲において当業者により実施可能な付加・置換等を施すことを排除することは意図していない。   Hereinafter, a stereomicroscope according to an embodiment of the present invention will be described with reference to the drawings. The following embodiments are merely for facilitating understanding of the invention, and excluding additions and substitutions that can be performed by those skilled in the art without departing from the technical idea of the present invention. It is not intended.

図1に本実施形態に係る実体顕微鏡100の斜視図を示しており、先ず、この図を参照して実体顕微鏡100の全体構成を概要説明する。この実体顕微鏡100は、単対物双眼構成の顕微鏡装置であり、透過照明装置を内蔵するベース部(照明部)101と、内部にズーム光学系を有するズーム鏡体103と、ズーム鏡体103の上部に取り付けられた鏡筒104と、この鏡筒104に取り付けられた左右の双眼部105と、ズーム鏡体103を上下動させる焦準機構106等を備えて構成される。   FIG. 1 is a perspective view of a stereomicroscope 100 according to the present embodiment. First, the overall configuration of the stereomicroscope 100 will be outlined with reference to this figure. The stereoscopic microscope 100 is a microscope apparatus having a single objective binocular configuration, and includes a base unit (illumination unit) 101 incorporating a transmission illumination device, a zoom mirror 103 having a zoom optical system therein, and an upper portion of the zoom mirror 103. And a binocular unit 105 attached to the lens barrel 104, a focusing mechanism 106 that moves the zoom lens body 103 up and down, and the like.

ベース部101の上面にはステージガラスを埋め込んだ標本載置台102が設けられている。また、ベース部101の基部側に支柱107が立設されて、この支柱107に焦準機構106が設けられている。   On the upper surface of the base portion 101, a specimen mounting table 102 in which stage glass is embedded is provided. Further, a support column 107 is erected on the base side of the base portion 101, and a focusing mechanism 106 is provided on the support column 107.

ズーム鏡体103は、焦準機構106を介してベース部101に設けられており、その下部には対物レンズ取付部108が設けられ、この対物レンズ取付部108に交換可能な対物レンズが取り付けられている。この対物レンズ取付部108には、予め定められた複数の低倍率の対物レンズ及び複数の高倍率の対物レンズのうちから一つが選択されて取り付けられる構成の場合と、予め定められた複数の低倍率の対物レンズ及び複数の高倍率の対物レンズのうちから複数が選択されて取り付けられる構成の場合などがある。   The zoom lens body 103 is provided on the base portion 101 via the focusing mechanism 106, and an objective lens mounting portion 108 is provided below the zoom lens body 103, and a replaceable objective lens is attached to the objective lens mounting portion 108. ing. The objective lens mounting portion 108 has a configuration in which one of a plurality of predetermined low-power objective lenses and a plurality of high-power objective lenses is selected and mounted, and a plurality of predetermined low-power objective lenses. There are cases where a plurality of objective lenses having a magnification and a plurality of objective lenses having a high magnification are selected and attached.

ズーム鏡体103の内部にはズーム光学系(アフォーカルズームレンズ)が配置され、このズーム鏡体103の外側にはズーム光学系を移動させるためのズームハンドル109が配置されている。ズーム光学系は、変倍のための可動群を含んでおり、ズームハンドルの回動操作に連動して予め定められた移動量に則り光軸方向に移動してズーム変倍される。また、ズーム鏡体103の上部には、鏡筒104が取り付けられ、この鏡筒104には接眼レンズを有する左右の双眼部105が取り付けられている。   A zoom optical system (afocal zoom lens) is arranged inside the zoom lens body 103, and a zoom handle 109 for moving the zoom optical system is arranged outside the zoom lens body 103. The zoom optical system includes a movable group for zooming, and zooming is zoomed by moving in the optical axis direction in accordance with a predetermined movement amount in conjunction with the rotation operation of the zoom handle. In addition, a lens barrel 104 is attached to the upper portion of the zoom lens body 103, and left and right binocular portions 105 having eyepieces are attached to the lens barrel 104.

焦準機構106は、標本に焦点を合わせるための焦準ハンドル110と、この焦準ハンドル110の回動操作に伴いズーム鏡体103を軸に沿って上下動させる機構部(図示せず)とを有している。そのため、焦準機構106は、ズーム鏡体103と共に鏡筒104及び双眼部105を一体的に標本載置台102に対して相対的に上下動させ、標本に対する焦点合わせを行う。   The focusing mechanism 106 includes a focusing handle 110 for focusing on the specimen, and a mechanism unit (not shown) that moves the zoom lens body 103 up and down along the axis in accordance with a rotation operation of the focusing handle 110. have. Therefore, the focusing mechanism 106 moves the lens barrel 104 and the binocular unit 105 together with the zoom mirror 103 relative to the sample mounting table 102 so as to focus on the sample.

標本は、ベース部101の標本載置台(ステージガラス)102上に載置され、対物レンズの光軸近傍に配置されるとともに、ベース部101の内部に配設された透過照明装置により透過照明される。照明された標本は、ズーム鏡体103、鏡筒104及び双眼部105等を介して観察される。以上のようにして、左右両眼において標本を立体視可能な実体顕微鏡100が構成されている。   The specimen is placed on the specimen mounting table (stage glass) 102 of the base unit 101 and is arranged near the optical axis of the objective lens, and is transmitted and illuminated by a transmission illumination device arranged inside the base unit 101. The The illuminated specimen is observed through the zoom lens body 103, the lens barrel 104, the binocular unit 105, and the like. As described above, the stereomicroscope 100 capable of stereoscopically viewing the specimen in both the left and right eyes is configured.

引き続き、図2及び図3を追加参照して、実体顕微鏡100について更に詳細な構成を説明する。ここで、図2は実体顕微鏡100の要部構成を示す図である。   Next, a more detailed configuration of the stereomicroscope 100 will be described with additional reference to FIGS. Here, FIG. 2 is a diagram illustrating a main configuration of the stereomicroscope 100.

この実体顕微鏡100では、標本Sに照明光を照射する透過照明装置(図示せず)と、標本Sの像を観察するための対物レンズを含む観察光学系10と、観察光学系10によって形成される一次像面に配置されたマイクロレンズアレイ14と、マイクロレンズアレイ14の焦点面に配置された撮像素子15と、撮像素子15からの出力に基づいて左眼用画像及び右眼用画像を表示する左眼用表示装置16L及び右眼用表示装置16Rと、左右一対の接眼レンズ17L,17Rとを備えており、これらが前述のベース部101、ズーム鏡体103、鏡筒104及び双眼部105に搭載されている。観察光学系10は、標本S側から順に、対物レンズ11、この対物レンズ11から射出された略平行光束の径を変倍して再び略平行光束として射出するズーム光学系(変倍光学系)12、ズーム光学系12からの平行光束を集光して物体の像を結像する結像レンズ13を有している。   The stereomicroscope 100 is formed by a transmission illumination device (not shown) that irradiates the specimen S with illumination light, an observation optical system 10 that includes an objective lens for observing an image of the specimen S, and the observation optical system 10. The left-eye image and the right-eye image are displayed based on the microlens array 14 disposed on the primary image plane, the image sensor 15 disposed on the focal plane of the microlens array 14, and the output from the image sensor 15. A left-eye display device 16L and a right-eye display device 16R, and a pair of left and right eyepieces 17L and 17R. These include the base portion 101, the zoom lens body 103, the lens barrel 104, and the binocular portion 105 described above. It is mounted on. The observation optical system 10 includes, in order from the sample S side, an objective lens 11 and a zoom optical system (variable magnification optical system) that changes the diameter of the substantially parallel light beam emitted from the objective lens 11 and emits it again as a substantially parallel light beam. 12, an imaging lens 13 for focusing the parallel light flux from the zoom optical system 12 to form an image of the object.

更に、実体顕微鏡100は、この顕微鏡の作動を統括的に制御する制御ユニット20として、駆動回路21、画像処理回路22、メモリ23、制御回路24、ユーザインターフェース25等を備えている。結像レンズ13の焦点面近傍に入射した結像光束は、撮像素子15において電気信号に変換される。この撮像素子15は駆動回路21によって駆動され、撮像素子15からの出力信号は、この駆動回路21を介して画像処理回路22に取り込まれる。画像処理回路22は、その出力信号に基づき標本の画像データを合成する。合成された画像データは、メモリ23に格納されるとともに、左眼及び右眼表示装置16L,16Rにおいて画像表示される。   Furthermore, the stereomicroscope 100 includes a drive circuit 21, an image processing circuit 22, a memory 23, a control circuit 24, a user interface 25, and the like as a control unit 20 that comprehensively controls the operation of the microscope. The imaging light flux that has entered the vicinity of the focal plane of the imaging lens 13 is converted into an electrical signal by the imaging device 15. The image pickup device 15 is driven by a drive circuit 21, and an output signal from the image pickup device 15 is taken into the image processing circuit 22 through the drive circuit 21. The image processing circuit 22 synthesizes sample image data based on the output signal. The synthesized image data is stored in the memory 23 and displayed on the left and right eye display devices 16L and 16R.

また、以上の駆動回路21、画像処理回路22、及びメモリ23は、制御回路24によって制御される。制御回路24は、例えばマイクロコンピュータなどにより構成され、ユーザインターフェース25を介してユーザから入力された指示に従ってその制御を実行する。このユーザ操作は、例えば、所定のディスプレイに表示されるGUI(Graphical User Interface)の表示画面に基づく、マウスやキーボード操作等の入力装置の操作によって実現される。   The drive circuit 21, the image processing circuit 22, and the memory 23 are controlled by the control circuit 24. The control circuit 24 is configured by, for example, a microcomputer, and executes control according to an instruction input from the user via the user interface 25. This user operation is realized, for example, by an operation of an input device such as a mouse or keyboard operation based on a GUI (Graphical User Interface) display screen displayed on a predetermined display.

図3は、この実体顕微鏡100において左右二視点の視差画像を生成する原理を示しており、以下において実体顕微鏡100の光学系の概要を中心としてこれを説明する。なお、その説明を簡略化するために、図3においては、観察光学系10を構成する対物レンズ11、ズーム光学系12及び結像レンズ13を、纏めて主レンズ10Lとして図示している。   FIG. 3 shows the principle of generating a parallax image with two left and right viewpoints in the stereomicroscope 100, and this will be described below with a focus on the outline of the optical system of the stereomicroscope 100. In order to simplify the description, in FIG. 3, the objective lens 11, the zoom optical system 12, and the imaging lens 13 constituting the observation optical system 10 are collectively shown as a main lens 10L.

この構成では、所定の位置にある標本Sの表面(以下、標本面Sとも称する)が主レンズ10Lで結像する面にマイクロレンズアレイ14を配置し、マイクロレンズアレイ14の焦点距離だけ離れた位置に撮像素子15を配置している。マイクロレンズアレイ15は、複数のマイクロレンズMLを二次元状に配列してなる光学素子である。このとき、撮像素子15の面が、主レンズ10L(対物レンズ11)の瞳面と共役になっており、各マイクロレンズMLで結像した像のできる領域(以下、「ML領域」と称する)から得られる各画素の画像信号は、瞳を分割した像となっている。換言すると、結像された光線が、瞳面から見て違う角度ごとの光線に振り分けられている。   In this configuration, the microlens array 14 is arranged on the surface where the surface of the sample S at a predetermined position (hereinafter also referred to as the sample surface S) forms an image with the main lens 10L, and is separated by the focal length of the microlens array 14. The image sensor 15 is disposed at the position. The microlens array 15 is an optical element formed by two-dimensionally arranging a plurality of microlenses ML. At this time, the surface of the imaging element 15 is conjugate with the pupil plane of the main lens 10L (objective lens 11), and an area where an image formed by each microlens ML can be formed (hereinafter referred to as “ML area”). The image signal of each pixel obtained from the above is an image obtained by dividing the pupil. In other words, the imaged light rays are distributed into light rays at different angles as viewed from the pupil plane.

撮像素子15は、マイクロレンズ14からの光を受光して撮像データを取得するものである。撮像素子15は、例えば、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子であり、各マイクロレンズMLを通過した光を受光する画素配列を、マイクロレンズMLに対応した配置パターンで配置してなる。すなわち、ML領域として複数の画素群が割り当てられるようになっている。   The imaging element 15 receives light from the microlens 14 and acquires imaging data. The imaging device 15 is a solid-state imaging device such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, and a pixel array that receives light that has passed through each microlens ML is represented by a microlens ML. It arranges with the arrangement pattern corresponding to. That is, a plurality of pixel groups are assigned as the ML region.

図4は、撮像素子15における撮像面上のML領域の一例を示す図である。図4において、6×6個の円の各々は、マイクロレンズアレイ14を主レンズ10Lの光軸方向から見た場合に二次元状に配列されたマイクロレンズMLを示しており、これに重なるように格子状に配列された6×6個の四角のそれぞれの領域が、撮像素子15におけるML領域を示している。1つのML領域に注目してみると、(各マイクロレンズMLに割り当てられた)ML領域の縦方向の画素数及び横方向の画素数はそれぞれ5個(つまり、5×5個の画素配列)である。すなわち、マイクロレンズアレイ14を構成する36個のマイクロレンズMLによって結像された像のそれぞれが、撮像素子15の撮像面上の5×5個からなる画素群上にML領域を形成している。この図4の例では、撮像素子15の画素数は30×30個を想定しており、各マイクロレンズMLを通過してきた光線がML領域における25個(5×5個)の画素の各々に受光されるようになっている。   FIG. 4 is a diagram illustrating an example of the ML region on the imaging surface in the imaging element 15. In FIG. 4, each of the 6 × 6 circles indicates the microlenses ML arranged in a two-dimensional manner when the microlens array 14 is viewed from the optical axis direction of the main lens 10 </ b> L, and overlaps this. Each of the 6 × 6 square areas arranged in a grid pattern indicates an ML area in the image sensor 15. When attention is paid to one ML region, the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the ML region (assigned to each microlens ML) is 5 (that is, a 5 × 5 pixel array). It is. That is, each of the images formed by the 36 microlenses ML constituting the microlens array 14 forms an ML region on a 5 × 5 pixel group on the imaging surface of the imaging device 15. . In the example of FIG. 4, it is assumed that the number of pixels of the image sensor 15 is 30 × 30, and the light rays that have passed through each microlens ML are in each of 25 (5 × 5) pixels in the ML region. Light is received.

ここで、図3においては説明を分かり易くするために、撮像素子15において光軸と垂直な面内における一方向(これをX方向(左右方向)とする)に並んだ5つの画素a,b,c,d,eに入射する各光線(対応するマイクロレンズMLの中心を通る主光線のみ)を示している。図3において、標本面S上の点S1からの光線は、主レンズ10Lを通過する際に瞳面を通って(ここではr1〜r5の)光線群となり、各マイクロレンズMLで結像した像のできる領域、すなわち各ML領域の撮像素子15の画像信号となる。図示のように、焦点位置(ピント面)からの光線r1,r2,r3,r4,r5は、マイクロレンズアレイ14の表面の1点に集まり、マイクロレンズMLのレンズ作用によって撮像素子15の面上では、各ML領域のそれぞれの画素a,b,c,d,eに対応して、ai,bi,ci,di,eiの画素信号となる。ここで、符号ai,bi,ci,di,eiで示すのは、X方向に並ぶ5つの画素a,b,c,d,eが個別に出力する画素信号(画素値)の概念である。なお、ここでは、X方向に並ぶ5つの画素a,b,c,d,eのみに着目しているが、実際はX,Y方向(互いに直交する2方向)に並ぶ25個の画素の各々から個別に画素信号が出力される。   Here, in order to make the explanation easy to understand in FIG. 3, the five pixels a and b arranged in one direction (this is assumed to be the X direction (left and right direction)) in the plane perpendicular to the optical axis in the image sensor 15. , C, d, and e (only chief rays passing through the center of the corresponding microlens ML) are shown. In FIG. 3, the light rays from the point S1 on the specimen surface S pass through the main lens 10L to form a light ray group (here, r1 to r5) and form an image formed by each microlens ML. Area, that is, an image signal of the image sensor 15 in each ML area. As shown in the figure, rays r1, r2, r3, r4, r5 from the focal position (focus plane) gather at one point on the surface of the microlens array 14, and on the surface of the image sensor 15 by the lens action of the microlens ML. Then, pixel signals of ai, bi, ci, di, and ei correspond to the respective pixels a, b, c, d, and e in each ML region. Here, the symbols ai, bi, ci, di, ei indicate the concept of pixel signals (pixel values) output individually by the five pixels a, b, c, d, e arranged in the X direction. Here, attention is focused on only the five pixels a, b, c, d, and e arranged in the X direction, but actually, from each of the 25 pixels arranged in the X and Y directions (two directions orthogonal to each other). Pixel signals are output individually.

撮像素子15では、駆動回路21による駆動動作に応じて、画素単位で光線情報の読み出しが行われて、画像データが得られる。このように撮像素子15で捉えた画像データでは、標本面Sからの光線に対して、その強度情報とともに、マイクロレンズMLの配置によって光線の位置情報と、各マイクロレンズMLに割り当てられたML領域内の画素の配置によって光線の進行方向とが独立に検出される。すなわち、光線の視差情報を検出することができる。   In the image pickup device 15, the light ray information is read out in units of pixels in accordance with the driving operation by the driving circuit 21, and image data is obtained. In the image data captured by the imaging device 15 in this way, with respect to the light beam from the specimen surface S, the position information of the light beam as well as the intensity information and the ML region assigned to each micro lens ML together with the intensity information. The traveling direction of the light beam is detected independently by the arrangement of the pixels. That is, the parallax information of the light beam can be detected.

本実施形態では、例えば、標本面S上の点S1からの光線のうち、中心の光線r3よりも右側にある光線(例えば、光線r4,r5)については右眼用の視差情報を有しているとみなせる。一方、中心の光線r3よりも左側にある光線(例えば、光線r1,r2)については左眼用の視差情報を有しているとみなせる。   In the present embodiment, for example, among the light rays from the point S1 on the sample surface S, the light rays on the right side of the central light ray r3 (for example, light rays r4 and r5) have parallax information for the right eye. It can be regarded as being. On the other hand, light rays on the left side of the central light ray r3 (for example, light rays r1 and r2) can be regarded as having parallax information for the left eye.

画像処理回路22は、撮像素子15からの出力に基づいて、所定の画像処理を施して、左右2つの視点における視差画像を生成する。この視差画像の解像度はマイクロレンズMLの個数で決まり、視差数は各マイクロレンズMLに割り当てられたML領域の画素数で決まる。ここで、各マイクロレンズMLに割り当てられたML領域を、1画素単位もしくは複数画素単位でいくつかの領域に分割し、それぞれの領域だけで選択処理した画像データを生成する。主レンズ10L(対物レンズ11)の瞳面と撮像素子15の撮像面とは共役なので、これにより、領域分割の数だけその瞳面が分割された画像が得られる。   The image processing circuit 22 performs predetermined image processing based on the output from the image sensor 15 to generate parallax images at the two left and right viewpoints. The resolution of this parallax image is determined by the number of microlenses ML, and the number of parallaxes is determined by the number of pixels in the ML area assigned to each microlens ML. Here, the ML area allocated to each microlens ML is divided into several areas in units of one pixel or a plurality of pixels, and image data selected and processed only in each area is generated. Since the pupil plane of the main lens 10L (objective lens 11) and the imaging plane of the imaging device 15 are conjugate, an image obtained by dividing the pupil plane by the number of area divisions is obtained.

このようにML領域を1画素単位または複数画素単位で分割してなる一つの領域(所定数の画素からなる画素領域)を以降では画素ブロックGBと称して説明する。ML領域を1画素単位で領域分割する場合(すなわち画素ブロックGBが1画素の場合)、生成できる視差画像(多視点画像)の数は最大で5×5=25個である。   One region (a pixel region composed of a predetermined number of pixels) obtained by dividing the ML region in units of one pixel or a plurality of pixels in this way will be hereinafter referred to as a pixel block GB. When the ML region is divided in units of one pixel (that is, when the pixel block GB is one pixel), the maximum number of parallax images (multi-viewpoint images) that can be generated is 5 × 5 = 25.

図5はML領域における画素信号の検出方法を説明するための図であり、図6は撮像素子15全体としての画素信号の検出方法を説明するための図である。ここでは説明を簡略化するために、ML領域においてX方向(左右方向)に異なる5つの領域で、画素ブロックGBを1画素単位として検出することで視差画像を生成する場合を例示する。撮像素子15は主レンズ10L(対物レンズ11)の瞳面と光学的に共役な関係になっているので、左右方向5つの視点(角度)で、1画素に相当するレンズの開口からの光線により画像データが生成されることになる。ここで検出した5つの画素は、図3における画素a,b,c,d,eと同じ画素と考えてよい。各マイクロレンズMLに割り当てられた画素ブロックGBの画素数は、共役関係にある瞳面での検出する光線の大きさ(光束径)を決める。つまりレンズのF値に相当し、これが小さいと焦点深度が深くなり、大きいと焦点深度が浅くなる。よって、画素ブロックGBとして1画素検出した場合では焦点深度の深い画像(視差画像)が得られる。   FIG. 5 is a diagram for explaining a pixel signal detection method in the ML region, and FIG. 6 is a diagram for explaining a pixel signal detection method of the image pickup device 15 as a whole. Here, in order to simplify the description, a case where a parallax image is generated by detecting the pixel block GB as one pixel unit in five regions different in the X direction (left and right direction) in the ML region will be exemplified. Since the imaging element 15 is optically conjugate with the pupil plane of the main lens 10L (objective lens 11), the light is emitted from the lens opening corresponding to one pixel at five viewpoints (angles) in the horizontal direction. Image data is generated. The five pixels detected here may be considered as the same pixels as the pixels a, b, c, d, and e in FIG. The number of pixels of the pixel block GB assigned to each microlens ML determines the size of the light beam (light beam diameter) detected on the pupil plane having a conjugate relationship. That is, it corresponds to the F value of the lens, and when this is small, the depth of focus becomes deep, and when it is large, the depth of focus becomes shallow. Therefore, when one pixel is detected as the pixel block GB, an image (parallax image) having a deep focal depth is obtained.

図6において、各ML領域で互いに同じ位置の画素(ここでは、X方向に並ぶ画素a,b,c,d,eごと)における画素信号をそれぞれ抽出し、この抽出した画素信号同士を合成することで、互いに視差の異なる5つの視差画像が得られる。つまり、ML領域ごとに、画素信号aiを集めた画像、画素信号biを集めた画像、画素信号ciを集めた画像、画素信号diを集めた画像、及び画素信号eiを集めた画像、のそれぞれが視差画像として生成される。なお、ここでは、ML領域でX方向に並ぶ5つの画素a,b,c,d,eのみに着目し、それら5つの画素に基づいて5つの視差画像を生成しているが、実際はML領域でX,Y方向(2方向)に並ぶ25個の画素に基づいて25個の視差画像を生成できる。   In FIG. 6, pixel signals in pixels at the same position in each ML region (here, pixels a, b, c, d, and e aligned in the X direction) are extracted, and the extracted pixel signals are combined. Thus, five parallax images having different parallax can be obtained. That is, for each ML region, an image that collects pixel signals ai, an image that collects pixel signals bi, an image that collects pixel signals ci, an image that collects pixel signals di, and an image that collects pixel signals ei, respectively. Are generated as parallax images. Note that here, only five pixels a, b, c, d, and e arranged in the X direction in the ML region are focused on, and five parallax images are generated based on these five pixels. Thus, 25 parallax images can be generated based on 25 pixels arranged in the X and Y directions (two directions).

画像処理回路22は、このように生成される視差画像のうち、左視点における視差画像を左眼用画像とし、右視点における視差画像を右眼用画像として取得する。例えば、図7に示すように、各ML領域の最左列中央に位置する画素aの出力に基づいて得られる左視点の視差画像を左眼用画像30Lとし、各ML領域の最右列中央に位置する画素eの出力に基づいて得られる右視点の視差画像を右眼用画像30Rとする。このとき、各ML領域の画素aの出力(画素信号)が左眼用画像30Lの画素1つ1つに対応され、各ML領域の画素eの出力(画素信号)が右眼用画像30Rの画素1つ1つに対応される。ここで、画素a及び画素eの出力のみに基づいて左右二視点の左眼用画像30L及び右眼用画像30Rを取得する場合には、画素a及び画素e以外の画素信号は実質的に不要であるため、駆動回路21の制御により、撮像素子15からは必要とされる画素a及び画素eの画素信号のみを選択的に取り出すようにすることが好ましい。   Of the parallax images generated in this way, the image processing circuit 22 obtains the parallax image at the left viewpoint as the left-eye image and the parallax image at the right viewpoint as the right-eye image. For example, as illustrated in FIG. 7, a left-eye viewpoint parallax image obtained based on the output of the pixel a located in the center of the leftmost column of each ML region is a left-eye image 30L, and the center of the rightmost column of each ML region A right-eye viewpoint parallax image obtained on the basis of the output of the pixel e positioned at is defined as a right-eye image 30R. At this time, the output (pixel signal) of the pixel a in each ML region corresponds to each pixel of the left eye image 30L, and the output (pixel signal) of the pixel e in each ML region corresponds to the right eye image 30R. It corresponds to each pixel. Here, when acquiring the left-eye two-viewpoint left-eye image 30L and the right-eye image 30R based only on the outputs of the pixel a and the pixel e, pixel signals other than the pixel a and the pixel e are substantially unnecessary. Therefore, it is preferable that only the necessary pixel signals of the pixel a and the pixel e are selectively extracted from the image sensor 15 by the control of the drive circuit 21.

なお、これに限定されず、画素bの出力から生成した視差画像を左眼用画像とし、画素dの出力から生成した視差画像を右眼用画像としてもよく、また、画素aの出力から生成した視差画像を左眼用画像とし、画素cの出力から生成した視差画像を右眼用画像としてもよく、これらはユーザインターフェース25を利用してユーザが任意に指定することが可能である。   However, the present invention is not limited to this, and the parallax image generated from the output of the pixel b may be used as the image for the left eye, the parallax image generated from the output of the pixel d may be used as the image for the right eye, and may be generated from the output of the pixel a. The parallax image thus generated may be used as the left-eye image, and the parallax image generated from the output of the pixel c may be used as the right-eye image. These can be arbitrarily designated by the user using the user interface 25.

一方、図8では、撮像素子15の各ML領域において光軸と垂直な面内におけるX方向に異なる領域で、画素ブロックGBとして複数画素単位(例えば、短冊状に6個(2×3個)の画素)で検出する場合を例示する。図8において、各ML領域で互いに同じ位置の画素領域(ここでは、図8で塗り潰された6画素の画素ブロックGB)における画素信号をそれぞれ抽出し、この画素ブロックGBを構成する6つの画素の画素信号の和を視差画像の1画素分の画素信号として求め、この画素信号同士をその配置に応じて合成することで互いに視差の異なる4つの視差画像が得られる。   On the other hand, in FIG. 8, each ML region of the image sensor 15 is a region different in the X direction in a plane perpendicular to the optical axis, and is a plurality of pixel units (for example, six strips (2 × 3) in a strip shape). The case of detecting with (pixels) is illustrated. In FIG. 8, the pixel signals in the pixel regions (here, the six-pixel block GB filled in FIG. 8) in the same position in each ML region are extracted, and the six pixels constituting the pixel block GB are extracted. The sum of the pixel signals is obtained as a pixel signal for one pixel of the parallax image, and the four parallax images having different parallax are obtained by synthesizing the pixel signals according to the arrangement.

画像処理回路22は、このように生成される視差画像のうち、左視点における視差画像を左眼用画像とし、右視点における視差画像を右眼用画像として取得する。例えば、図9に示すように、ML領域の左端中央に位置する6つの画素(画素ブロック)の出力に基づいて得られる左視点の視差画像を左眼用画像40Lとし、右端中央に位置する6つの画素(画素ブロック)の出力に基づいて得られる右視点の視差画像を右眼用画像40Rとする。このとき、ML領域の左端中央に位置する6つの画素の出力(画素信号)が左眼用画像40Lの画素1つ1つに対応され、ML領域の右端中央に位置する6つの画素の出力(画素信号)が右眼用画像40Rの画素1つ1つに対応される。ここでも、1画素単位の画素ブロックGBの場合と同様に、撮像素子15からは必要とされる画素ブロックGBの画素信号のみを選択的に取り出すようにすることが好ましい。また、図8(B)に示す6つの画素(画素ブロック)の出力から生成した視差画像を左眼用画像とし、図8(C)に示す6つの画素(画素ブロック)の出力から生成した視差画像を右眼用画像としてもよく、これらはユーザインターフェース25を利用してユーザが任意に指定することが可能である。   Of the parallax images generated in this way, the image processing circuit 22 obtains the parallax image at the left viewpoint as the left-eye image and the parallax image at the right viewpoint as the right-eye image. For example, as shown in FIG. 9, a parallax image of the left viewpoint obtained based on the output of six pixels (pixel blocks) located at the center of the left end of the ML region is set as the left-eye image 40L, and 6 located at the center of the right end. A right viewpoint parallax image obtained based on the output of one pixel (pixel block) is defined as a right eye image 40R. At this time, the outputs (pixel signals) of the six pixels located at the center of the left end of the ML region correspond to the pixels of the left eye image 40L one by one, and the outputs of the six pixels located at the center of the right end of the ML region ( Pixel signal) corresponds to each pixel of the right-eye image 40R. Here, as in the case of the pixel block GB in units of one pixel, it is preferable that only the pixel signals of the necessary pixel block GB are selectively extracted from the image sensor 15. Also, the parallax image generated from the output of the six pixels (pixel block) shown in FIG. 8B is the left-eye image, and the parallax generated from the output of the six pixels (pixel block) shown in FIG. The image may be an image for the right eye, and these can be arbitrarily designated by the user using the user interface 25.

なお、この画素ブロックGBとして6画素単位の検出においては、この画素ブロックGBで捉える瞳面を通過する光線は上述の1画素単位の検出の場合と比して6倍広いので(F値が小さくなり)、得られる視差画像(左眼用画像40L及び右眼用画像40R)の焦点深度は浅くなるが、分解能は高められる。従って、画素ブロックGB(光束のNA)を小さくとると焦点深度の深い視差画像が得られ、画素ブロックGB(光束のNA)を大きくとると分解能の高い視差画像が得られることになる。ここで、画素ブロックGBの取り方としては、上述の形態に限定されず、所望の分解能及び焦点深度に応じて、1画素単位または複数画素単位で任意に設定することが可能である。   In the detection of 6 pixel units as the pixel block GB, the light ray passing through the pupil plane captured by the pixel block GB is 6 times wider than that in the detection of the 1 pixel unit (the F value is small). The focal depth of the obtained parallax images (the left-eye image 40L and the right-eye image 40R) becomes shallow, but the resolution is improved. Therefore, when the pixel block GB (the NA of the luminous flux) is reduced, a parallax image with a deep focal depth is obtained, and when the pixel block GB (the NA of the luminous flux) is increased, a parallax image with a high resolution is obtained. Here, the method of taking the pixel block GB is not limited to the above-described form, and can be arbitrarily set in units of one pixel or a plurality of pixels according to a desired resolution and depth of focus.

画像処理回路22は、これら左右二視点の視差画像を左眼用画像及び右眼用画像としてメモリ23に記憶するとともに、左眼用表示装置16L及び右眼用表示装置16Rに出力して標本の拡大像として画像を表示させる。ユーザは、左右の眼で個別に表示装置16L,16R(双眼部105)を覗くと、視差を持った左眼用画像及び右眼用画像を左右の眼で個別に捉えられるので、標本の立体視が実現する。   The image processing circuit 22 stores the parallax images of the left and right viewpoints in the memory 23 as the left-eye image and the right-eye image, and outputs them to the left-eye display device 16L and the right-eye display device 16R. An image is displayed as a magnified image. When the user looks into the display devices 16L and 16R (binocular unit 105) individually with the left and right eyes, the left eye image and the right eye image with parallax can be separately captured with the left and right eyes. Visualization is realized.

ここで、ユーザインターフェース25(ユーザ操作)によって、各ML領域内で画素ブロックGBを任意に選択設定して、左眼用画像及び右眼用画像を、左右視点で共に焦点深度の深い視差画像としてそれぞれ表示させたり、左右視点で共に分解能の高い画像としてそれぞれ表示させることができるが、左眼用画像と右眼用画像とを異なる画素数の画素ブロックGBから取得し、これを左右視点の視差画像として表示させることも可能である。より具体的には、左眼用画像及び右眼用画像のうち、一方の画像を1画素単位の画素ブロックGBで生成(例えば、図6(A)に示すように上述の画素aの出力に基づく左視点の視差画像30Lを生成)し、他方の画像を複数画素単位の画素ブロックGBで生成(例えば、図8(D)に示すように、上述の右端中央の6画素の出力に基づく右視点の視差画像40Rを生成)することで、一方の眼では焦点深度の深い視差画像として捉え、他方の眼では分解能の高い視差画像として捉えることができ、これにより、焦点深度の深い画像と分解能の高い画像とを両眼視差の画像として同時に観察することができる。   Here, the pixel block GB is arbitrarily selected and set in each ML region by the user interface 25 (user operation), and the left-eye image and the right-eye image are both parallax images having a deep focal depth from the left and right viewpoints. The left eye image and the right eye image can be displayed from the pixel blocks GB having different numbers of pixels, and can be displayed as parallaxes for the left and right viewpoints. It can also be displayed as an image. More specifically, one of the left-eye image and the right-eye image is generated by a pixel block GB in units of one pixel (for example, as shown in FIG. The left viewpoint parallax image 30L is generated), and the other image is generated by a pixel block GB in units of multiple pixels (for example, as shown in FIG. By generating a viewpoint parallax image 40R), it is possible to capture a parallax image with a deep focal depth with one eye and a parallax image with a high resolution with the other eye. Can be observed simultaneously as a binocular parallax image.

以上説明した本実施形態に係る実体顕微鏡によれば、対物レンズ11で集光された光束を複数の光路に分割する必要がないため、観察光学系10の開口数を大きく確保して、標本Sを高分解能で立体観察することが可能である。また、左右の像を形成する光束のNAの比率を調整することで(左右で画素ブロックGBの取り方を相違させることで)、一方では分解能の高い画像を取得し、他方では焦点深度の深い画像を取得して、高分解能で深い焦点深度の画像を同時に観察することができる。従って、所望の分解能及び焦点深度を得ることが可能な実体顕微鏡を提供することが可能である。   According to the stereomicroscope according to the present embodiment described above, since it is not necessary to divide the light beam collected by the objective lens 11 into a plurality of optical paths, a large numerical aperture of the observation optical system 10 is ensured, and the sample S Can be stereoscopically observed with high resolution. Also, by adjusting the ratio of the NA of the light beams forming the left and right images (by making the pixel block GB different on the left and right), an image with high resolution is obtained on the one hand, and the depth of focus is deep on the other hand. Images can be acquired and images with high resolution and deep depth of focus can be observed simultaneously. Accordingly, it is possible to provide a stereomicroscope that can obtain a desired resolution and depth of focus.

ところで、図10に示すように、実体顕微鏡100において、ズーム光学系(アフォーカルズームレンズ)12を用いるとき、以下の条件式(1),(2)を満足することが好ましい。
NA < D/2f …(1)
2p/2f < NA …(2)
但し、
NA:ズーム光学系12の最低倍率時における一次像面での光束のNA、
NA:ズーム光学系12の最高倍率時における一次像面での光束のNA、
f:マイクロレンズMLの焦点距離、
D:マイクロレンズMLの有効径、
p:撮像素子15の画素ピッチ(画素サイズ)。
By the way, as shown in FIG. 10, when the zoom optical system (afocal zoom lens) 12 is used in the stereomicroscope 100, it is preferable that the following conditional expressions (1) and (2) are satisfied.
NA L <D / 2f ... ( 1)
2p / 2f <NA H (2)
However,
NA L : NA of the light beam on the primary image plane at the minimum magnification of the zoom optical system 12,
NA H : NA of the light beam on the primary image plane at the maximum magnification of the zoom optical system 12,
f: focal length of the microlens ML,
D: effective diameter of the microlens ML,
p: Pixel pitch (pixel size) of the image sensor 15.

条件式(1),(2)は、一次像面での光束のNAの適切な範囲を規定するものであり、その光束径を画素サイズpの2倍以上の大きさであってマイクロレンズMLの有効径Dよりも小さい範囲で調整することが望ましい。これは左右視点の視差画像を得るためには、各マイクロレンズMLに割り当てられる撮像素子15のML領域として、少なくとも1画素単位の画素ブロックGBで一方向(X方向)に並ぶ2つ以上の画素が必要だからである。この条件式(1),(2)を満足する範囲内においてズーム光学系12を変倍操作して、光束のNAを大きくすることで分解能の高い視差画像が得られ、光束のNAを小さくすることで焦点深度の深い視差画像を得ることができる。なお、図10においては、マイクロレンズMLに割り当てられる画素の数が、ズーム光学系12の最低倍率時に3×3個(図10ではX方向の3個のみが現れる)、最高倍率時に5×5個(図10ではX方向の5個のみが現れる)となっているが、このマイクロレンズMLによる画素割り当て数はこれに限定されるものではなく、上記条件式(1),(2)を満足する範囲において、必要な分解能に応じて適宜設定されることが望ましい。   Conditional expressions (1) and (2) define an appropriate range of the NA of the light beam on the primary image plane. The diameter of the light beam is at least twice the pixel size p, and the microlens ML It is desirable to adjust in a range smaller than the effective diameter D. In order to obtain a right-and-left viewpoint parallax image, two or more pixels arranged in one direction (X direction) in a pixel block GB of at least one pixel unit as the ML region of the image sensor 15 assigned to each microlens ML. Because it is necessary. A zoom operation of the zoom optical system 12 within a range that satisfies the conditional expressions (1) and (2) is performed to increase the NA of the light beam, thereby obtaining a high-resolution parallax image and reducing the NA of the light beam. Thus, a parallax image with a deep focal depth can be obtained. In FIG. 10, the number of pixels assigned to the microlens ML is 3 × 3 at the minimum magnification of the zoom optical system 12 (only three in the X direction appear in FIG. 10), and 5 × 5 at the maximum magnification. However, the number of pixels allocated by the microlens ML is not limited to this, and satisfies the conditional expressions (1) and (2). In this range, it is desirable to set appropriately according to the required resolution.

なお、本実施形態に係る実体顕微鏡100は、上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   Note that the stereomicroscope 100 according to the present embodiment is not limited to the above-described embodiment, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

例えば、実体顕微鏡の変形例を図11に示す。この実体顕微鏡においては、図11に示すように、マイクロレンズアレイ14の直前に(結像レンズ13とマイクロレンズアレイ14との間に)、不図示のアクチュエータ等によりフィールドレンズFLが挿抜自在に配置されていることが好ましい。ズーム光学系12では射出瞳の位置が変倍の際に焦点距離の変化に応じて移動する(一般に変倍比が高くなるほど射出瞳位置の変動は大きくなる)ため、このズーム光学系12の変倍の際に撮像素子15における結像位置が面内方向(画素配列方向)にずれてしまうおそれがある。そこで、一次像面の近傍にフィールドレンズFLを配置することで、ズーム光学系12の変倍による射出瞳位置の変動を補正することができる。例えば、図12では、ズーム光学系12の低倍率時にフィールドレンズFLを系外へ抜脱し、高倍率時にマイクロレンズアレイ14の直前にフィールドレンズFLを挿入してその射出瞳位置のずれを補正する形態が例示されている。これとは反対に、フィールドレンズFLをズーム光学系12の低倍率時に挿入し、高倍率時に系外へ抜脱する形態としてもよい。   For example, a modification of the stereomicroscope is shown in FIG. In this stereomicroscope, as shown in FIG. 11, the field lens FL can be inserted and removed by an actuator (not shown) immediately before the microlens array 14 (between the imaging lens 13 and the microlens array 14). It is preferable that In the zoom optical system 12, the position of the exit pupil moves in accordance with the change in focal length when the magnification is changed (generally, the change in the exit pupil position increases as the magnification ratio increases). When the magnification is doubled, the imaging position on the image sensor 15 may be shifted in the in-plane direction (pixel arrangement direction). Accordingly, by arranging the field lens FL in the vicinity of the primary image plane, it is possible to correct the variation in the exit pupil position due to the zooming of the zoom optical system 12. For example, in FIG. 12, when the zoom optical system 12 has a low magnification, the field lens FL is removed from the system, and when the zoom optical system 12 has a high magnification, the field lens FL is inserted immediately before the microlens array 14 to correct the deviation of the exit pupil position. The form is illustrated. On the contrary, the field lens FL may be inserted when the zoom optical system 12 is at a low magnification, and removed from the system at a high magnification.

また、上述の実体顕微鏡100では、照明光学系としてベース部101に内蔵された透過照明光学系(透過照明装置)を用いた場合について例示したが、落射照明光学系を採用してもよい。   Further, in the above-described stereomicroscope 100, the case where the transmission illumination optical system (transmission illumination device) incorporated in the base unit 101 is used as the illumination optical system is exemplified, but an epi-illumination optical system may be adopted.

また、画素ブロックGB(における画素の個数、画素の配列)の取り方としては上述の実施形態に限定されず、観察に必要とする分解能及び焦点深度などに応じて適宜設定することができる。例えば、図13に示すように、画素ブロックGBとして9個の画素(3×3個の画素)を選択して、左眼用画像50L及び右眼用画像50Rを生成してもよい。このとき、図13及び図14に示すように、ML領域内において左右視点で選択した一対の画素ブロックに互いにオーバーラップする領域(ここでは縦方向に並ぶ中央3個の画素)が生じているが、当該オーバーラップする領域が大きすぎると、その分だけ視差情報の共有量が大きくなるため、左右で適度な視差が得られない。そのため、画素ブロックGBの取り方としては、左右の視点でオーバーラップする領域が生じないように選択することが望ましい。   Further, the method of obtaining the pixel block GB (the number of pixels in the pixel array and the pixel arrangement) is not limited to the above-described embodiment, and can be appropriately set according to the resolution and the depth of focus required for observation. For example, as shown in FIG. 13, nine pixels (3 × 3 pixels) may be selected as the pixel block GB to generate the left-eye image 50L and the right-eye image 50R. At this time, as shown in FIG. 13 and FIG. 14, an area (here, the central three pixels arranged in the vertical direction) overlaps with the pair of pixel blocks selected from the left and right viewpoints in the ML area. If the overlapping area is too large, the amount of shared parallax information increases, and appropriate parallax cannot be obtained on the left and right. For this reason, it is desirable to select the pixel block GB so that overlapping regions do not occur from the left and right viewpoints.

10 観察光学系
11 対物レンズ
12 ズーム光学系(変倍光学系)
13 結像レンズ
14 マイクロレンズアレイ
15 撮像素子
17L 左眼用表示装置
17R 右眼用表示装置
20 制御ユニット
22 画像処理回路
100 実体顕微鏡
S 標本
ML マイクロレンズ
GB 画素ブロック(所定数)
FL フィールドレンズ
10 observation optical system 11 objective lens 12 zoom optical system (variable magnification optical system)
13 Imaging Lens 14 Micro Lens Array 15 Image Sensor 17L Left Eye Display Device 17R Right Eye Display Device 20 Control Unit 22 Image Processing Circuit 100 Stereo Microscope S Sample ML Micro Lens GB Pixel Block (predetermined number)
FL field lens

Claims (5)

標本からの光を集光する観察光学系と、
前記観察光学系により集光された前記標本からの光をそれぞれ受ける位置に配列された複数のマイクロレンズを有するレンズアレイと、
前記マイクロレンズごとに複数の画素が割り当てられてなる撮像素子と、
前記撮像素子の出力に対して所定の処理を施して左眼用画像及び右眼用画像を生成する画像処理部と、
前記画像処理部において生成された前記左眼用画像及び前記右眼用画像をそれぞれ表示する左眼用表示部及び右眼用表示部とを備え、
前記画像処理部は、前記マイクロレンズに割り当てられた前記複数の画素ごとに互いに同一の配置となる所定数の画素の画素データをそれぞれ抽出し、この抽出された画素データを当該配置に応じて合成することで互いに視差の異なる複数の視差画像を生成し、前記複数の視差画像の中から前記左眼用画像及び前記右眼用画像を取得することを特徴とする実体顕微鏡装置。
An observation optical system that collects light from the specimen;
A lens array having a plurality of microlenses arranged at positions to receive light from the specimen collected by the observation optical system;
An imaging device in which a plurality of pixels are assigned to each microlens;
An image processing unit that performs predetermined processing on the output of the imaging device to generate an image for the left eye and an image for the right eye;
A left-eye display unit and a right-eye display unit that respectively display the left-eye image and the right-eye image generated in the image processing unit;
The image processing unit extracts pixel data of a predetermined number of pixels having the same arrangement for each of the plurality of pixels allocated to the microlens, and synthesizes the extracted pixel data according to the arrangement. By doing so, a plurality of parallax images having different parallax are generated, and the left-eye image and the right-eye image are acquired from the plurality of parallax images.
前記複数の画素において、前記左眼用画像を生成するために抽出される前記所定数と、前記右眼用画像を生成するために抽出される前記所定数とが互いに相違することを特徴とする請求項1に記載の実体顕微鏡装置。   In the plurality of pixels, the predetermined number extracted to generate the left-eye image and the predetermined number extracted to generate the right-eye image are different from each other. The stereomicroscope apparatus according to claim 1. 前記左眼用画像を生成するために抽出される前記所定数と、前記右眼用画像を生成するために抽出される前記所定数とのうちの、いずれか一方の所定数が1であり、他方の所定数が複数であることを特徴とする請求項2に記載の実体顕微鏡装置。   One of the predetermined number extracted to generate the left-eye image and the predetermined number extracted to generate the right-eye image is 1, 3. The stereomicroscope device according to claim 2, wherein the other predetermined number is plural. 前記観察光学系が、前記標本からの光を入射させて略平行光束として射出する対物レンズと、前記対物レンズからの光束を受けて当該光束径を変更する変倍光学系と、前記変倍光学系からの光束を受けて前記マイクロレンズの近傍位置に一次像面を形成する結像レンズとを有し、
以下の条件式を満足することを特徴とする請求項1〜3のいずれか一項に記載の実体顕微鏡装置。
NA ≦ D/2f
p/f ≦ NA
但し、
NA:前記変倍光学系の最低倍率時における1次像面での光束のNA、
NA:前記変倍光学系の最高倍率時における1次像面での光束のNA、
f :前記マイクロレンズの焦点距離、
D :前記マイクロレンズの有効径、
p :前記撮像素子の画素ピッチ。
The observation optical system includes an objective lens that emits light from the sample as a substantially parallel light beam, a variable power optical system that receives the light beam from the objective lens and changes the diameter of the light beam, and the variable power optical system. An imaging lens that receives a light beam from the system and forms a primary image plane at a position near the microlens;
The stereoscopic microscope apparatus according to claim 1, wherein the following conditional expression is satisfied.
NA L ≦ D / 2f
p / f ≤ NA H
However,
NA L : NA of the light beam on the primary image plane at the minimum magnification of the zoom optical system,
NA H : NA of the light beam on the primary image plane at the maximum magnification of the zoom optical system,
f: focal length of the microlens,
D: effective diameter of the microlens,
p: Pixel pitch of the image sensor.
前記結像レンズと前記レンズアレイとの間の光路に、フィールドレンズが前記変倍光学系の変倍率に応じて挿抜自在に配置されていることを特徴とする請求項4に記載の実体顕微鏡装置。   5. The stereomicroscope device according to claim 4, wherein a field lens is detachably disposed in an optical path between the imaging lens and the lens array in accordance with a variable magnification of the variable magnification optical system. .
JP2011003809A 2011-01-12 2011-01-12 Stereo microscope apparatus Pending JP2012145747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011003809A JP2012145747A (en) 2011-01-12 2011-01-12 Stereo microscope apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011003809A JP2012145747A (en) 2011-01-12 2011-01-12 Stereo microscope apparatus

Publications (1)

Publication Number Publication Date
JP2012145747A true JP2012145747A (en) 2012-08-02

Family

ID=46789365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011003809A Pending JP2012145747A (en) 2011-01-12 2011-01-12 Stereo microscope apparatus

Country Status (1)

Country Link
JP (1) JP2012145747A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215405A (en) * 2013-04-24 2014-11-17 オリンパス株式会社 Imaging element and microscope device
JP2014215406A (en) * 2013-04-24 2014-11-17 オリンパス株式会社 Imaging device, illuminating device, and microscope device
JP2016212349A (en) * 2015-05-13 2016-12-15 オリンパス株式会社 Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
WO2023177017A1 (en) * 2022-03-17 2023-09-21 주식회사 어큐노스 Light field microscope-based image acquisition method and apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215405A (en) * 2013-04-24 2014-11-17 オリンパス株式会社 Imaging element and microscope device
JP2014215406A (en) * 2013-04-24 2014-11-17 オリンパス株式会社 Imaging device, illuminating device, and microscope device
JP2016212349A (en) * 2015-05-13 2016-12-15 オリンパス株式会社 Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
WO2023177017A1 (en) * 2022-03-17 2023-09-21 주식회사 어큐노스 Light field microscope-based image acquisition method and apparatus

Similar Documents

Publication Publication Date Title
JP5246424B2 (en) Imaging device
US10181190B2 (en) Microscope and microscope image acquisition method
JP5102986B2 (en) Optical device with extended depth of field
JP6010895B2 (en) Imaging device
US20090262182A1 (en) Three-dimensional imaging apparatus
JP2011182317A (en) Imaging apparatus
US7280274B2 (en) Three-dimensional image observation microscope system
JP2017079904A (en) Surgical microscope, image processing device, and image processing method
KR20130121520A (en) Stereo microscope system
US9706190B2 (en) Image processing apparatus and image processing program
EP2485496A2 (en) Stereoscopic imaging apparatus
JP2012145747A (en) Stereo microscope apparatus
JP2019091043A (en) Stereoscopic image display device and stereoscopic image display method
JP4508569B2 (en) Binocular stereoscopic observation device, electronic image stereoscopic microscope, electronic image stereoscopic observation device, electronic image observation device
JPWO2013114895A1 (en) Imaging device
KR101691297B1 (en) Death-priority integral imaging display system to remove colorbreak
JP2014140593A (en) Three-dimensional endoscope apparatus
JP4970798B2 (en) Stereoscopic image observation device
KR101859197B1 (en) Real-time stereoscopic microscope
JP2010231192A (en) Stereoscopic imaging apparatus
JP2012047797A (en) Stereo microscope
JP5857782B2 (en) Imaging device
CN103930819B (en) Single shaft stereoscopic imaging apparatus with double sampled lens
JP5452800B2 (en) Stereoscopic imaging device
WO2020161905A1 (en) Microscope, control device for microscope, and program