JP2012042524A - Image processing device and its method - Google Patents

Image processing device and its method Download PDF

Info

Publication number
JP2012042524A
JP2012042524A JP2010181230A JP2010181230A JP2012042524A JP 2012042524 A JP2012042524 A JP 2012042524A JP 2010181230 A JP2010181230 A JP 2010181230A JP 2010181230 A JP2010181230 A JP 2010181230A JP 2012042524 A JP2012042524 A JP 2012042524A
Authority
JP
Japan
Prior art keywords
image
observation
dimensional
display device
stereomicroscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010181230A
Other languages
Japanese (ja)
Inventor
Atsushi Takeuchi
淳 竹内
Yutaka Iwasaki
豊 岩崎
Taiji Ouchi
泰司 大内
Yumiko Ouchi
由美子 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010181230A priority Critical patent/JP2012042524A/en
Publication of JP2012042524A publication Critical patent/JP2012042524A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily allow three-dimensional observation of a target object.SOLUTION: An image acquisition part 311 acquires observation images of a right and left pair photographed by an imaging device arranged on right and left light paths of a stereoscopic microscope for magnification observation of a target object, a depth amount calculation part 312 calculates a depth amount on each corresponding position of the observation images of the right and left pair, and a three-dimensional observation image generation part 313 generates a three-dimensional model, based on the depth amount calculated for each corresponding position. A three-dimensional observation image generation part 314 generates a three-dimensional observation image based on the generated three-dimensional model and an image output part 315 outputs the generated three-dimensional observation image to a display device so that the three-dimensional observation image is displayed. This invention can be applied, for example, for an image processing device which performs image processing for a target image acquired from a stereoscopic microscope.

Description

本発明は、画像処理装置および方法に関する。   The present invention relates to an image processing apparatus and method.

従来、観察対象物を3次元観察するために、コンフォーカル顕微鏡が用いられている。コンフォーカル顕微鏡は、レーザ光などを観察対象物上で2次元走査させたときに観察対象物により反射した光をピンホール上に集光させて、このピンホールを通過した光の強度を検出し、観察対象物の表面情報として極めて浅い焦点深度を持つ2次元画像を生成する。そして、その動作をZ軸方向で複数回繰り返して取得される複数の焦点面の2次元画像を重ね合わせることにより、3次元画像を生成するものである。   Conventionally, a confocal microscope is used for three-dimensional observation of an observation object. The confocal microscope collects the light reflected by the observation object when the laser beam is scanned two-dimensionally on the observation object, and detects the intensity of the light passing through the pinhole. A two-dimensional image having a very shallow depth of focus is generated as surface information of the observation object. Then, a three-dimensional image is generated by superimposing two-dimensional images of a plurality of focal planes obtained by repeating the operation a plurality of times in the Z-axis direction.

つまり、コンフォーカル顕微鏡では、観察対象物の高さの情報を得るために、観察対象物の観測位置をZ軸方向に移動させながら2次元画像を順次取得し、これらの2次元画像に基づいて、観察対象物の各点においてピンホールを通過した光の強度が最大となるときの観察対象物の位置を検出することになる(例えば、特許文献1参照)。   That is, in the confocal microscope, in order to obtain information on the height of the observation object, two-dimensional images are sequentially acquired while moving the observation position of the observation object in the Z-axis direction, and based on these two-dimensional images. Then, the position of the observation object is detected when the intensity of the light passing through the pinhole is maximized at each point of the observation object (see, for example, Patent Document 1).

特開2007−102102号公報JP 2007-102102 A

しかしながら、コンフォーカル顕微鏡では、観察対象物の高さの情報を得るために、観測位置をZ軸方向に移動させながら、複数枚の2次元画像を取得する必要があったため、3次元画像を生成する元となる2次元画像の取得時の処理負荷を軽減して、より簡便に、観察対象物の3次元観察を行いたいという要求があった。   However, in the confocal microscope, in order to obtain information on the height of the observation object, it is necessary to acquire a plurality of two-dimensional images while moving the observation position in the Z-axis direction, so that a three-dimensional image is generated. There has been a demand to reduce the processing load at the time of acquiring a two-dimensional image as a source for performing the three-dimensional observation of the observation object more easily.

本発明はこのような状況に鑑みてなされたものであり、実体顕微鏡から取得される左右一対の観察画像を1度に取得するだけで、簡便に、観察対象物の3次元観察を行うことができるようにするものである。   The present invention has been made in view of such a situation, and by simply acquiring a pair of left and right observation images acquired from a stereomicroscope at a time, three-dimensional observation of an observation target can be performed easily. It is something that can be done.

本発明の画像処理装置は、観察対象物を拡大観察する実体顕微鏡の左右眼光路上に配置された撮像手段により撮像された左右一対の観察画像を取得する画像取得手段と、取得された前記左右一対の観察画像に基づいて、前記左右一対の観察画像の対応する各位置における、前記実体顕微鏡の中心軸に対する奥行き量を演算する演算手段と、対応する各位置ごとに演算された前記奥行き量に基づいて、前記観察対象物に対応する3次元モデルを生成する3次元モデル生成手段と、生成された前記3次元モデルに基づいて、前記観察対象物の3次元観察用の画像である3次元観察画像を生成する3次元観察画像生成手段とを備えることを特徴とする。   The image processing apparatus of the present invention includes an image acquisition unit that acquires a pair of left and right observation images captured by an imaging unit that is arranged on the left and right eye optical paths of a stereomicroscope that magnifies an observation target, and the acquired left and right pair Based on the observation image, the calculation means for calculating the depth amount with respect to the central axis of the stereomicroscope at each corresponding position of the pair of left and right observation images, and the depth amount calculated for each corresponding position 3D model generation means for generating a 3D model corresponding to the observation object, and a 3D observation image which is an image for 3D observation of the observation object based on the generated 3D model And a three-dimensional observation image generating means for generating

本発明によれば、簡便に、観察対象物の3次元観察を行うことができる。   According to the present invention, three-dimensional observation of an observation object can be performed easily.

本発明を適用した実体顕微鏡の一実施の形態を示す外観図である。It is an external view which shows one Embodiment of the stereomicroscope to which this invention is applied. 実体顕微鏡の照明方法の例を示す図である。It is a figure which shows the example of the illumination method of a stereomicroscope. 本発明を適用した顕微鏡システムの第1の実施の形態を示す図である。It is a figure which shows 1st Embodiment of the microscope system to which this invention is applied. コントロールボックスの機能的構成例を示す図である。It is a figure which shows the functional structural example of a control box. 3次元観察画像の生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of a three-dimensional observation image. 奥行き量の演算方法について説明する図である。It is a figure explaining the calculation method of depth amount. 奥行き量の演算例を示す図である。It is a figure which shows the example of calculation of depth amount. 本発明を適用した顕微鏡システムの第2の実施の形態を示す図である。It is a figure which shows 2nd Embodiment of the microscope system to which this invention is applied. 本発明を適用した顕微鏡システムの第3の実施の形態を示す図である。It is a figure which shows 3rd Embodiment of the microscope system to which this invention is applied. 本発明を適用した顕微鏡システムの第4の実施の形態を示す図である。It is a figure which shows 4th Embodiment of the microscope system to which this invention is applied. 実体顕微鏡の照明方法の他の例を示す図である。It is a figure which shows the other example of the illumination method of a stereomicroscope.

以下、本発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.変形例
Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First Embodiment 2. FIG. Second Embodiment 3. FIG. Third embodiment 4. 4. Fourth embodiment Modified example

<1.第1の実施の形態>
最初に、図1乃至図7を参照して、本発明の第1の実施の形態について説明する。
<1. First Embodiment>
First, a first embodiment of the present invention will be described with reference to FIGS.

[実体顕微鏡の構成例]
図1は、本発明を適用した実体顕微鏡の一実施の形態の外観図である。
[Configuration example of stereo microscope]
FIG. 1 is an external view of an embodiment of a stereomicroscope to which the present invention is applied.

実体顕微鏡101は、単対物双眼構成の平行光学系(ガリレオ式)の実体顕微鏡である。実体顕微鏡101は、ベース部(照明部)111、変倍レンズ鏡筒112、および、焦点合わせ装置113を備えている。焦点合わせ装置113は、ベース部111の上面の後端かつ左右方向の中央に立設され、変倍レンズ鏡筒112は、焦点合わせ装置113の前面の上部に設けられている。   The stereomicroscope 101 is a single-objective binocular parallel optical system (Galileo type) stereomicroscope. The stereomicroscope 101 includes a base unit (illumination unit) 111, a variable magnification lens barrel 112, and a focusing device 113. The focusing device 113 is erected on the rear end of the upper surface of the base portion 111 and at the center in the left-right direction, and the variable magnification lens barrel 112 is provided on the upper portion of the front surface of the focusing device 113.

ベース部111には、透過照明装置(不図示)が内蔵され、透明部材が埋め込まれた観察対象載置台114が上面に設けられている。観察対象載置台114には、観察する対象となる観察対象物(後述する図2,図3等の観察対象物102)が載置される。   The base unit 111 includes a transmission illumination device (not shown), and an observation target mounting table 114 in which a transparent member is embedded is provided on the upper surface. An observation target object (observation target object 102 in FIGS. 2 and 3 to be described later) is placed on the observation target mounting table 114.

変倍レンズ鏡筒112の下面には、対物レンズ115が設けられている。対物レンズ115は、図1に示すように、対物レンズを1つだけ取付けてもよいし複数取付けてもよい。そして、観察者は、例えば、予め定められた複数の低倍率の対物レンズおよび複数の高倍率の対物レンズの中から、取付け可能な個数以下の対物レンズ115を選択して、実体顕微鏡101を使用する。   An objective lens 115 is provided on the lower surface of the zoom lens barrel 112. As shown in FIG. 1, the objective lens 115 may have only one objective lens or a plurality of objective lenses. Then, the observer uses the stereomicroscope 101 by selecting, for example, a number of objective lenses 115 that can be attached or less from a plurality of predetermined low magnification objective lenses and a plurality of high magnification objective lenses. To do.

変倍レンズ鏡筒112の左側面および右側面には、変倍ノブ116が設けられている。さらに、変倍レンズ鏡筒112には、左右両眼用の撮影ユニット(図3等の撮影ユニット161L,161R)を取付けることが可能である。   A zooming knob 116 is provided on the left side surface and the right side surface of the zoom lens barrel 112. Furthermore, it is possible to attach left and right eye photographing units (photographing units 161L and 161R in FIG. 3 and the like) to the variable magnification lens barrel 112.

変倍レンズ鏡筒112の上部には、双眼鏡筒117が設けられている。双眼鏡筒117には、左眼用の接眼レンズ117a、および、右眼用の接眼レンズ117b等が取り付けられている。観察者は、それらの接眼レンズを介して、左眼用および右眼の観察像をそれぞれ左眼および右眼で見ることにより、観察対象載置台114に載置される観察対象物の像を立体視することができる。   A binocular tube 117 is provided above the variable magnification lens barrel 112. The binocular tube 117 is attached with an eyepiece lens 117a for the left eye, an eyepiece lens 117b for the right eye, and the like. The observer views the observation image of the left eye and the right eye through the eyepieces with the left eye and the right eye, respectively, so that the image of the observation object placed on the observation object mounting table 114 is three-dimensional. Can be seen.

焦点合わせ装置113の左右の側面の上部には、焦点合わせノブ118が設けられている。また、焦点合わせ装置113には、焦点合わせノブ118の回転に伴い、変倍レンズ鏡筒112を観察対象載置台114に垂直な方向に沿って上下動させる機構部(不図示)が設けられている。   A focusing knob 118 is provided at the upper part of the left and right side surfaces of the focusing device 113. Further, the focusing device 113 is provided with a mechanism (not shown) that moves the zoom lens barrel 112 up and down along the direction perpendicular to the observation target mounting table 114 as the focusing knob 118 rotates. Yes.

[照明方法の例]
図2は、実体顕微鏡101の照明方法の一例を示している。この例は、例えば、プリント基板など、観察対象物102の表面が不透明である場合に用いられる照明方法のひとつである。
[Example of lighting method]
FIG. 2 shows an example of an illumination method of the stereomicroscope 101. This example is one of the illumination methods used when the surface of the observation object 102 is opaque, such as a printed board.

光源装置201Lおよび光源装置201Rは、それぞれ独立して光量および分光分布を変更することができる光源装置である。光源装置201Lから発せられた照明光は、導光用バンドルファイバ202Lによって導かれ、左斜め上方向から観察対象物102に照射される。また、光源装置201Rから発せられた照明光は、導光用バンドルファイバ202Rによって導かれ、右斜め上方向から観察対象物102に照射される。このように左右の異なる方向から照明光を観察対象物102に照射することにより、色再現性が良く、凹凸部に対して適度な陰影によるコントラストをつけた観察像および観察画像を得ることができる。   The light source device 201L and the light source device 201R are light source devices that can independently change the light amount and the spectral distribution. The illumination light emitted from the light source device 201L is guided by the light guide bundle fiber 202L, and is irradiated on the observation object 102 from the diagonally upper left direction. The illumination light emitted from the light source device 201R is guided by the light guide bundle fiber 202R, and is irradiated onto the observation object 102 from the upper right direction. By irradiating the observation object 102 with illumination light from different directions on the left and right in this way, it is possible to obtain an observation image and an observation image with good color reproducibility and appropriate contrast due to shadows on the uneven portions. .

[顕微鏡システムの構成例]
図3は、図1および図2で説明した実体顕微鏡101、その実体顕微鏡101の制御を行うコントロールボックス301、並びに2Dディスプレイ装置303からなる顕微鏡システムの構成例を示している。なお、図3に示すように、観察対象物102を拡大観察する実体顕微鏡101には、左眼用の撮影ユニット161Lおよび右眼用の撮影ユニット161Rが取り付けられ、ケーブル162L,162Rによりコントロールボックス301と接続されている。
[Configuration example of microscope system]
FIG. 3 shows a configuration example of a microscope system including the stereoscopic microscope 101 described with reference to FIGS. 1 and 2, a control box 301 for controlling the stereoscopic microscope 101, and a 2D display device 303. As shown in FIG. 3, a left-eye imaging unit 161L and a right-eye imaging unit 161R are attached to the stereomicroscope 101 that magnifies the observation object 102, and the control box 301 is connected by cables 162L and 162R. Connected with.

実体顕微鏡101において、観察対象物102からの光(以下、観察光という)は、対物レンズ151を透過した後、その光路によってアフォーカルズーム系152Lおよびアフォーカルズーム系152Rに分かれて入射する。アフォーカルズーム系152Lおよびアフォーカルズーム系152Rは、それぞれ開口絞りと変倍レンズ群から構成され、各変倍レンズ群には、観察倍率を調整するための可動群が含まれている。すなわち、図1の変倍レンズ鏡筒112の左側面および右側面に設けられた変倍ノブ116を回転することにより、回転量に応じた距離だけ各可動群が光軸方向に移動し、観察倍率を調整することができる。また、図1の変倍レンズ鏡筒112に設けられている調節機構(不図示)により、開口絞りの絞り量を調節することができる。   In the stereomicroscope 101, light from the observation object 102 (hereinafter referred to as observation light) passes through the objective lens 151 and then enters the afocal zoom system 152L and the afocal zoom system 152R depending on the optical path. Each of the afocal zoom system 152L and the afocal zoom system 152R includes an aperture stop and a variable power lens group, and each variable power lens group includes a movable group for adjusting the observation magnification. That is, by rotating the zoom knob 116 provided on the left side surface and the right side surface of the zoom lens barrel 112 in FIG. 1, each movable group moves in the optical axis direction by a distance corresponding to the rotation amount, and observation is performed. The magnification can be adjusted. Further, the aperture amount of the aperture stop can be adjusted by an adjustment mechanism (not shown) provided in the variable magnification lens barrel 112 of FIG.

アフォーカルズーム系152Lから射出された観察光は、結像レンズ153Lに入射して、撮影ユニット161Lの撮像素子171Lの撮像面に結像される。同様に、アフォーカルズーム系152Rから射出された観察光は、結像レンズ153Rに入射して、撮影ユニット161Rの撮像素子171Rの撮像面に結像される。   The observation light emitted from the afocal zoom system 152L enters the imaging lens 153L and forms an image on the imaging surface of the imaging element 171L of the imaging unit 161L. Similarly, the observation light emitted from the afocal zoom system 152R enters the imaging lens 153R and forms an image on the imaging surface of the imaging element 171R of the imaging unit 161R.

そして、撮影ユニット161Lの撮像素子171Lは、結像レンズ153Lにより結像された観察光による像を撮影し、得られた左眼用の画像(以下、観察画像という)を示す画像信号を、ケーブル162Lを介してコントロールボックス301に供給する。同様に、撮影ユニット161Rの撮像素子171Rは、結像レンズ153Rにより結像された観察光による像を撮影し、得られた右眼用の観察画像を示す信号を、ケーブル162Rを介してコントロールボックス301に供給する。   The image sensor 171L of the imaging unit 161L captures an image of the observation light imaged by the imaging lens 153L, and an image signal indicating the obtained image for the left eye (hereinafter referred to as an observation image) is transmitted to the cable. It is supplied to the control box 301 via 162L. Similarly, the image sensor 171R of the imaging unit 161R captures an image of the observation light imaged by the imaging lens 153R and transmits a signal indicating the obtained right-eye observation image via the cable 162R to the control box. 301 is supplied.

コントロールボックス301は、実体顕微鏡101を制御して、実体顕微鏡101から供給される左観察画像401Lと右観察画像401Rに対応する画像信号に基づいて、観察対象物102の3次元観察用の画像(以下、3次元観察画像という)のデータを生成して、2Dディスプレイ装置303に表示させる。コントロールボックス301は、例えば、コンピュータ、または、CPU(Central Processing Unit)などのプロセッサ等により構成され、所定の制御プログラムを実行することにより、図4に示すような、画像取得部311、奥行き量演算部312、3次元モデル生成部313、3次元観察画像生成部314、画像出力部315、およびCADデータ変換部316を含む機能を実現する。なお、これらの図4の画像取得部311乃至画像出力部315の一連の処理例の詳細については、図5のフローチャートを用いて後述する。また、CADデータ変換部316の処理例の詳細については、後述する「5.変形例」で説明する。   The control box 301 controls the stereomicroscope 101, and based on image signals corresponding to the left observation image 401L and the right observation image 401R supplied from the stereomicroscope 101, an image for three-dimensional observation of the observation object 102 ( (Hereinafter referred to as “three-dimensional observation image”) is generated and displayed on the 2D display device 303. The control box 301 is configured by, for example, a computer or a processor such as a CPU (Central Processing Unit) and the like, and by executing a predetermined control program, an image acquisition unit 311 and a depth amount calculation as shown in FIG. Functions including the unit 312, the 3D model generation unit 313, the 3D observation image generation unit 314, the image output unit 315, and the CAD data conversion unit 316 are realized. The details of a series of processing examples of the image acquisition unit 311 to the image output unit 315 in FIG. 4 will be described later with reference to the flowchart in FIG. Details of the processing example of the CAD data conversion unit 316 will be described later in “5. Modifications”.

図3に戻り、入力装置302は、例えばマウスやキーボードに代表される観察者による指示を受け付ける機器である。入力装置302は、例えば、コントロールボックス301により実行される処理の内容の選択や、画像処理に関するパラメータの調整の指示などの、観察者の操作に応じた操作信号をコントロールボックス301に供給する。   Returning to FIG. 3, the input device 302 is a device that receives an instruction from an observer represented by, for example, a mouse or a keyboard. The input device 302 supplies the control box 301 with an operation signal corresponding to the operation of the observer, such as selection of the content of the processing executed by the control box 301 and an instruction to adjust parameters relating to image processing.

2Dディスプレイ装置303は、画像を平面的に表示する平面像表示装置である。2Dディスプレイ装置303は、コントロールボックス301から出力される3次元観察画像のデータに基づく画像を鳥瞰図的に表示する。これにより、観察者は、実体顕微鏡101の双眼鏡筒117に取り付けられた接眼レンズを覗き込んで観察することなく、2Dディスプレイ装置303に表示された3次元観察画像(例えば、図3の2Dディスプレイ装置303の画面に表示された三角柱の3次元画像)を見ることで、図3の形状参考図400に示した形状を有する観察対象物102の像を観察することができる。なお、この形状参考図400には、観察対象物102の三角柱となる形状の図の他、実体顕微鏡101の中心軸に沿った方向Aから見たときの矢視図も示されている。   The 2D display device 303 is a flat image display device that displays an image in a planar manner. The 2D display device 303 displays an image based on the data of the three-dimensional observation image output from the control box 301 in a bird's eye view. Thereby, the observer does not look into the eyepiece lens attached to the binocular tube 117 of the stereomicroscope 101 and observe it, and the 3D observation image displayed on the 2D display device 303 (for example, the 2D display device of FIG. 3). By viewing the triangular prism (three-dimensional image displayed on the screen 303), it is possible to observe the image of the observation object 102 having the shape shown in the shape reference diagram 400 of FIG. The shape reference diagram 400 also shows an arrow view when viewed from the direction A along the central axis of the stereomicroscope 101, in addition to the shape of the triangular prism of the observation object 102.

[コントロールボックスの処理の詳細]
次に、図5のフローチャートを参照して、図4のコントロールボックス301により実行される、3次元観察画像の生成処理について説明する。
[Control box processing details]
Next, with reference to the flowchart in FIG. 5, the three-dimensional observation image generation process executed by the control box 301 in FIG. 4 will be described.

ステップS11において、画像取得部311は、実体顕微鏡101の左右両眼の光路上に配置された撮像素子171L,171Rにより撮像された左右一対の左観察画像401Lと右観察画像401Rを取得し、奥行き量演算部312および3次元モデル生成部313に供給する。   In step S11, the image acquisition unit 311 acquires a pair of left and right observation images 401L and 401R captured by the imaging elements 171L and 171R arranged on the optical paths of the left and right eyes of the stereomicroscope 101, and the depth. This is supplied to the quantity calculation unit 312 and the three-dimensional model generation unit 313.

ステップS12において、奥行き量演算部312は、画像取得部311により取得された左右一対の左観察画像401Lと右観察画像401Rに基づいて、左右一対の左観察画像401Lと右観察画像401Rとの対応する各位置における奥行き量を求める。   In step S12, the depth amount calculation unit 312 corresponds to the pair of left and right left observation images 401L and right observation image 401R based on the pair of left and right left observation images 401L and right observation image 401R acquired by the image acquisition unit 311. The amount of depth at each position is obtained.

ここで、図6を参照しながら、奥行き量演算部312により求められる奥行き量の演算方法について説明する。   Here, a depth amount calculation method obtained by the depth amount calculation unit 312 will be described with reference to FIG.

図6においては、画像取得部311により取得される、左右一対の観察画像のうちの、左眼光路上の撮像素子171Lにより撮像された左観察画像401Lが図6aに示され、右眼光路上の撮像素子171Rにより撮像された右観察画像401Rが図6bに示される。   In FIG. 6, the left observation image 401 </ b> L captured by the imaging device 171 </ b> L on the left eye optical path among the pair of left and right observation images acquired by the image acquisition unit 311 is illustrated in FIG. A right observation image 401R captured by the element 171R is shown in FIG. 6b.

奥行き量演算部312は、これらの左観察画像401Lと右観察画像401Rにおいて、同様の特徴を有する特徴点を対応付けるための対応点を決定して、その各対応点における実体顕微鏡101の中心軸に対する奥行き量を求めることになるが、その方法としては、3次元形状復元方法の一つであるステレオマッチング法を用いることができる。   The depth amount calculation unit 312 determines corresponding points for associating feature points having similar characteristics in the left observation image 401L and the right observation image 401R, and the corresponding points with respect to the central axis of the stereomicroscope 101 are determined. The depth amount is obtained. As the method, a stereo matching method which is one of three-dimensional shape restoration methods can be used.

すなわち、ステレオマッチング法により、左観察画像401Lが、右観察画像401Rのどの部分に対応するかを面積相関の演算により求めて、その対応関係に基づく三角測量の原理を用いることにより奥行き量を求めることが可能となる。   That is, the stereo matching method is used to determine which part of the right observation image 401R corresponds to the left observation image 401L by area correlation calculation, and the depth amount is determined by using the principle of triangulation based on the correspondence relationship. It becomes possible.

ここで面積相関とは、注目している画素の周囲を含む所定の領域により比較を行って、その領域中の点それぞれについて左右の画像中で差分をとり、その合計が最も小さいものを対応点とする方法である。具体的には、図6に示すように、左観察画像401Lのある点Al(x,y)の輝度Il(x,y)と、右観察画像401Rにおいて点Alの座標からX方向にdだけずれた点Ar(x−d,y)の輝度Ir(x−d,y)とが比較される。つまり、Il(x,y)−Ir(x−d,y)の値が最も小さい値となるd=dminを求めることにより、Al(x,y)の対応点は、点Ar(x−dmin,y)と決定される。   Here, the area correlation is a comparison between a predetermined region including the periphery of the pixel of interest, a difference is obtained in the left and right images for each point in the region, and the smallest sum is the corresponding point. It is a method. Specifically, as shown in FIG. 6, the luminance Il (x, y) of a point Al (x, y) at the left observation image 401L and only d in the X direction from the coordinates of the point Al in the right observation image 401R. The luminance Ir (x−d, y) at the shifted point Ar (x−d, y) is compared. That is, by finding d = dmin where the value of Il (x, y) -Ir (x-d, y) is the smallest value, the corresponding point of Al (x, y) becomes the point Ar (x-dmin , Y).

この例であると、一点のみの比較であるが、2m×2nの領域に拡張して考えれば、下記の式(1)を演算することで、所定の領域の面内での輝度値の差分をとることが可能となる。   In this example, it is a comparison of only one point, but if it is expanded to a 2m × 2n region, the following equation (1) is calculated to calculate the difference in luminance value within the plane of the predetermined region. It becomes possible to take.

Figure 2012042524
Figure 2012042524

この式(1)を演算することにより所定の領域内での輝度値の差分をとることができるため、オクルージョンがあっても演算の破綻を避けることができる。なお、オクルージョンとは、立体構造物を観察するときに、全ての部分を両眼で見ることができずに片目にだけ見える部分がある状態のことである。例えば複数の物体が存在するために手前にある物体が背後にある物体を隠してしまう状況で、左右眼で隠れる部分がずれる場合や、立体構造物の傾斜した面が右目には見えて左目には見えないといった状況で発生するものである。   By calculating the equation (1), it is possible to obtain a difference in luminance value within a predetermined area, so that it is possible to avoid failure of the calculation even if there is occlusion. The occlusion is a state in which, when observing a three-dimensional structure, there is a portion that cannot be seen with both eyes and is visible only to one eye. For example, when there are multiple objects and the object in the foreground hides the object behind it, the part hidden by the left and right eyes may shift, or the inclined surface of the three-dimensional structure can be seen by the right eye and the left eye Occurs in situations where you cannot see.

続いて、位置の検出を行うが、ここでは、三角測量の原理を用いた方法を説明する。左右眼光路上に配置された撮像素子171L,171R(以下、カメラL,Rともいう)が観察対象物102上の点(物点)を見込む角は、実体顕微鏡101の光軸の傾きとなる。例えば、左右眼光路の軸間距離D=22、対物レンズ151の焦点距離fo=100mmであるとき、光軸上の物体面を左右のカメラL,Rで見込む角(輻輳角)θは、半角で、次の式(2)により求めることができる。   Subsequently, the position is detected. Here, a method using the principle of triangulation will be described. The angle at which the image sensors 171L and 171R (hereinafter also referred to as cameras L and R) arranged on the left and right eye optical paths look at a point (object point) on the observation object 102 is the inclination of the optical axis of the stereomicroscope 101. For example, when the distance between the left and right eye optical paths is D = 22 and the focal length of the objective lens 151 is fo = 100 mm, the angle (convergence angle) θ for viewing the object plane on the optical axis with the left and right cameras L and R is a half angle. Thus, it can be obtained by the following equation (2).

θ=arctan(D/(2×fo))= arctan(22/(2×100))=6.3°・・・(2)   θ = arctan (D / (2 × fo)) = arctan (22 / (2 × 100)) = 6.3 ° (2)

そして、左右のカメラL,Rの光軸の開き角が2θであることと、左観察画像401L上の点Alと、右観察画像401R上の対応点Arのそれぞれの座標から、左眼光路上に配置されたカメラLを基準にしたときの物点Aの座標(x,z)を求めることができる。この物点Aの座標(x,z)は、公知の演算方法を用いて求めることができる。   Then, on the left eye optical path, the opening angle of the optical axes of the left and right cameras L and R is 2θ, and the coordinates of the point Al on the left observation image 401L and the corresponding point Ar on the right observation image 401R. The coordinates (x, z) of the object point A when the arranged camera L is used as a reference can be obtained. The coordinates (x, z) of the object point A can be obtained using a known calculation method.

ここで、図7を参照して、三角測量の原理を用いた奥行き量を示すz座標の演算方法の一例について説明する。図7には、観察光をXZ平面に正射影して2次元的に表した図が示されており、図中の点L,RはカメラL,Rを示し、点A,Bは物点を示すものとする。また、この例では、左右のカメラL,Rのうち、カメラLを基準とした場合について説明する。   Here, with reference to FIG. 7, an example of a method for calculating the z coordinate indicating the depth amount using the principle of triangulation will be described. FIG. 7 shows a two-dimensional representation of the observation light orthogonally projected on the XZ plane. Points L and R in the figure indicate the cameras L and R, and points A and B indicate object points. It shall be shown. In this example, a case where the camera L is used as a reference among the left and right cameras L and R will be described.

いま、図7において、点L,R,Aを頂点とする三角形A、又は点L,R,Bを頂点とする三角形Bについて考える。なお、三角形Aでは、各頂点は、点Lがa,点Rがb,点Aが180°−a−bの角度からなり、各辺の長さは、LR=D,LA=rとなる。また、三角形Bでは、各頂点は、点Lがa,点Rがb,点Bが180°−a−bの角度からなり、各辺の長さは、LR=D,LB=rとなる。このような条件では、図7より明らかなように、点Lの角度a,点Rの角度bは、それぞれ、a=90°−θ−x,b=90°−θ+xの関係を有することになる。また、rは、正弦定理を用いて、r=D×(sinb/sin(180°−a−b))により得ることができる。そして、a,b,rの関係が求められると、x,xから、x=rcosa,z=rsinaを演算することで、物点の座標(x,z)が求められる。 Now, in FIG. 7, a triangle A having points L, R, and A as vertices or a triangle B having points L, R, and B as vertices will be considered. In the triangle A, each vertex has an angle of point a at point L, b at point R, and point A at 180 ° -ab, and the length of each side is LR = D, LA = r. . Further, in the triangle B, each vertex has an angle of point L at a, point R at b, and point B at 180 ° -ab, and the length of each side is LR = D, LB = r. . Under such conditions, as is apparent from FIG. 7, the angle a of the point L and the angle b of the point R have a relationship of a = 90 ° −θ−x L and b = 90 ° −θ + x R , respectively. It will be. Moreover, r can be obtained by r = D × (sinb / sin (180 ° −ab)) using the sine theorem. When the relationship between a, b, and r is obtained, the coordinates (x, z) of the object point are obtained by calculating x = rcosa, z = rsina from x L and x R.

なお、実体顕微鏡101の撮像素子171L,171Rにより撮像された左観察画像401Lと、右観察画像401Rは、左右方向(X軸方向)のみ視差を持つため、原理的にはy座標は一致するはずであるが、製造、組み立て誤差などにより若干のずれを持つ場合がある。その場合は、奥行き量を示すz座標を決定する処理の前段において、y座標の差分がゼロになるように、画像を補正する処理を施した後、奥行き量を示すz座標を決定するのが望ましい。   Since the left observation image 401L and the right observation image 401R captured by the imaging elements 171L and 171R of the stereomicroscope 101 have parallax only in the left-right direction (X-axis direction), the y-coordinates should match in principle. However, there may be some deviation due to manufacturing or assembly errors. In that case, after performing the process of correcting the image so that the difference of the y coordinate becomes zero in the previous stage of the process of determining the z coordinate indicating the depth amount, the z coordinate indicating the depth amount is determined. desirable.

以上のようにして、各対応点おける奥行き量が決定される。   As described above, the depth amount at each corresponding point is determined.

図5のフローチャートに戻り、ステップS13において、3次元モデル生成部313は、画像取得部311により取得された左右一対の観察画像から得られる情報および奥行き量演算部312により演算された奥行き量に基づいて、各対応点において決定した奥行き量を、実体顕微鏡101の中心軸に垂直な平面全体にマッピングして、いわゆるデプスマップ(Depth Map)を生成する。そして、3次元モデル生成部313は、この奥行き量の情報が表現されたデプスマップに対して、左観察画像401Lと右観察画像401Rから抽出される、観察対象物102上の各座標における表面の色情報が表されたテクスチャを貼り付ける(いわゆるテクスチャマッピング)ことにより、観察対象物102に対応する3次元モデルを生成する。   Returning to the flowchart of FIG. 5, in step S <b> 13, the three-dimensional model generation unit 313 is based on the information obtained from the pair of left and right observation images acquired by the image acquisition unit 311 and the depth amount calculated by the depth amount calculation unit 312. Thus, the depth amount determined at each corresponding point is mapped to the entire plane perpendicular to the central axis of the stereomicroscope 101 to generate a so-called depth map. Then, the three-dimensional model generation unit 313 extracts the surface map at each coordinate on the observation target object 102 extracted from the left observation image 401L and the right observation image 401R with respect to the depth map in which the depth information is expressed. A 3D model corresponding to the observation object 102 is generated by pasting a texture representing color information (so-called texture mapping).

なお、3次元モデルに対して貼り付けるテクスチャであるが、左観察画像401Lと右観察画像401Rのいずれか一方の観察画像のみから生成してもよいが、一方の観察画像からの情報では得ることのできないオクルージョンの領域に対する対応のために両方の観察画像から必要な部分を切り出してくるようなアルゴリズムを適応したほうが、より自然で、観察対象物102の表面情報の欠落領域が少ないテクスチャを生成できる。   Although the texture is pasted to the three-dimensional model, it may be generated from only one of the left observation image 401L and the right observation image 401R, but can be obtained from information from one observation image. It is more natural to apply an algorithm that cuts out necessary parts from both observation images in order to deal with occlusion areas that cannot be generated, and it is possible to generate a texture that has fewer surface information missing areas of the observation object 102. .

ステップS14において、3次元観察画像生成部314は、生成した3次元モデルに基づいて、3次元モデルを含んだ仮想空間上の所定の視点位置から見たときの3次元観察画像を生成し、画像出力部315に供給する。例えば、3次元観察画像生成部314は、3次元観察画像として、2Dディスプレイ装置303において3次元表示される3次元画像を生成する。   In step S14, the three-dimensional observation image generation unit 314 generates a three-dimensional observation image when viewed from a predetermined viewpoint position in the virtual space including the three-dimensional model, based on the generated three-dimensional model, This is supplied to the output unit 315. For example, the three-dimensional observation image generation unit 314 generates a three-dimensional image that is three-dimensionally displayed on the 2D display device 303 as a three-dimensional observation image.

ステップS15において、画像出力部315は、3次元観察画像生成部314により生成された3次元観察画像を、2Dディスプレイ装置303に出力して、表示させる。これにより、2Dディスプレイ装置303の画面には、図3に示すように、例えば、その画面に表示された三角柱の3次元画像や3次元画像402が表示される。   In step S15, the image output unit 315 outputs the 3D observation image generated by the 3D observation image generation unit 314 to the 2D display device 303 for display. Thereby, as shown in FIG. 3, for example, a triangular prism three-dimensional image or a three-dimensional image 402 displayed on the screen is displayed on the screen of the 2D display device 303.

以上のようにして、コントロールボックス301においては、観察対象物102を拡大観察する実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量が演算され、演算された奥行き量に基づいた観察対象物102の3次元モデルが生成され、生成された3次元モデルから、観察対象物102の3次元観察画像が生成され、2Dディスプレイ装置303に表示される。   As described above, in the control box 301, the two observation images of the left observation image 401L and the right observation image 401R acquired from the stereomicroscope 101 for observing the observation object 102 in an enlarged manner are used, and the observation images are displayed. A depth amount is calculated for each corresponding position, a three-dimensional model of the observation object 102 is generated based on the calculated depth amount, and a three-dimensional observation image of the observation object 102 is generated from the generated three-dimensional model. Generated and displayed on the 2D display device 303.

これにより、従来、コンフォーカル顕微鏡では、観察対象物の高さの情報を得るために、観測位置をZ軸方向に移動させながら、複数枚の2次元画像を取得する必要があったことは先に述べた通りであるが、コントロールボックス301においては、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いて所定の画像処理を行うことで、観察対象物の3次元観察画像を表示させることができる。その結果、簡便に、観察対象物の3次元観察を行うことができる。   As a result, in the conventional confocal microscope, it has been necessary to acquire a plurality of two-dimensional images while moving the observation position in the Z-axis direction in order to obtain information on the height of the observation object. As described above, in the control box 301, predetermined image processing is performed using only two observation images, that is, the left observation image 401L and the right observation image 401R acquired from the stereomicroscope 101 at a time. Thus, a three-dimensional observation image of the observation object can be displayed. As a result, three-dimensional observation of the observation object can be performed easily.

また、コンフォーカル顕微鏡においては、観測位置のZ軸方向の移動のため、Z軸方向の駆動機構が必要となるが、実体顕微鏡101では、左観察画像401Lと右観察画像401Rを撮影するためにZ軸方向の駆動を特に要しないため、Z軸方向の駆動機構を設けなくてもよい。さらに、コンフォーカル顕微鏡では、Z軸方向の駆動に時間が必要となるため、例えば生きたメダカなどを観察対象物とする場合、観察対象物が動いてしまうため3次元観察画像を得ることができない。一方、コントロールボックス301では、2つの撮像素子171L,171Rにより、観察対象物の一瞬を捉えて撮像された左観察画像401Lと右観察画像401Rを取得できるので、従来では不可能であった動く観察対象物の3次元観察画像を構築することが可能となる。   Further, in the confocal microscope, a driving mechanism in the Z-axis direction is required for moving the observation position in the Z-axis direction. However, in the stereomicroscope 101, in order to capture the left observation image 401L and the right observation image 401R. Since driving in the Z-axis direction is not particularly required, it is not necessary to provide a driving mechanism in the Z-axis direction. Furthermore, since the confocal microscope requires time for driving in the Z-axis direction, for example, when a living medaka is used as an observation object, the observation object moves, and thus a three-dimensional observation image cannot be obtained. . On the other hand, the control box 301 can acquire the left observation image 401L and the right observation image 401R captured by capturing the moment of the observation object by the two imaging elements 171L and 171R. It is possible to construct a three-dimensional observation image of the object.

<2.第2の実施の形態>
[顕微鏡システムの構成例]
次に、図8を参照して、本発明の第2の実施の形態について説明する。本発明の第2の実施の形態(図8)は、第1の実施の形態(図3)と比較して、実体顕微鏡101の結像レンズ153L,153Rにより結像される観察光を、撮影用と接眼用の光に分割するための偏向素子154L,154Rが設けられている点が異なる。すなわち、結像レンズ153Lにより結像される観察光は、例えば、ビームスプリッタプリズムにより構成される偏向素子154Lに入射し、偏向素子154Lを透過し、接眼レンズ155Lに入射する接眼用の光と、偏向素子154Lにより反射され、撮影ユニット161Lに入射する撮影用の光に分割される。
<2. Second Embodiment>
[Configuration example of microscope system]
Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment (FIG. 8) of the present invention, as compared with the first embodiment (FIG. 3), the observation light imaged by the imaging lenses 153L and 153R of the stereomicroscope 101 is photographed. The difference is that deflection elements 154L and 154R are provided to divide the light into eye light and eye light. That is, the observation light imaged by the imaging lens 153L, for example, enters the deflection element 154L configured by a beam splitter prism, passes through the deflection element 154L, and enters the eyepiece lens 155L. The light is reflected by the deflecting element 154L and divided into light for photographing incident on the photographing unit 161L.

同様に、結像レンズ153Rにより結像された観察光は、偏向素子154Lと同様の構成の偏向素子154Rに入射し、偏向素子154Rを透過し、接眼レンズ155Rに入射する接眼用の光と、偏向素子154Rにより反射され、撮影ユニット161Rに入射する撮影用の光に分割される。   Similarly, the observation light imaged by the imaging lens 153R enters the deflection element 154R having the same configuration as the deflection element 154L, transmits the deflection element 154R, and enters the eyepiece lens 155R. The light is reflected by the deflecting element 154R and divided into photographing light that enters the photographing unit 161R.

そして、接眼レンズ155Lおよび接眼レンズ155Rにより、互いに視差が異なる左眼用および右眼用の像(以下、観察像という)が形成される。観察者は、接眼レンズ155Lおよび接眼レンズ155Rを介して、左眼用および右眼の観察像をそれぞれ左眼および右眼で見ることにより、観察対象物102の像を立体視することができる。   The eyepiece lens 155L and the eyepiece lens 155R form left-eye and right-eye images (hereinafter referred to as observation images) having different parallaxes. The observer can stereoscopically view the image of the observation object 102 by viewing the left-eye and right-eye observation images with the left eye and the right eye via the eyepiece lens 155L and the eyepiece lens 155R, respectively.

また、第1の実施の形態と同様に、撮影ユニット161Lの撮像素子171Lは、偏向素子154Lにより反射された観察光による像を撮影し、得られた左眼用の左観察画像401Lを示す画像信号を、ケーブル162Lを介してコントロールボックス301に供給する。同様に、撮影ユニット161Rの撮像素子171Rは、偏向素子154Rにより反射された観察光による像を撮影し、得られた右眼用の右観察画像401Rを示す画像信号を、ケーブル162Rを介してコントロールボックス301に供給する。   Similarly to the first embodiment, the image sensor 171L of the imaging unit 161L captures an image of the observation light reflected by the deflecting element 154L, and shows the obtained left observation image 401L for the left eye. The signal is supplied to the control box 301 via the cable 162L. Similarly, the imaging element 171R of the imaging unit 161R captures an image of the observation light reflected by the deflecting element 154R, and controls an image signal indicating the obtained right observation image 401R for the right eye via the cable 162R. Supply to box 301.

コントロールボックス301は、上述した図4のコントロールボックス301と同様の機能的構成を有しており、図5のフローチャートに示した処理と同様の処理を行うことで、実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量を演算し、演算された奥行き量に基づいた観察対象物102の3次元モデルを生成する。そして、コントロールボックス301は、3次元モデルに基づいて、観察対象物102を垂直視したときの画像(以下、垂直視画像という)を生成して、2Dディスプレイ装置303に表示させる。例えば、図8の2Dディスプレイ装置303の画面に表示された三角形の垂直視画像が表示される。なお、図8の2Dディスプレイ装置303に表示された三角形の垂直視画像は、図8の形状参考図400の観察対象物102の矢視図に対応するものとなる。   The control box 301 has the same functional configuration as the control box 301 in FIG. 4 described above, and performs the same processing as the processing shown in the flowchart in FIG. Using the two observation images of the image 401L and the right observation image 401R, the depth amount is calculated for each corresponding position of the observation images, and the three-dimensional model of the observation object 102 based on the calculated depth amount Is generated. Based on the three-dimensional model, the control box 301 generates an image when the observation object 102 is viewed vertically (hereinafter referred to as a vertically viewed image) and displays the image on the 2D display device 303. For example, a triangular vertical view image displayed on the screen of the 2D display device 303 of FIG. 8 is displayed. Note that the triangular vertical image displayed on the 2D display device 303 in FIG. 8 corresponds to the arrow view of the observation object 102 in the shape reference diagram 400 in FIG.

これにより、観察者は、接眼レンズ155Lおよび接眼レンズ155Rを介して、左眼用および右眼の観察像を観察することにより、観察対象物102の像を立体視することができるとともに、2Dディスプレイ装置303に表示された垂直視した観察対象物102の像(垂直視画像)も確認することができる。   As a result, the observer can stereoscopically view the image of the observation object 102 by observing the observation image for the left eye and the right eye through the eyepiece lens 155L and the eyepiece lens 155R, and the 2D display. An image (vertical view image) of the observation object 102 viewed in the vertical direction displayed on the device 303 can also be confirmed.

また、第2の実施の形態においては、上述した第1の実施の形態と同様に、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いた所定の画像処理により、垂直視画像を表示させることができるので、簡便に、観察対象物の3次元観察を行うことができる。   In the second embodiment, as in the first embodiment described above, only two observation images, the left observation image 401L and the right observation image 401R, acquired from the stereomicroscope 101 at a time are displayed. Since the vertically-viewed image can be displayed by the predetermined image processing used, three-dimensional observation of the observation target can be performed easily.

<3.第3の実施の形態>
[顕微鏡システムの構成例]
次に、図9を参照して、本発明の第3の実施の形態について説明する。本発明の第3の実施の形態(図9)は、第1の実施の形態(図3)と比較して、図1のコントロールボックス301の代わりにパーソナルコンピュータ304が設けられている点が異なる。また、パーソナルコンピュータ304には、撮影ユニット161Lを制御する撮影コントローラ305Lと、撮影ユニット161Rを制御する撮影コントローラ305Rが接続されている。
<3. Third Embodiment>
[Configuration example of microscope system]
Next, a third embodiment of the present invention will be described with reference to FIG. The third embodiment (FIG. 9) of the present invention is different from the first embodiment (FIG. 3) in that a personal computer 304 is provided instead of the control box 301 of FIG. . Further, the personal computer 304 is connected with a photographing controller 305L that controls the photographing unit 161L and a photographing controller 305R that controls the photographing unit 161R.

撮影コントローラ305Lは、撮影ユニット161Lを制御して、結像レンズ153Lにより結像された観察光による像を撮像素子171Lで撮影し、得られた左眼用の左観察画像401Lを示す画像信号を、ケーブル162Lを介して取得し、パーソナルコンピュータ304に供給する。同様に、撮影コントローラ305Rは、撮影ユニット161Rを制御して、結像レンズ153Rにより結像された観察光による像を撮像素子171Rで撮影し、得られた右眼用の右観察画像401Rを示す画像信号を、ケーブル162Rを介して取得し、パーソナルコンピュータ304に供給する。   The imaging controller 305L controls the imaging unit 161L to capture an image of the observation light imaged by the imaging lens 153L with the imaging element 171L, and an image signal indicating the obtained left observation image 401L for the left eye is obtained. , Acquired via the cable 162L, and supplied to the personal computer 304. Similarly, the imaging controller 305R controls the imaging unit 161R to capture an image of the observation light imaged by the imaging lens 153R with the imaging element 171R, and shows the obtained right observation image 401R for the right eye. An image signal is acquired via the cable 162R and supplied to the personal computer 304.

パーソナルコンピュータ304は、上述した図4のコントロールボックス301と同様の機能的構成を有しており、図5のフローチャートに示した処理と同様の処理を行うことで、実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量を演算し、演算された奥行き量に基づいた観察対象物102の3次元モデルを生成する。そして、パーソナルコンピュータ304は、3次元モデルに基づいて、観察対象物102の3次元観察画像や、観察対象物102を垂直視したときの垂直視画像を生成して、2Dディスプレイ装置303に表示させる。例えば、図9の2Dディスプレイ装置303には、その画面に表示された三角柱の3次元画像や図9の3次元画像402、あるいは、図9の形状参考図400の観察対象物102の矢視図に対応する垂直視画像が表示される。   The personal computer 304 has the same functional configuration as the control box 301 of FIG. 4 described above, and performs the same processing as the processing shown in the flowchart of FIG. Using the two observation images of the image 401L and the right observation image 401R, the depth amount is calculated for each corresponding position of the observation images, and the three-dimensional model of the observation object 102 based on the calculated depth amount Is generated. Based on the three-dimensional model, the personal computer 304 generates a three-dimensional observation image of the observation target object 102 or a vertical view image when the observation target object 102 is viewed vertically, and displays the generated image on the 2D display device 303. . For example, the 2D display device 303 in FIG. 9 includes a three-dimensional image of a triangular prism displayed on the screen, a three-dimensional image 402 in FIG. 9, or an arrow view of the observation object 102 in the shape reference diagram 400 in FIG. 9. A vertical view image corresponding to is displayed.

これにより、パーソナルコンピュータ304により実行されるプログラムのバージョンアップを行うだけで、既存の実体顕微鏡を用いた顕微鏡システムを、簡単に本発明の3次元観察画像を表示可能な顕微鏡システムに更新することができる。また、プログラムを更新するだけで、特に新たな光学部材などを追加する必要がないため、より安価に顕微鏡システムを構築できる。   As a result, the microscope system using the existing stereomicroscope can be easily updated to the microscope system capable of displaying the three-dimensional observation image of the present invention simply by upgrading the program executed by the personal computer 304. it can. Further, since it is not necessary to add a new optical member or the like only by updating the program, a microscope system can be constructed at a lower cost.

また、第3の実施の形態においては、上述した第1の実施の形態と同様に、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いた所定の画像処理により、3次元観察画像や垂直視画像を表示させることができるので、簡便に、観察対象物の3次元観察を行うことができる。   In the third embodiment, as in the first embodiment described above, only two observation images, the left observation image 401L and the right observation image 401R, acquired from the stereomicroscope 101 at a time are displayed. Since the three-dimensional observation image and the vertical vision image can be displayed by the predetermined image processing used, the three-dimensional observation of the observation object can be easily performed.

<4.第4の実施の形態>
[顕微鏡システムの構成例]
次に、図10を参照して、本発明の第4の実施の形態について説明する。本発明の第4の実施の形態(図10)は、第1の実施の形態(図3)と比較して、図3の2Dディスプレイ装置303の代わりに3Dディスプレイ装置306が設けられている点が異なる。また、説明を簡略化するため、実体顕微鏡101の記載を省略して撮影ユニット161L,161Rの撮像素子171L,171Rのみを記載しているが、撮像素子171L,171Rによって、結像レンズ153L,153Rにより結像された観察光による像が撮影され、得られた左眼用の左観察画像401L,右目用の右観察画像401Rを示す画像信号が、ケーブル162L,162Rを介して取得され、コントロールボックス301に供給される点は一致している。
<4. Fourth Embodiment>
[Configuration example of microscope system]
Next, a fourth embodiment of the present invention will be described with reference to FIG. Compared with the first embodiment (FIG. 3), the fourth embodiment (FIG. 10) of the present invention is provided with a 3D display device 306 instead of the 2D display device 303 of FIG. Is different. In order to simplify the description, the description of the stereomicroscope 101 is omitted and only the image pickup devices 171L and 171R of the photographing units 161L and 161R are described. However, the imaging lenses 153L and 153R are formed by the image pickup devices 171L and 171R. An image formed by the observation light is captured, and image signals indicating the left observation image 401L for the left eye and the right observation image 401R for the right eye are obtained via the cables 162L and 162R, and the control box The points supplied to 301 coincide.

コントロールボックス301は、上述した図4のコントロールボックス301と同様の機能的構成を有しており、図5のフローチャートに示した処理と同様の処理を行うことで、実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量を演算し、演算された奥行き量に基づいた観察対象物102の3次元モデルを生成する。そして、コントロールボックス301(の3次元観察画像生成部314)は、3次元モデルに対してレンダリングを行い、3次元観察用画像として、左右両眼用の2枚の2次元画像(以下、左右両眼用画像という)を生成し、3Dディスプレイ装置306に供給する。   The control box 301 has the same functional configuration as the control box 301 in FIG. 4 described above, and performs the same processing as the processing shown in the flowchart in FIG. Using the two observation images of the image 401L and the right observation image 401R, the depth amount is calculated for each corresponding position of the observation images, and the three-dimensional model of the observation object 102 based on the calculated depth amount Is generated. The control box 301 (the three-dimensional observation image generation unit 314) renders the three-dimensional model, and two two-dimensional images for the left and right eyes (hereinafter, both the left and right eyes) are used as the three-dimensional observation image. And is supplied to the 3D display device 306.

3Dディスプレイ装置306は、画像を立体的に表示する立体像表示装置であって、例えば、レンチキュラー方式またはパララックスバリア方式などの裸眼立体視ディスプレイ装置により構成される。そして、3Dディスプレイ装置306は、コントロールボックス301から供給される左右両眼用画像のデータに基づく左右両眼用画像を表示したときに、左眼用の画素列から発せられた光が観察者307の左眼に入射し、右眼用の画素列から発せられた光が観察者307の右眼に入射するように、各画素からの光の進路を調整する。   The 3D display device 306 is a stereoscopic image display device that displays an image in a stereoscopic manner, and includes, for example, an autostereoscopic display device such as a lenticular method or a parallax barrier method. When the 3D display device 306 displays the left and right binocular image based on the left and right binocular image data supplied from the control box 301, the light emitted from the left eye pixel row is observed by the observer 307. The path of light from each pixel is adjusted so that the light emitted from the right-eye pixel array and the light emitted from the right-eye pixel array enter the right eye of the observer 307.

これにより、観察者307は、専用の3D眼鏡等を用いずに、左眼用画像を左眼で見て、右眼用画像を右眼で見ることができ、観察対象物102の像を立体視することができる。また、3Dディスプレイ装置306は、上述の裸眼立体視方式だけでなく、偏光や液晶シャッタを利用した眼鏡タイプのディスプレイにも適用可能である。   As a result, the observer 307 can view the left-eye image with the left eye and the right-eye image with the right eye without using dedicated 3D glasses or the like, and the image of the observation object 102 can be stereoscopically viewed. Can be seen. The 3D display device 306 can be applied not only to the above-described autostereoscopic method, but also to a glasses-type display using polarized light or a liquid crystal shutter.

また、第4の実施の形態においては、上述した第1の実施の形態と同様に、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いた所定の画像処理により、左右両眼用画像を表示させることができるので、簡便に、観察対象物の3次元観察を行うことができる。   Further, in the fourth embodiment, as in the first embodiment described above, only two observation images, the left observation image 401L and the right observation image 401R, which are acquired from the stereomicroscope 101 at a time are displayed. Since the left and right binocular images can be displayed by the predetermined image processing used, three-dimensional observation of the observation object can be performed easily.

<5.変形例>
上述した本発明の第1乃至第4の実施の形態において生成される3次元モデルまたは3次元観察画像のデータを3次元CAD(Computer Aided Design:コンピュータ支援設計)用のデータに変換することで、3次元CAD上で、コントロールボックス301やパーソナルコンピュータ304により生成された3次元モデルや3次元観察画像を表示させることも可能となる。
<5. Modification>
By converting the data of the three-dimensional model or the three-dimensional observation image generated in the above-described first to fourth embodiments of the present invention into data for three-dimensional CAD (Computer Aided Design), It is also possible to display a three-dimensional model or a three-dimensional observation image generated by the control box 301 or the personal computer 304 on the three-dimensional CAD.

具体的には、図4に示すように、CADデータ変換部316は、3次元モデル生成部313により生成された3次元モデル、または、3次元観察画像生成部314により生成された3次元観察画像のデータを、3次元CADデータに変換する。CADデータ変換部316は、変換により得られた3次元CADデータを、3次元CADを実行可能な3次元CAD装置に出力する。なお、第3の実施の形態の場合には、3次元CADデータを3次元CAD装置に出力せずに、パーソナルコンピュータ304上で実行させるようにしてもよい。   Specifically, as illustrated in FIG. 4, the CAD data conversion unit 316 includes a three-dimensional model generated by the three-dimensional model generation unit 313 or a three-dimensional observation image generated by the three-dimensional observation image generation unit 314. Is converted into 3D CAD data. The CAD data conversion unit 316 outputs the 3D CAD data obtained by the conversion to a 3D CAD device capable of executing 3D CAD. In the case of the third embodiment, the 3D CAD data may be executed on the personal computer 304 without being output to the 3D CAD apparatus.

これにより、例えば、3次元CADにより作成された設計データと、実体顕微鏡101により拡大観察された観察対象物102(設計データを基に実際に製作された製品など)とを3次元CAD上で比較することが可能となり、両者の相違点を直感的に認識させることができる。また、実験などにより製作したものや、例えばデザイン性が求められるものなどの3次元的には表示し難かったものを3次元データにする場合には、それらの実物を実体顕微鏡101により観察して、コントロールボックス301などにより3次元観察画像のデータを生成後、3次元CAD用のデータに変換することで、簡単に図面化することが可能となる。   Thus, for example, the design data created by 3D CAD is compared with the observation object 102 (a product actually produced based on the design data) observed by the stereoscopic microscope 101 on the 3D CAD. This makes it possible to intuitively recognize the differences between the two. In addition, when making a three-dimensional data that is difficult to display in a three-dimensional manner, such as a product that is manufactured by an experiment or that is required to have a design, for example, the actual object is observed with the stereomicroscope 101. Then, after generating the data of the three-dimensional observation image by the control box 301 or the like, it is possible to easily make a drawing by converting the data into data for three-dimensional CAD.

また、以上の説明では、実体顕微鏡101、撮影ユニット161Lおよび撮影ユニット161R、コントロールボックス301、2Dディスプレイ装置303を別装置として説明したが、コントロールボックス301の全部または一部の機能を、実体顕微鏡101や、撮影ユニット161Lおよび撮影ユニット161R、2Dディスプレイ装置303に内蔵するようにしてもよい。   In the above description, the stereomicroscope 101, the photographing unit 161L and the photographing unit 161R, the control box 301, and the 2D display device 303 have been described as separate devices. Alternatively, the image capturing unit 161L and the image capturing unit 161R may be built in the 2D display device 303.

また、第1の実施の形態において、観察者による入力装置302の操作により、3次元表示された観察対象物102の3次元観察画像の任意の方向への回転が指示された場合、3次元観察画像生成部314は、3次元モデルの仮想空間上において回転に応じた視点位置から、3次元モデルを見たときの3次元観察画像を生成し、2Dディスプレイ装置303に表示させることもできる。例えば、図3の3次元画像402は、観察対象物102の3次元画像を2Dディスプレイ装置303上で回転させ状態を示しているが、従来の実体顕微鏡でこのような状態を実現するためには、観察対象物102を傾けたり、あるいは、実体顕微鏡101そのものを傾けなければ、このような角度で観察することは不可能であった。また、一度それらの情報を取得すれば、実際に観察対象物102が実体顕微鏡101(ピント面)に載置されていなくても、過去に取得した情報を用いて、様々な角度から観察対象物102の観察が可能となる。   In the first embodiment, when the observer operates the input device 302 to instruct rotation of the three-dimensional observation image of the observation object 102 displayed in three dimensions in an arbitrary direction, the three-dimensional observation is performed. The image generation unit 314 can generate a three-dimensional observation image when the three-dimensional model is viewed from a viewpoint position corresponding to the rotation in the virtual space of the three-dimensional model, and can display the three-dimensional observation image on the 2D display device 303. For example, the 3D image 402 in FIG. 3 shows a state in which the 3D image of the observation object 102 is rotated on the 2D display device 303. In order to realize such a state with a conventional stereomicroscope, FIG. If the observation object 102 is not tilted or the stereoscopic microscope 101 itself is not tilted, it is impossible to observe at such an angle. Moreover, once such information is acquired, the observation object can be observed from various angles using the information acquired in the past even if the observation object 102 is not actually placed on the stereomicroscope 101 (focus plane). 102 can be observed.

これにより、観察者は、任意の方向から観察対象物102を観察することができる。この操作方法としては、入力装置302により、例えば、「Zキー」+「マウスドラッグ」が操作された場合は、「パン操作」とし、「Xキー」+「マウスドラッグ」が操作された場合は、「回転操作」とし、「Cキー」+「マウスドラッグ」が操作された場合は、「ズーム操作」等とすることができる。また、勿論、2Dディスプレイ装置303に操作用のGUIとして、「パン操作」、「回転操作」、「ズーム操作」などの各操作を専用のツールバーとして表示し、入力装置302により選択させるようにしてもよい。   Thereby, the observer can observe the observation object 102 from arbitrary directions. As the operation method, for example, when “Z key” + “mouse drag” is operated by the input device 302, “pan operation” is selected, and when “X key” + “mouse drag” is operated, If “C key” + “Mouse drag” is operated, “Zoom operation” or the like can be performed. Also, of course, each operation such as “pan operation”, “rotation operation”, and “zoom operation” is displayed as a dedicated toolbar on the 2D display device 303 as an operation GUI, and is selected by the input device 302. Also good.

また、実体顕微鏡101の照明方法は、図2に示される例に限定されるものではなく、任意の方法を採用することができる。例えば、図11に示されるように、左右にLEDアレイ511LおよびLEDアレイ511Rを備えるLEDアレイ光源装置501を、対物レンズ115の取付部に取付けて、左斜め上方向および右斜め上方向から照明光を観察対象物102に照射するようにしてもよい。   Moreover, the illumination method of the stereomicroscope 101 is not limited to the example shown in FIG. 2, and an arbitrary method can be adopted. For example, as shown in FIG. 11, an LED array light source device 501 including an LED array 511L and an LED array 511R on the left and right is attached to the attachment portion of the objective lens 115, and illumination light is emitted from the upper left direction and the upper right direction. May be irradiated to the observation object 102.

また、照明光を照射する方向は、図2および図11に示されるように左右の2方向に限定されるものではなく、例えば、3方向以上の方向から照明光を観察対象物102に照射するようにして、各照明光の光量または分光分布を制御するようにしてもよい。   Further, the direction of irradiating the illumination light is not limited to the left and right directions as shown in FIGS. 2 and 11, and for example, the illumination object 102 is irradiated with the illumination light from three or more directions. In this way, the light quantity or spectral distribution of each illumination light may be controlled.

また、コントロールボックス301と外部記録装置(不図示)とを接続して、左観察画像401Lと、右目用の右観察画像401Rから生成された3次元モデルを保存しておくことで、観察終了後に、保存された3次元モデルから観察対象物102の3次元観察画像を生成して表示することも可能となる。また、この保存の際には、第2の実施の形態で説明した、垂直視したときの垂直視画像を保存しておくようにしてもよい。これにより、例えば、観察し忘れた角度から観察対象物102を再度観察するといったことが可能となる。   Further, by connecting the control box 301 and an external recording device (not shown) and storing the left observation image 401L and the three-dimensional model generated from the right eye right observation image 401R, the observation is completed. It is also possible to generate and display a three-dimensional observation image of the observation object 102 from the stored three-dimensional model. Further, at the time of saving, the vertically viewed image when viewed vertically as described in the second embodiment may be stored. Thereby, for example, the observation object 102 can be observed again from an angle for which observation has been forgotten.

また、第4の実施の形態においては、3Dディスプレイ装置306として、裸眼立体視ディスプレイ装置を用いて左右両眼用画像を観察する例を示したが、本発明は、3D眼鏡等を用いて左右両眼用画像を観察する場合にも適用することができる。   In the fourth embodiment, an example of observing left and right binocular images using an autostereoscopic display device as the 3D display device 306 has been shown. However, the present invention uses left and right eyeglasses and the like. The present invention can also be applied when observing a binocular image.

なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the steps for describing a program are not only processes performed in time series in the order described, but also processes that are executed in parallel or individually even if they are not necessarily processed in time series. Is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

101 実体顕微鏡, 102 観察対象物, 151 対物レンズ, 152L,152R アフォーカルズーム系, 153L,153R 結像レンズ, 154L,154R 偏向素子, 155L,155R 接眼レンズ, 161L,161R 撮影ユニット, 171L,171R 撮像素子, 301 コントロールボックス, 302 入力装置, 303 2Dディスプレイ装置, 304 パーソナルコンピュータ, 306 3Dディスプレイ装置, 311 画像取得部, 312 奥行き量演算部, 313 3次元モデル生成部, 314 3次元観察画像生成部, 315 画像出力部, 316 CADデータ変換部   101 stereo microscope, 102 observation object, 151 objective lens, 152L, 152R afocal zoom system, 153L, 153R imaging lens, 154L, 154R deflecting element, 155L, 155R eyepiece, 161L, 161R imaging unit, 171L, 171R imaging Element 301 control box 302 input device 303 2D display device 304 personal computer 306 3D display device 311 image acquisition unit 312 depth amount calculation unit 313 3D model generation unit 314 3D observation image generation unit 315 Image output unit, 316 CAD data conversion unit

Claims (8)

観察対象物を拡大観察する実体顕微鏡の左右眼光路上に配置された撮像手段により撮像された左右一対の観察画像を取得する画像取得手段と、
取得された前記左右一対の観察画像に基づいて、前記左右一対の観察画像の対応する各位置における、前記実体顕微鏡の中心軸に対する奥行き量を演算する演算手段と、
対応する各位置ごとに演算された前記奥行き量に基づいて、前記観察対象物に対応する3次元モデルを生成する3次元モデル生成手段と、
生成された前記3次元モデルに基づいて、前記観察対象物の3次元観察用の画像である3次元観察画像を生成する3次元観察画像生成手段と
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a pair of left and right observation images imaged by an imaging means arranged on the left and right eye optical paths of a stereomicroscope for observing an observation object in an enlarged manner;
Based on the acquired pair of left and right observation images, calculation means for calculating a depth amount with respect to the central axis of the stereomicroscope at each corresponding position of the pair of left and right observation images;
Three-dimensional model generation means for generating a three-dimensional model corresponding to the observation object based on the depth amount calculated for each corresponding position;
An image processing apparatus comprising: a three-dimensional observation image generation unit configured to generate a three-dimensional observation image that is an image for three-dimensional observation of the observation object based on the generated three-dimensional model.
生成された前記3次元観察画像を、表示装置に出力する画像出力手段をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising image output means for outputting the generated three-dimensional observation image to a display device.
前記表示装置は、画像を平面的に表示する平面像表示装置であり、
前記3次元観察画像生成手段は、前記3次元観察画像として、前記平面像表示装置において3次元表示される3次元画像を生成し、
前記画像出力手段は、生成された前記3次元画像を前記平面像表示装置に出力する
ことを特徴とする請求項2に記載の画像処理装置。
The display device is a flat image display device that displays an image in a plane,
The three-dimensional observation image generation unit generates a three-dimensional image displayed three-dimensionally on the planar image display device as the three-dimensional observation image,
The image processing apparatus according to claim 2, wherein the image output unit outputs the generated three-dimensional image to the planar image display device.
前記3次元観察画像生成手段は、前記観察対象物を前記実体顕微鏡の中心軸に沿った方向から垂直視したときの垂直視画像を生成し、
前記画像出力手段は、生成された前記垂直視画像を前記平面像表示装置に出力する
ことを特徴とする請求項3に記載の画像処理装置。
The three-dimensional observation image generation means generates a vertical view image when the observation object is viewed vertically from a direction along the central axis of the stereomicroscope,
The image processing apparatus according to claim 3, wherein the image output unit outputs the generated vertical view image to the planar image display device.
前記表示装置は、画像を立体的に表示する立体像表示装置であり、
前記3次元観察画像生成手段は、前記3次元観察画像として、前記立体像表示装置において立体視可能となる左右両眼用の2次元画像である左右両眼用画像を生成し、
前記画像出力手段は、生成された前記左右両眼用画像を前記立体像表示装置に出力する
ことを特徴とする請求項2に記載の画像処理装置。
The display device is a stereoscopic image display device that stereoscopically displays an image,
The three-dimensional observation image generating means generates a left and right binocular image that is a two-dimensional image for left and right eyes that can be stereoscopically viewed in the stereoscopic image display device as the three-dimensional observation image
The image processing apparatus according to claim 2, wherein the image output unit outputs the generated left and right binocular images to the stereoscopic image display apparatus.
前記3次元モデルまたは前記3次元観察画像のデータを3次元CADデータに変換する変換手段をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising conversion means for converting the data of the three-dimensional model or the three-dimensional observation image into three-dimensional CAD data.
前記画像処理装置は、前記実体顕微鏡の制御を行う顕微鏡用制御装置である
ことを特徴とする請求項1から6の何れか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, wherein the image processing apparatus is a microscope control apparatus that controls the stereomicroscope.
画像処理装置が、
観察対象物を拡大観察する実体顕微鏡の左右眼光路上に配置された撮像手段により撮像された左右一対の観察画像を取得し、
取得された前記左右一対の観察画像に基づいて、前記左右一対の観察画像の対応する各位置における、前記実体顕微鏡の中心軸に対する奥行き量を演算し、
対応する各位置ごとに演算された前記奥行き量に基づいて、前記観察対象物に対応する3次元モデルを生成し、
生成された前記3次元モデルに基づいて、前記観察対象物の3次元観察用の画像である3次元観察画像を生成する
ステップを含むことを特徴とする画像処理方法。
The image processing device
Acquire a pair of left and right observation images imaged by imaging means arranged on the left and right eye optical path of the stereomicroscope that magnifies the observation object,
Based on the acquired pair of left and right observation images, calculate the depth amount with respect to the central axis of the stereomicroscope at each corresponding position of the pair of left and right observation images,
Based on the depth amount calculated for each corresponding position, a three-dimensional model corresponding to the observation object is generated,
An image processing method comprising: generating a three-dimensional observation image, which is an image for three-dimensional observation of the observation object, based on the generated three-dimensional model.
JP2010181230A 2010-08-13 2010-08-13 Image processing device and its method Withdrawn JP2012042524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010181230A JP2012042524A (en) 2010-08-13 2010-08-13 Image processing device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010181230A JP2012042524A (en) 2010-08-13 2010-08-13 Image processing device and its method

Publications (1)

Publication Number Publication Date
JP2012042524A true JP2012042524A (en) 2012-03-01

Family

ID=45898971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010181230A Withdrawn JP2012042524A (en) 2010-08-13 2010-08-13 Image processing device and its method

Country Status (1)

Country Link
JP (1) JP2012042524A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056060A (en) * 2012-09-11 2014-03-27 Keyence Corp Optical microscope
JP2016206652A (en) * 2015-04-21 2016-12-08 オリンパス株式会社 Imaging method of three-dimensional structure of sample and microscope device
JP2016212349A (en) * 2015-05-13 2016-12-15 オリンパス株式会社 Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
CN109031642A (en) * 2018-09-14 2018-12-18 广州弥德科技有限公司 A kind of display methods and system and device of general stereoscopic micro- Glassless

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056060A (en) * 2012-09-11 2014-03-27 Keyence Corp Optical microscope
JP2016206652A (en) * 2015-04-21 2016-12-08 オリンパス株式会社 Imaging method of three-dimensional structure of sample and microscope device
JP2016212349A (en) * 2015-05-13 2016-12-15 オリンパス株式会社 Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
CN109031642A (en) * 2018-09-14 2018-12-18 广州弥德科技有限公司 A kind of display methods and system and device of general stereoscopic micro- Glassless
CN109031642B (en) * 2018-09-14 2020-08-14 广州弥德科技有限公司 Universal stereoscopic microscopic naked eye visualization display method and system device

Similar Documents

Publication Publication Date Title
EP3821289B1 (en) Systems and methods for display binocular deformation compensation
JP7219242B2 (en) Beam angle sensor in virtual/augmented reality systems
JP2023081930A (en) Augmented reality displays with active alignment and corresponding methods
RU2519518C2 (en) Stereoscopic image generator, method for stereoscopic image generator, and programme
JP2009300268A (en) Three-dimensional information detection device
WO2013175899A1 (en) Stereoscopic endoscope device
RU2689971C2 (en) Stereoscopic imaging device
JP2015060071A (en) Image display device, image display method, and image display program
WO2011145311A1 (en) Displaying apparatus and displaying method
JP2012042524A (en) Image processing device and its method
JP2011053564A (en) Display device and imaging device
CN112526763A (en) Light field 3D display device and driving method thereof
JP2842735B2 (en) Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof
JP4970798B2 (en) Stereoscopic image observation device
JP2013009864A (en) Three-dimensional image processing device
JP2011215176A (en) Image processing apparatus and method
JP7379704B2 (en) System and method for integrating visualization camera and optical coherence tomography
JP2005351916A (en) Binocular microscope device
Choo et al. Real-time pupil tracking backlight system for holographic 3D display
JP2006340017A (en) Device and method for stereoscopic video image display
JP5868055B2 (en) Image processing apparatus and image processing method
JP2011158644A (en) Display device
KR101883883B1 (en) method for glass-free hologram display without flipping images
JP6813936B2 (en) Ray 3D capture camcorders and televisions that move or move televisions, parallel ray filter devices, leveled liquid crystals or optical cells to generate real images formed on the anterior and posterior surfaces of the television. A parallel ray filter having a set of movable lenses including a multifocal soft lens, a method for obtaining the device.
Duarte et al. Single shot plenoptic optical imaging inspection of a head-up display: projection distance, astigmatism, field curvature, and distortions

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131105