JP2015220643A - Stereoscopic observation device - Google Patents

Stereoscopic observation device Download PDF

Info

Publication number
JP2015220643A
JP2015220643A JP2014103661A JP2014103661A JP2015220643A JP 2015220643 A JP2015220643 A JP 2015220643A JP 2014103661 A JP2014103661 A JP 2014103661A JP 2014103661 A JP2014103661 A JP 2014103661A JP 2015220643 A JP2015220643 A JP 2015220643A
Authority
JP
Japan
Prior art keywords
image
unit
observation
stereoscopic
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014103661A
Other languages
Japanese (ja)
Inventor
大石 悟
Satoru Oishi
悟 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2014103661A priority Critical patent/JP2015220643A/en
Publication of JP2015220643A publication Critical patent/JP2015220643A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic observation device that is capable of easily switching a stereoscopic image display and a planar image display of an observation site according to a user's instruction.SOLUTION: A stereoscopic observation device has a first imaging part for picking up a first observation image from a first direction, a second imaging part for picking up a second observation image from a second direction different from the first direction, a housing for holding the first imaging part and the second imaging part integrally, a parallax image generator 51 for generating a first parallax image and a second parallax image on the basis of the first observation image and the second observation image, a switching instruction accepting part 52 for accepting a user's switching instruction whether a stereoscopic image is displayed or a planar image is displayed, and an image composite part 53 for displaying the stereoscopic image by displaying the first parallax image and the second parallax image on 3D display devices 33, 18 when the stereoscopic image display is instructed, and displaying the planar image on the 3D display devices 33, 18 when the planar image display is instructed.

Description

本発明の実施形態は、立体観察装置に関する。   Embodiments described herein relate generally to a stereoscopic observation apparatus.

最近、観察対象物に対して互いに視差を有する2つの画像を撮像し、撮像したそれぞれの画像をユーザの左右の眼に導くことにより、ユーザが観察対象物の立体画像を知覚ことができるようにする立体観察技術が開発されている。   Recently, two images having parallax with respect to the observation object are captured, and the captured images are guided to the left and right eyes of the user so that the user can perceive a stereoscopic image of the observation object. Stereoscopic observation technology has been developed.

この種の立体観察技術を用いた観察装置は、医療分野に適用することができ、たとえば細かい術部の観察下で繊細かつ高度な技術での処置を行うことが求められる内視鏡や実体顕微鏡を用いた外科手術などに好適である。   An observation apparatus using this kind of stereoscopic observation technology can be applied to the medical field, for example, an endoscope or a stereomicroscope that is required to perform a delicate and advanced technique under observation of a fine surgical site. It is suitable for a surgical operation using

特開2001−46399号公報JP 2001-46399 A

しかし、ユーザは、立体画像を知覚しつづけると、目に大きな負担を感じてしまい、手技の効率が低下してしまう場合がある。一方、観察対象物を平面画像で確認するよう観察装置を構成すると、立体画像により得られる観察対象物の奥行方向の前後の情報を失ってしまう。   However, if the user continues to perceive the stereoscopic image, the user may feel a heavy burden on the eyes and the efficiency of the procedure may be reduced. On the other hand, if the observation apparatus is configured to confirm the observation object with a planar image, the information before and after the depth direction of the observation object obtained by the stereoscopic image is lost.

本発明の一実施形態に係る立体観察装置は、上述した課題を解決するために、第1の方向から被検体の観察部位の第1観察画像を撮像する第1撮像部と、前記第1の方向と異なる第2の方向から前記観察部位の第2観察画像を撮像する第2撮像部と、前記第1撮像部および前記第2撮像部を一体的に保持する筐体と、前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する視差画像生成部と、ユーザから前記観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付ける切替指示受付部と、前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像を3Dディスプレイ装置に表示させて立体画像を表示させる一方、前記平面画像表示するよう指示されると、前記第1視差画像および前記第2視差画像のいずれかにもとづく平面画像を前記3Dディスプレイ装置に表示させる画像合成部と、を備えたものである。   In order to solve the above-described problem, a stereoscopic observation apparatus according to an embodiment of the present invention includes a first imaging unit that captures a first observation image of an observation site of a subject from a first direction, and the first imaging unit. A second imaging unit that captures a second observation image of the observation site from a second direction different from the direction, a housing that integrally holds the first imaging unit and the second imaging unit, and the first observation A parallax image generation unit that generates a first parallax image and a second parallax image based on the image and the second observation image, and a switch that receives a switching instruction from the user to display the observation site as a stereoscopic image or a planar image When instructed to display the stereoscopic image by the instruction receiving unit, the first parallax image and the second parallax image are displayed on the 3D display device to display the stereoscopic image, while the planar image is displayed. Ru , In which and an image synthesizing unit for displaying a plane image based on either the first parallax image and the second parallax image to the 3D display device.

本発明の第1実施形態に係る立体観察装置の一例を示す全体構成図。1 is an overall configuration diagram showing an example of a stereoscopic observation apparatus according to a first embodiment of the present invention. 顕微鏡部の内部構成例を概略的に示すブロック図。The block diagram which shows roughly the example of an internal structure of a microscope part. 第1実施形態に係る第1撮像部および第2撮像部の一例を示す構成図。FIG. 3 is a configuration diagram illustrating an example of a first imaging unit and a second imaging unit according to the first embodiment. 画像処理部により観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替える際の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure at the time of switching easily the stereo image display and planar image display of an observation site | part according to a user's instruction | indication by an image process part. 第1実施形態に係る画像処理部の内部構成例を概略的に示すブロック図。FIG. 2 is a block diagram schematically showing an internal configuration example of an image processing unit according to the first embodiment. 表示内容に対するユーザ指示を受け付けるための指示受付画像の一例を示す説明図。Explanatory drawing which shows an example of the instruction | indication reception image for receiving the user instruction | indication with respect to the display content. (a)は顕微鏡部に複数の接眼部が設けられる場合の例を示す説明図、(b)は顕微鏡部に接眼部および3D表示部が設けられる場合の例を示す説明図。(A) is explanatory drawing which shows the example in case a some eyepiece part is provided in a microscope part, (b) is explanatory drawing which shows the example in case an eyepiece part and 3D display part are provided in a microscope part. 本発明の第2実施形態に係る立体観察装置の一例を示す全体構成図。The whole block diagram which shows an example of the stereoscopic observation apparatus which concerns on 2nd Embodiment of this invention. 図8のIX部を拡大して示す説明図。Explanatory drawing which expands and shows the IX part of FIG. 第2実施形態に係る画像処理部の内部構成例を概略的に示すブロック図。FIG. 9 is a block diagram schematically showing an internal configuration example of an image processing unit according to a second embodiment. 第2実施形態に係る画像処理部のピント調整処理を説明するための図。The figure for demonstrating the focus adjustment process of the image process part which concerns on 2nd Embodiment.

本発明に係る立体観察装置の実施の形態について、添付図面を参照して説明する。   An embodiment of a stereoscopic observation apparatus according to the present invention will be described with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1実施形態に係る立体観察装置10の一例を示す全体構成図である。
(First embodiment)
FIG. 1 is an overall configuration diagram illustrating an example of a stereoscopic observation apparatus 10 according to the first embodiment of the present invention.

立体観察装置10は、図1に示すように、顕微鏡部11を有する。本実施形態に係る顕微鏡部11は、いわゆる実体顕微鏡である。   The stereoscopic observation apparatus 10 has a microscope unit 11 as shown in FIG. The microscope unit 11 according to the present embodiment is a so-called stereo microscope.

顕微鏡部11は、第1の方向12および第2の方向13の2方向からそれぞれ被検体Oを撮像する。本実施形態に係る立体観察装置10は、2方向から撮像した画像データを顕微鏡部11の内部で画像処理するとともに、基台14の内部に設けられた画像処理部15で画像処理する。顕微鏡部11と基台14とは、多関節アーム16で接続される。基台14上には、入力部17およびモニタ用3Dディスプレイ装置18が配置される。   The microscope unit 11 images the subject O from the two directions of the first direction 12 and the second direction 13. The stereoscopic observation apparatus 10 according to this embodiment performs image processing on image data captured from two directions inside the microscope unit 11 and image processing using an image processing unit 15 provided inside the base 14. The microscope unit 11 and the base 14 are connected by an articulated arm 16. An input unit 17 and a monitor 3D display device 18 are disposed on the base 14.

入力部17は、たとえばマウス、トラックボール、キーボード、タッチパネル、テンキーや、音声入力用のマイクロフォンなどの一般的な入力装置により構成され、ユーザの操作に対応した操作入力信号を画像処理部15に出力する。なお、入力部17としてマイクロフォンを用いる場合、マイクロフォンはユーザによって入力された音声をデジタル音声信号に変換する。画像処理部15は、このデジタル音声信号を音声認識処理することによりユーザの入力した音声に応じた動作を行う。   The input unit 17 is configured by a general input device such as a mouse, a trackball, a keyboard, a touch panel, a numeric keypad, and a voice input microphone, and outputs an operation input signal corresponding to a user operation to the image processing unit 15. To do. In addition, when using a microphone as the input part 17, a microphone converts the audio | voice input by the user into a digital audio | voice signal. The image processing unit 15 performs an operation corresponding to the voice input by the user by performing voice recognition processing on the digital voice signal.

なお、本実施形態に係る画像処理部15は、顕微鏡部11の内部および基台14の内部の少なくとも一方に設けられる。以下の説明では、同様の画像処理機能を有する画像処理部15mおよび15が顕微鏡部11の内部および基台14の内部の両方に設けられる場合の例について示す。   Note that the image processing unit 15 according to the present embodiment is provided in at least one of the inside of the microscope unit 11 and the inside of the base 14. In the following description, an example in which the image processing units 15m and 15 having the same image processing function are provided both inside the microscope unit 11 and inside the base 14 will be described.

顕微鏡部11は筐体20を有する。この筐体20には、顕微鏡部11の内部で表示される画像をユーザが観察するための接眼部21が付設される。接眼部21は、左目用観察部21Lおよび右目用観察部21Rを有する。   The microscope unit 11 has a housing 20. The case 20 is provided with an eyepiece 21 for a user to observe an image displayed inside the microscope unit 11. The eyepiece unit 21 includes a left-eye observation unit 21L and a right-eye observation unit 21R.

また、筐体20には、ユーザが立体画像表示と平面画像表示とを切り替える指示を与えるための切替スイッチ22と、ユーザが表示画像のピントの調整指示を与えるためのピント調整部23とが付設される。また、筐体20には、顕微鏡部11を移動させることにより顕微鏡部11と被検体Oとの相対位置関係を変更するための持ち手24が付設される。   Further, the housing 20 is provided with a changeover switch 22 for giving a user an instruction to switch between stereoscopic image display and flat image display, and a focus adjusting unit 23 for giving a user an instruction to adjust the focus of the display image. Is done. The housing 20 is provided with a handle 24 for changing the relative positional relationship between the microscope unit 11 and the subject O by moving the microscope unit 11.

図2は、顕微鏡部11の内部構成例を概略的に示すブロック図である。   FIG. 2 is a block diagram schematically illustrating an internal configuration example of the microscope unit 11.

顕微鏡部11は、画像処理部15m、筐体20、接眼部21、切替スイッチ22、ピント調整部23のほか、第1撮像部31、第2撮像部32、内蔵の3Dディスプレイ装置33、駆動部34および距離センサ35を有する。   The microscope unit 11 includes an image processing unit 15m, a housing 20, an eyepiece unit 21, a changeover switch 22, a focus adjustment unit 23, a first imaging unit 31, a second imaging unit 32, a built-in 3D display device 33, and a drive. The unit 34 and the distance sensor 35 are included.

図3は、第1実施形態に係る第1撮像部31および第2撮像部32の一例を示す構成図である。図3には、第1撮像部31および第2撮像部32が共焦点光学系により構成される場合の例について示した。   FIG. 3 is a configuration diagram illustrating an example of the first imaging unit 31 and the second imaging unit 32 according to the first embodiment. FIG. 3 shows an example in which the first imaging unit 31 and the second imaging unit 32 are configured by a confocal optical system.

第1撮像部31は、第1の方向12から被検体Oの観察部位の画像(以下、第1観察画像という)を撮像する。第1撮像部31は、第1の方向12に沿った光軸を有する第1方向光学系41および第1検出部42を有する。共焦点光学系を構成する場合、図3に示すように、第1方向光学系41は光源43を有する。   The first imaging unit 31 captures an image of an observation site of the subject O (hereinafter referred to as a first observation image) from the first direction 12. The first imaging unit 31 includes a first direction optical system 41 having an optical axis along the first direction 12 and a first detection unit 42. When configuring a confocal optical system, the first direction optical system 41 has a light source 43 as shown in FIG.

第2撮像部32は、第1の方向12と異なる第2の方向13から観察部位の画像(以下、第2観察画像という)を撮像する。第2撮像部32は、第2の方向13に沿った光軸を有する第2方向光学系44および第2検出部45を有する。また、第2方向光学系44は光源46を有する。第1方向光学系41および第2方向光学系44は、いわゆる拡大光学系や広角光学系を構成する。   The second imaging unit 32 captures an image of an observation site (hereinafter referred to as a second observation image) from a second direction 13 different from the first direction 12. The second imaging unit 32 includes a second direction optical system 44 having an optical axis along the second direction 13 and a second detection unit 45. The second direction optical system 44 has a light source 46. The first direction optical system 41 and the second direction optical system 44 constitute a so-called magnifying optical system or wide angle optical system.

第1撮像部31および第2撮像部32は、筐体20に一体的に保持される。なお、第1撮像部31の構成と同等な第2撮像部32の構成については、その説明を省略する。   The first imaging unit 31 and the second imaging unit 32 are integrally held by the housing 20. Note that the description of the configuration of the second imaging unit 32 equivalent to the configuration of the first imaging unit 31 is omitted.

光源43としては、たとえばハロゲンランプやレーザなどを用いることができる。光源43から出射された光は、照明レンズを介して面状の照明光束となる。この光は、偏光ビームスプリッタを介して被検体Oに投光されつつ被検体側の集光点に集光される。   As the light source 43, for example, a halogen lamp or a laser can be used. The light emitted from the light source 43 becomes a planar illumination light beam through the illumination lens. This light is focused on the subject-side condensing point while being projected onto the subject O via the polarization beam splitter.

観察部位の表面による反射光のうち被検体側の集光点における反射光は、対物レンズおよび結像レンズにより、被検体側の集光点と光学的共役関係にある点(像側集光点)に集光される。像側集光点に設けられた開口を通過した光は、第1検出部42を構成する撮像素子に入射する。   Of the reflected light from the surface of the observation site, the reflected light at the subject-side condensing point is optically conjugate with the subject-side condensing point by the objective lens and the imaging lens (image-side condensing point). ). The light that has passed through the aperture provided at the image-side condensing point is incident on the image sensor that constitutes the first detection unit 42.

第1検出部42は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成されて、照射された光の強度に応じた信号を画像処理部15mおよび基台14内部の画像処理部15に出力する。   The first detection unit 42 is configured by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and sends a signal corresponding to the intensity of irradiated light to the inside of the image processing unit 15 m and the base 14. To the image processing unit 15.

接眼部21は、筐体20に付設された左目用観察部21Lおよび右目用観察部21Rを有する。左目用観察部21Lおよび右目用観察部21Rは、内蔵3Dディスプレイ装置33に表示される左目用視差画像(第1視差画像)および右目用視差画像(第2視差画像)のそれぞれの表示方向に応じた位置に設けられる。ユーザは、接眼部21を介して内蔵3Dディスプレイ装置33を見込むことにより、内蔵3Dディスプレイ装置33に表示された第1視差画像および第2視差画像にもとづいて立体画像を知覚することができる。   The eyepiece unit 21 includes a left-eye observation unit 21L and a right-eye observation unit 21R attached to the housing 20. The left-eye observation unit 21L and the right-eye observation unit 21R correspond to the display directions of the left-eye parallax image (first parallax image) and the right-eye parallax image (second parallax image) displayed on the built-in 3D display device 33, respectively. It is provided at the position. The user can perceive a stereoscopic image based on the first parallax image and the second parallax image displayed on the built-in 3D display device 33 by looking at the built-in 3D display device 33 via the eyepiece unit 21.

切替スイッチ22は、ユーザにより操作可能な位置に設けられ、ユーザから観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付け、この指示情報を画像処理部15および15mに与える。図1には、切替スイッチ22が筐体20の側面に付設される場合の例を示した。なお、この切り替え指示は、入力部17を介して画像処理部15および15mに与えられてもよい。   The changeover switch 22 is provided at a position that can be operated by the user, receives a change instruction from the user to display the observation site as a stereoscopic image or a flat image, and gives this instruction information to the image processing units 15 and 15m. FIG. 1 shows an example in which the changeover switch 22 is attached to the side surface of the housing 20. The switching instruction may be given to the image processing units 15 and 15m via the input unit 17.

ピント調整部23は、ユーザにより操作可能な位置に設けられ、ユーザから内蔵3Dディスプレイ装置33に表示された画像に対するピント調整指示を受け付け、この指示情報を画像処理部15および15mに与える。図1には、ピント調整部23が筐体20の側面に付設される場合の例を示した。なお、このピント調整指示は、入力部17を介して画像処理部15および15mに与えられてもよい。   The focus adjustment unit 23 is provided at a position operable by the user, receives a focus adjustment instruction for an image displayed on the built-in 3D display device 33 from the user, and gives the instruction information to the image processing units 15 and 15m. FIG. 1 shows an example in which the focus adjustment unit 23 is attached to the side surface of the housing 20. The focus adjustment instruction may be given to the image processing units 15 and 15m via the input unit 17.

モニタ用3Dディスプレイ装置18は、眼鏡方式の3Dディスプレイでもよいし、専用の眼鏡を必要としない裸眼方式の3Dディスプレイでもよい。眼鏡方式では、画像処理部15および15mから出力される左目用視差画像(第1視差画像)と右目用視差画像(第2視差画像)の2つの視差画像を、偏光フィルタ付の眼鏡や液晶シャッタ付の眼鏡で分離することにより、立体物の奥行き感を観察者に与える。   The monitor 3D display device 18 may be a glasses-type 3D display or a naked-eye 3D display that does not require dedicated glasses. In the eyeglass system, two parallax images, a left-eye parallax image (first parallax image) and a right-eye parallax image (second parallax image) output from the image processing units 15 and 15m, are converted into glasses with a polarizing filter or a liquid crystal shutter. By separating with attached glasses, the viewer feels the depth of the three-dimensional object.

裸眼方式の3Dディスプレイは、左目用視差画像と右目用視差画像の2つの視差画像、あるいはさらに多視差(たとえば9視差)方向に分解した視差画像群を、レンチキュラーレンズと呼ばれるシリンドリカルレンズで複数の視差方向に振り分ける。この結果、専用の眼鏡なしでも立体物の奥行き感を観察者に与えることができる。また、裸眼方式の3Dディスプレイの場合には、観察者がディスプレイ装置の周りを移動した場合に、あたかも実際の立体物を周りこんで観察したかのような立体感を観察者に与えることもできる。   A naked-eye 3D display has two parallax images, a parallax image for a left eye and a parallax image for a right eye, or a parallax image group further decomposed in a multi-parallax (for example, 9 parallax) direction with a cylindrical lens called a lenticular lens. Sort in the direction. As a result, it is possible to give a viewer a sense of depth of a three-dimensional object without using dedicated glasses. In the case of a naked-eye 3D display, when an observer moves around the display device, it is possible to give the observer a stereoscopic effect as if he / she observed an actual three-dimensional object. .

内蔵3Dディスプレイ装置33もまた、眼鏡方式の3Dディスプレイでもよいし、専用の眼鏡を必要としない裸眼方式の3Dディスプレイでもよい。なお、内蔵3Dディスプレイ装置33は、ユーザにより接眼部21を介して見込まれる。このため、内蔵3Dディスプレイ装置33を眼鏡方式とする場合は、接眼部21に対して偏光フィルタや液晶シャッタを設けるとよい。   The built-in 3D display device 33 may also be a glasses-based 3D display or a naked-eye 3D display that does not require dedicated glasses. The built-in 3D display device 33 is expected by the user via the eyepiece unit 21. For this reason, when the built-in 3D display device 33 is a glasses system, a polarizing filter or a liquid crystal shutter may be provided for the eyepiece unit 21.

画像処理部15および15mは、CPU、RAMおよびROMをはじめとする記憶媒体などにより構成される。画像処理部15のCPUは、ROMをはじめとする記憶媒体に記憶された画像生成プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替えるための処理を実行する。   The image processing units 15 and 15m are constituted by a storage medium such as a CPU, a RAM, and a ROM. The CPU of the image processing unit 15 loads an image generation program stored in a storage medium such as a ROM and data necessary for executing this program into the RAM, and displays a stereoscopic image display and a plane of the observation site according to this program. A process for easily switching the image display in accordance with a user instruction is executed.

画像処理部15および15mのRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。画像処理部15および15mのROMをはじめとする記憶媒体は、画像処理プログラムを実行するために必要な各種データを記憶する。   The RAMs of the image processing units 15 and 15m provide a work area for temporarily storing programs and data executed by the CPU. The storage medium such as the ROM of the image processing units 15 and 15m stores various data necessary for executing the image processing program.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network.

ここで、本実施形態に係る画像処理部15mの動作の概要について簡単に説明する。   Here, an outline of the operation of the image processing unit 15m according to the present embodiment will be briefly described.

図4は、画像処理部15mにより観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替える際の手順の一例を示すフローチャートである。図4において、Sに数字を付した符号はフローチャートの各ステップを示す。   FIG. 4 is a flowchart illustrating an example of a procedure when the image processing unit 15m easily switches between the stereoscopic image display and the planar image display of the observation site in accordance with a user instruction. In FIG. 4, reference numerals with numbers added to S indicate steps in the flowchart.

まず、ステップS1において、画像処理部15mは、観察部位の第1の方向12および第2の方向13のそれぞれから撮像した第1観察画像および第2観察画像を取得する。   First, in step S1, the image processing unit 15m acquires a first observation image and a second observation image captured from the first direction 12 and the second direction 13 of the observation region, respectively.

次に、ステップS2において、画像処理部15mは、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に立体画像を表示させる(3D表示させる)べきか、平面画像を表示させる(2D表示させる)べきか、のユーザからの切り替え指示を受け付ける。3D表示させるべき場合はステップS3に進む。一方、2D表示させるべき場合はステップS4に進む。   Next, in step S2, the image processing unit 15m should display a stereoscopic image (3D display) on the built-in 3D display device 33 and the monitor 3D display device 18, or display a planar image (2D display). Or a switching instruction from the user. If 3D display is to be performed, the process proceeds to step S3. On the other hand, if 2D display is to be performed, the process proceeds to step S4.

次に、ステップS3において、画像処理部15mは、少なくとも観察部位の画像を立体画像として、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。   Next, in step S <b> 3, the image processing unit 15 m displays at least the image of the observation region on the built-in 3D display device 33 and the monitor 3D display device 18 as a stereoscopic image.

一方、ステップS4では、画像処理部15mは、少なくとも観察部位の画像を平面画像として、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。平面画像として表示する場合、左目用視差画像(第1視差画像)と右目用視差画像(第2視差画像)は第1撮像部31あるいは第2撮像部32のどちらか一方で撮影されたものになる。   On the other hand, in step S4, the image processing unit 15m displays at least the image of the observation region on the built-in 3D display device 33 and the monitor 3D display device 18 as a planar image. When displaying as a planar image, the parallax image for the left eye (first parallax image) and the parallax image for the right eye (second parallax image) are taken by either the first imaging unit 31 or the second imaging unit 32. Become.

次に、ステップS5において、画像処理部15mは一連の手順を終了すべきか否か(たとえばユーザから入力部17を介して処理終了指示を受けた否か)を判定し、終了すべきでない場合はステップS1に戻り、終了すべき場合は一連の手順は終了となる。   Next, in step S5, the image processing unit 15m determines whether or not to end a series of procedures (for example, whether or not a processing end instruction has been received from the user via the input unit 17). Returning to step S1, if it should be terminated, the series of procedures is terminated.

なお、ステップS2−4において、内蔵3Dディスプレイ装置33とモニタ用3Dディスプレイ装置18とで異なる次元の画像をユーザの指示に応じて表示させてもよい。また、立体観察装置10が画像処理部15を備える場合は、上記ステップS3およびS4の処理においてモニタ用3Dディスプレイ装置18に係る動作は画像処理部15により実行されてもよい。また、立体観察装置10が画像処理部15を備えるとともに画像処理部15mを備えない場合は、上記の手順は画像処理部15により実行されて画像処理部15がモニタ用3Dディスプレイ装置18および内蔵3Dディスプレイ装置33の表示制御を行ってもよい。   In step S2-4, the built-in 3D display device 33 and the monitor 3D display device 18 may display images of different dimensions in accordance with a user instruction. When the stereoscopic observation apparatus 10 includes the image processing unit 15, the operation related to the monitor 3D display device 18 may be executed by the image processing unit 15 in the processes of steps S <b> 3 and S <b> 4. When the stereoscopic observation apparatus 10 includes the image processing unit 15 and does not include the image processing unit 15m, the above-described procedure is executed by the image processing unit 15, and the image processing unit 15 includes the monitor 3D display device 18 and the built-in 3D. Display control of the display device 33 may be performed.

以上の手順により、観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替えることができる。   With the above procedure, the stereoscopic image display and the planar image display of the observation site can be easily switched according to the user's instruction.

このため、本実施形態に係る立体観察装置10によれば、ユーザは、自身の目の負担と観察部位の奥行き情報の必要性との両者を考慮しつつ、任意のタイミングで容易に観察部位の画像の平面画像表示および立体画像表示を切り替えることができるため、非常に利便性が高い。   For this reason, according to the stereoscopic observation apparatus 10 according to the present embodiment, the user can easily change the observation site at any timing while considering both the burden on the eyes of the user and the necessity of the depth information of the observation site. Since the planar image display and the stereoscopic image display of the image can be switched, it is very convenient.

また、平面画像表示のみが可能な場合に比べ、立体画像表示により観察部位の奥行き情報を容易に得ることができるため、ユーザは正確かつ迅速な手技を行うことができるとともに、手技対象の被検体Oの負担を軽減することができる。また、立体画像表示のみが可能な場合に比べ、ユーザは立体画像表示による目の疲労を覚えた時に容易に平面画像表示に切り替えることができるため、ユーザの負担を大幅に低減することができる。   In addition, since the depth information of the observation site can be easily obtained by the stereoscopic image display as compared with the case where only the planar image display is possible, the user can perform an accurate and quick procedure and the subject to be processed The burden of O can be reduced. In addition, compared to a case where only stereoscopic image display is possible, the user can easily switch to planar image display when he / she feels fatigue of eyes due to stereoscopic image display, so that the burden on the user can be greatly reduced.

続いて、本実施形態に係る画像処理部15mの詳細について説明する。   Next, details of the image processing unit 15m according to the present embodiment will be described.

図5は、第1実施形態に係る画像処理部15mの内部構成例を概略的に示すブロック図である。なお、この内部構成の一部または全部はCPUの機能実現部として構成されてもよいし、回路などのハードウエアロジックによって構成してもよい。また、画像処理部15の構成については画像処理部15mの構成と同等であるため説明を省略する。   FIG. 5 is a block diagram schematically illustrating an internal configuration example of the image processing unit 15m according to the first embodiment. A part or all of the internal configuration may be configured as a CPU function realization unit, or may be configured by hardware logic such as a circuit. Further, the configuration of the image processing unit 15 is the same as the configuration of the image processing unit 15m, and thus the description thereof is omitted.

また、図6は、表示内容に対するユーザ指示を受け付けるための指示受付画像50の一例を示す説明図である。   FIG. 6 is an explanatory diagram showing an example of an instruction reception image 50 for receiving a user instruction for display content.

画像処理部15mは、基本構成として少なくとも視差画像生成部51、切替指示受付部52、画像合成部53を有する。   The image processing unit 15m includes at least a parallax image generation unit 51, a switching instruction reception unit 52, and an image composition unit 53 as a basic configuration.

視差画像生成部51は、第1撮像部31により得られた第1観察画像および第2撮像部32により得られた第2観察画像を取得し(図4のステップS1参照)、これらの観察画像にもとづいて、左目用視差画像(第1視差画像)および右目用視差画像(第2視差画像)を生成する。   The parallax image generation unit 51 acquires the first observation image obtained by the first imaging unit 31 and the second observation image obtained by the second imaging unit 32 (see step S1 in FIG. 4), and these observation images. Based on this, a left-eye parallax image (first parallax image) and a right-eye parallax image (second parallax image) are generated.

また、第1撮像部31および第2撮像部32は、広角レンズや魚眼レンズなどの広画角撮像用レンズを用いて広画角撮像可能に構成されてもよい。この場合、視差画像生成部51は、広画角撮像用レンズに起因する歪みを補正してから、第1観察画像および第2観察画像にもとづいて左目用視差画像および右目用視差画像を生成してもよい(歪み補正処理)。   Further, the first imaging unit 31 and the second imaging unit 32 may be configured to be capable of wide-angle imaging using a wide-angle imaging lens such as a wide-angle lens or a fisheye lens. In this case, the parallax image generation unit 51 corrects distortion caused by the wide-angle imaging lens, and then generates a left-eye parallax image and a right-eye parallax image based on the first observation image and the second observation image. (Distortion correction processing).

切替指示受付部52は、ユーザから切替スイッチ22または入力部17を介して、観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付ける(図4のステップS2、図6参照)。   The switching instruction receiving unit 52 receives a switching instruction from the user via the changeover switch 22 or the input unit 17 to display the observation site as a stereoscopic image or a planar image (see step S2 and FIG. 6 in FIG. 4).

画像合成部53は、立体画像表示するよう指示されると、左目用視差画像および右目用視差画像を内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させて立体画像を表示させる(図4のステップS3参照)。また、画像合成部53は、平面画像表示するよう指示されると、左目用視差画像および右目用視差画像のいずれかにもとづく平面画像を内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる(図4のステップS4参照)。   When instructed to display a stereoscopic image, the image composition unit 53 displays the left-eye parallax image and the right-eye parallax image on the built-in 3D display device 33 and the monitor 3D display device 18 to display the stereoscopic image (FIG. 4). Step S3). Further, when instructed to display a planar image, the image composition unit 53 displays a planar image based on either the left-eye parallax image or the right-eye parallax image on the built-in 3D display device 33 and the monitor 3D display device 18. (See step S4 in FIG. 4).

また、画像合成部53は、立体画像表示するよう指示されると、一部のみを立体画像表示し、他の部分を平面画像表示してもよい(部分立体表示処理)。具体的には、画像合成部53は、撮像領域のうちの所定の領域については第1視差画像および第2視差画像の対応する領域同士を用いて内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に立体画像を表示させるとともに、撮像領域の所定の領域以外の領域については第1視差画像および第2視差画像のいずれかにもとづく平面画像を内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。   Further, when instructed to display a stereoscopic image, the image composition unit 53 may display only a part of the stereoscopic image and display another part of the planar image (partial stereoscopic display processing). Specifically, the image compositing unit 53 uses the corresponding regions of the first parallax image and the second parallax image for the predetermined region of the imaging region to use the built-in 3D display device 33 and the monitor 3D display device 18. A stereoscopic image is displayed on the screen, and a planar image based on either the first parallax image or the second parallax image is displayed on the built-in 3D display device 33 and the monitor 3D display device 18 for an area other than the predetermined area of the imaging area. Let

たとえば、第1撮像部31および第2撮像部32が広画角撮像可能に構成される場合、歪みが生じにくい撮像領域中心付近のみを立体画像表示するとよい。この場合、視差画像生成部51は歪み補正を行わずともよい。   For example, when the first imaging unit 31 and the second imaging unit 32 are configured to be capable of wide-angle imaging, it is preferable to display a stereoscopic image only in the vicinity of the imaging region center where distortion is unlikely to occur. In this case, the parallax image generation unit 51 may not perform distortion correction.

次に、ピント調整について簡単に説明する。ピント調整部23または入力部17を介してユーザからピント調整指示を受けつけた場合、画像処理部15および15mはソフトウエア的な画像処理によりピント調整を行うことが可能である。   Next, focus adjustment will be briefly described. When a focus adjustment instruction is received from the user via the focus adjustment unit 23 or the input unit 17, the image processing units 15 and 15m can perform focus adjustment by software image processing.

さらに、本実施形態に係る画像処理部15および15mは、駆動制御部54を有し、ピント調整指示が立体画像に対する指示であった場合、ハードウエア的な調整によりピント調整することができる。   Furthermore, the image processing units 15 and 15m according to the present embodiment include a drive control unit 54, and can perform focus adjustment by hardware adjustment when the focus adjustment instruction is an instruction for a stereoscopic image.

具体的には、駆動部34は、駆動制御部54により制御されて、第1方向光学系41と第2方向光学系44との相対位置関係を変更する。駆動制御部54は、立体画像に対するピント調整指示をピント調整部23または入力部17を介してユーザから受け付けると、第1の方向12と第2の方向13のなす角θを変更することで立体画像のピントを調整するよう、駆動部34を制御する。   Specifically, the drive unit 34 is controlled by the drive control unit 54 to change the relative positional relationship between the first direction optical system 41 and the second direction optical system 44. When the drive control unit 54 receives a focus adjustment instruction for the stereoscopic image from the user via the focus adjustment unit 23 or the input unit 17, the drive control unit 54 changes the angle θ formed by the first direction 12 and the second direction 13 to change the stereoscopic image. The drive unit 34 is controlled to adjust the focus of the image.

駆動制御部54によれば、第1方向光学系41と第2方向光学系44との相対位置関係を変更することにより立体画像のピント調整を行うことができる。なお内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18の一部を注目領域として特定し、その部位が左目用視差画像および右目用視差画像でどこに位置するかを同定し、その左目用視差画像および右目用視差画像での位置ズレ情報を用いて半自動的にピント調整を行ってもよい。   According to the drive control unit 54, the stereoscopic image can be focused by changing the relative positional relationship between the first direction optical system 41 and the second direction optical system 44. It should be noted that a part of the built-in 3D display device 33 and the monitor 3D display device 18 is specified as a region of interest, where the part is located in the left-eye parallax image and the right-eye parallax image, and the left-eye parallax image and The focus adjustment may be performed semi-automatically using position shift information in the parallax image for the right eye.

続いて、観察部位の立体画像および平面画像とレンダリング画像との重畳表示について説明する。   Subsequently, a superimposed display of the stereoscopic image of the observation site and the planar image and the rendering image will be described.

画像処理部15mは、外部の医用3次元画像データ(ボリュームデータ)にもとづくレンダリング画像を、観察部位の立体画像および平面画像に重畳表示可能に構成されてもよい。この場合、画像処理部15mはネットワーク接続部55およびレンダリング部56をさらに有する。   The image processing unit 15m may be configured so that a rendering image based on external medical three-dimensional image data (volume data) can be superimposed and displayed on a stereoscopic image and a planar image of the observation site. In this case, the image processing unit 15m further includes a network connection unit 55 and a rendering unit 56.

ネットワーク接続部55は、ネットワーク100の形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部55は、この各種プロトコルに従って立体観察装置10とモダリティ101などの他の装置とを接続する。ここでネットワーク100とは、電気通信技術を利用した情報通信網全般を意味し、病院基幹LAN(Local Area Network)などの無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   The network connection unit 55 implements various information communication protocols according to the form of the network 100. The network connection unit 55 connects the stereoscopic observation apparatus 10 and another apparatus such as the modality 101 according to these various protocols. Here, the network 100 means an entire information communication network using telecommunications technology. In addition to a wireless / wired LAN such as a hospital basic LAN (Local Area Network) and an Internet network, a telephone communication line network, an optical fiber communication network. Cable communication networks and satellite communication networks.

立体観察装置10は、ネットワーク100を介して接続されたモダリティ101や画像サーバ102から医療用のボリュームデータ(医用3次元画像データ)を受ける。モダリティ101から出力されるボリュームデータや再構成画像データは、ネットワーク100を介して受信されて図示しない記憶媒体に記憶される。   The stereoscopic observation apparatus 10 receives medical volume data (medical three-dimensional image data) from the modality 101 and the image server 102 connected via the network 100. Volume data and reconstructed image data output from the modality 101 are received via the network 100 and stored in a storage medium (not shown).

モダリティ101は、たとえばX線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置、X線診断装置などの医用画像診断装置であって、被検体Oの撮像により得られた投影データにもとづいてボリュームデータ(医用3次元画像データ)を生成可能な装置により構成することができる。   The modality 101 is a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, or an X-ray diagnostic apparatus, and is obtained by imaging an object O. It can be configured by a device capable of generating volume data (medical three-dimensional image data) based on projection data.

画像サーバ102は、たとえばPACS(Picture Archiving and Communication System:医用画像保管通信システム)に備えられる画像の長期保管用のサーバであり、ネットワーク100を介して接続されたX線CT装置、磁気共鳴イメージング装置、超音波診断装置、X線診断装置などのモダリティ101で生成されたボリュームデータや再構成画像などを記憶している。   The image server 102 is a server for long-term storage of images provided in, for example, a PACS (Picture Archiving and Communication System), and is an X-ray CT apparatus and a magnetic resonance imaging apparatus connected via the network 100. In addition, volume data generated by the modality 101 such as an ultrasonic diagnostic apparatus and an X-ray diagnostic apparatus, a reconstructed image, and the like are stored.

レンダリング部56は、ネットワーク100を介して取得した被検体Oのボリュームデータにもとづいて、観察部位のボリュームレンダリング画像を生成する。画像合成部53は、立体画像および平面画像に対してボリュームレンダリング画像を重畳して、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。   The rendering unit 56 generates a volume rendering image of the observation site based on the volume data of the subject O acquired via the network 100. The image composition unit 53 superimposes the volume rendering image on the stereoscopic image and the planar image, and displays them on the built-in 3D display device 33 and the monitor 3D display device 18.

より具体的には、画像合成部53は、骨、脳表、血管などの特徴点を関連付けることにより、第1視差画像および第2視差画像ならびにボリュームレンダリング画像の位置合わせを行う。特徴点は、表示された画像上に対するユーザによる入力操作により指定されてもよいし、あらかじめ登録された特徴点を画像合成部53が各画像から抽出することにより自動設定されてもよい。   More specifically, the image synthesis unit 53 performs alignment of the first parallax image, the second parallax image, and the volume rendering image by associating feature points such as bones, brain tables, and blood vessels. The feature points may be specified by an input operation by the user on the displayed image, or may be automatically set by the image composition unit 53 extracting pre-registered feature points from each image.

また、レンダリング部56は、手技に係る注目箇所の情報(手術対象領域や血管などの危険部位領域など)がボリュームデータに付帯されている場合、この注目箇所を強調表示するようボリュームレンダリング画像を生成してもよい。   In addition, the rendering unit 56 generates a volume rendering image so as to highlight the attention location when the information on the attention location related to the technique (such as a surgical target region or a dangerous region such as a blood vessel) is attached to the volume data. May be.

また、レンダリング部56は、ボリュームレンダリング画像を立体表示可能なように、ボリュームデータにもとづいて、第1の方向12および第2の方向13のそれぞれに対応するボリュームレンダリング画像を生成してもよい。この場合、画像合成部53は、立体画像表示するよう指示されると、第1視差画像および第2視差画像と、対応する方向のボリュームレンダリング画像と、をそれぞれ合成して内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させて立体画像を表示させる。なお、ユーザによる指示に応じて、観察部位の平面画像に対してボリュームレンダリング画像の立体画像を重畳してもよい。   Further, the rendering unit 56 may generate volume rendering images corresponding to the first direction 12 and the second direction 13 based on the volume data so that the volume rendering image can be stereoscopically displayed. In this case, when instructed to display a stereoscopic image, the image synthesis unit 53 synthesizes the first parallax image and the second parallax image and the volume rendering image in the corresponding direction, respectively, and the built-in 3D display device 33 and A 3D image is displayed on the monitor 3D display device 18. Note that a stereoscopic image of the volume rendering image may be superimposed on the planar image of the observation site in accordance with a user instruction.

また、画像合成部53は、ボリュームレンダリング画像に対して所定の透過率(透明度)を与えてもよい。この透過率は、ユーザにより入力部17を介して設定されてもよい。   Further, the image composition unit 53 may give a predetermined transmittance (transparency) to the volume rendering image. This transmittance may be set by the user via the input unit 17.

レンダリング画像を重畳表示する場合、ユーザは第1撮像部31および第2撮像部32により撮像された観察部位の表面画像から得られる情報に加え、レンダリング画像から得られる観察部位の表面の奥に存在する部位の情報を得ることができる。また、ボリュームデータから得られる注目箇所がレンダリング画像において強調表示される場合、ユーザは観察部位の表面の奥に存在する血管や危険部位などの情報を容易に得ることができる。
続いて、距離情報の表示について説明する。
When displaying the rendered image in a superimposed manner, the user exists in the back of the surface of the observation site obtained from the rendering image in addition to the information obtained from the surface image of the observation site captured by the first imaging unit 31 and the second imaging unit 32 Information on the part to be performed can be obtained. In addition, when the attention location obtained from the volume data is highlighted in the rendering image, the user can easily obtain information such as blood vessels and danger sites that exist in the back of the surface of the observation site.
Next, the display of distance information will be described.

画像処理部15mは、観察部位の立体画像および平面画像に対して、各種の距離を示す画像(距離情報画像)を重畳表示可能に構成されてもよい。この場合、画像処理部15mは、距離算出部57および距離情報画像生成部58をさらに有し、距離センサ35の出力にもとづいて距離情報画像を表示する。なお、距離情報画像の表示が不要な場合、立体観察装置10は、距離センサ35、距離算出部57および距離情報画像生成部58を備えずともよい。   The image processing unit 15m may be configured so that images (distance information images) indicating various distances can be superimposed and displayed on the stereoscopic image and the planar image of the observation site. In this case, the image processing unit 15m further includes a distance calculation unit 57 and a distance information image generation unit 58, and displays a distance information image based on the output of the distance sensor 35. When the display of the distance information image is unnecessary, the stereoscopic observation apparatus 10 may not include the distance sensor 35, the distance calculation unit 57, and the distance information image generation unit 58.

距離センサ35は、第1方向光学系41および第2方向光学系44の被検体O側の先端近傍に設けられる。距離センサ35は、筐体20の被検体側の端部から観察部位の表面の所定位置までの距離に応じた信号を出力する。   The distance sensor 35 is provided in the vicinity of the distal end of the first direction optical system 41 and the second direction optical system 44 on the subject O side. The distance sensor 35 outputs a signal corresponding to the distance from the end of the housing 20 on the subject side to a predetermined position on the surface of the observation site.

距離算出部57は、距離センサ35の出力を用いて筐体20の被検体側の端部から観察部位の表面の所定位置(たとえば脳表上の被検体側集光点)までの距離を求める。距離情報画像生成部58は、この表面までの距離を示す画像を生成する。画像合成部53は、立体画像および平面画像に対して表面までの距離を示す画像を重畳させて、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。   The distance calculation unit 57 uses the output of the distance sensor 35 to determine the distance from the subject-side end of the housing 20 to a predetermined position on the surface of the observation site (for example, the subject-side condensing point on the brain surface). . The distance information image generation unit 58 generates an image indicating the distance to the surface. The image composition unit 53 superimposes an image indicating the distance to the surface on the stereoscopic image and the planar image, and displays them on the built-in 3D display device 33 and the monitor 3D display device 18.

また、画像処理部15mがレンダリング部56を備え、手技に係る注目箇所の情報がボリュームデータに付帯されている場合、距離算出部57は、レンダリング画像中の注目箇所を抽出し、観察部位の表面の所定位置から注目箇所までの距離を求めてもよい(図6参照)。この場合、距離情報画像生成部58は、この注目箇所までの距離を示す画像を生成する。画像合成部53は、立体画像および平面画像に対して注目箇所までの距離を示す画像を重畳させて、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。   In addition, when the image processing unit 15m includes the rendering unit 56, and information on the attention location related to the procedure is attached to the volume data, the distance calculation portion 57 extracts the attention location in the rendered image, and the surface of the observation region. The distance from the predetermined position to the point of interest may be obtained (see FIG. 6). In this case, the distance information image generation unit 58 generates an image indicating the distance to this point of interest. The image composition unit 53 superimposes an image indicating the distance to the target location on the stereoscopic image and the planar image, and causes the built-in 3D display device 33 and the monitor 3D display device 18 to display them.

また、距離算出部57は、第1検出部42および第2検出部45から第1観察画像および第2観察画像を取得してもよい。この場合、距離算出部57は、第1観察画像および第2観察画像中に含まれる治療デバイス(カテーテルや鉗子など)の所定箇所(カテーテルや鉗子の先端やマーカなど)を抽出し、観察部位の表面の所定位置から所定箇所までの距離を求める。この場合、距離情報画像生成部58は、この治療デバイスの所定箇所までの距離を示す画像を生成する。画像合成部53は、立体画像および平面画像に対して治療デバイスの所定箇所までの距離を示す画像を重畳させて、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。   Further, the distance calculation unit 57 may acquire the first observation image and the second observation image from the first detection unit 42 and the second detection unit 45. In this case, the distance calculation unit 57 extracts a predetermined portion (the tip of the catheter, forceps, a marker, etc.) of the treatment device (catheter, forceps, etc.) included in the first observation image and the second observation image, and A distance from a predetermined position on the surface to a predetermined position is obtained. In this case, the distance information image generation unit 58 generates an image indicating the distance to the predetermined portion of the treatment device. The image composition unit 53 superimposes an image indicating the distance to the predetermined location of the treatment device on the stereoscopic image and the planar image, and displays the superimposed image on the built-in 3D display device 33 and the monitor 3D display device 18.

距離センサ35、距離算出部57および距離情報画像生成部58によれば、ユーザは容易に筐体20の被検体側の端部から観察部位の表面の所定位置までの距離を知ることができる。また、レンダリング画像中の注目箇所までの距離を示す画像を表示する場合、ユーザは観察部位の立体画像および表面画像では確認することができない位置にある注目箇所までの距離を容易に把握することができる。また、たとえば鉗子の先端から観察部位の表面までの距離を示す画像を表示する場合、ユーザは不意に観察部位の表面を傷つける弊害を未然に防ぐことができる。   According to the distance sensor 35, the distance calculation unit 57, and the distance information image generation unit 58, the user can easily know the distance from the end of the housing 20 on the subject side to a predetermined position on the surface of the observation site. In addition, when displaying an image indicating the distance to the point of interest in the rendered image, the user can easily grasp the distance to the point of interest at a position that cannot be confirmed from the stereoscopic image and the surface image of the observation site. it can. Further, for example, when displaying an image indicating the distance from the tip of the forceps to the surface of the observation site, the user can prevent the adverse effect of unexpectedly damaging the surface of the observation site.

また、画像処理部15mはさらに、距離算出部57により求められた距離が所定の閾値以下であると、スピーカを介した音声出力およびブザー出力、ならびに内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に対する警告表示の少なくとも1つによりユーザに警告を行う警告部59をさらに備えてもよい。警告表示を行う場合、警告部59は、たとえば内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に対して危険である旨を示す文字情報を表示してもよいし、閾値以下となった注目箇所の位置を囲む枠を表示してもよい。このとき、枠や枠内領域を赤色などで塗りつぶしてもよいし枠や枠内領域または画像全体を点滅させてもよい。   In addition, when the distance obtained by the distance calculation unit 57 is equal to or smaller than a predetermined threshold, the image processing unit 15m further outputs an audio output and a buzzer output via a speaker, and the built-in 3D display device 33 and the monitor 3D display device 18. A warning unit 59 that warns the user by at least one of warning indications for the above may be further provided. When performing warning display, for example, the warning unit 59 may display character information indicating that the built-in 3D display device 33 and the monitor 3D display device 18 are dangerous. A frame surrounding the position may be displayed. At this time, the frame or the area inside the frame may be painted in red or the like, or the frame, the area within the frame, or the entire image may be blinked.

本実施形態に係る立体観察装置10によれば、観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替えることができる。   According to the stereoscopic observation apparatus 10 according to the present embodiment, the stereoscopic image display and the planar image display of the observation site can be easily switched according to a user instruction.

なお、顕微鏡部11は、複数のユーザにより同時に観察部位の観察が可能に構成されてもよい。図7(a)は顕微鏡部11に複数の接眼部21が設けられる場合の例を示す説明図であり、(b)は顕微鏡部11に接眼部21および3D表示部60が設けられる場合の例を示す説明図である。画像合成部53が複数の接眼部21のそれぞれや3D表示部60に同様の画像を出力することにより、複数のユーザにより同時に観察部位の観察が可能となる。   Note that the microscope unit 11 may be configured so that a plurality of users can simultaneously observe an observation site. FIG. 7A is an explanatory diagram showing an example in which a plurality of eyepieces 21 are provided in the microscope unit 11, and FIG. 7B is a case in which the eyepieces 21 and the 3D display unit 60 are provided in the microscope unit 11. It is explanatory drawing which shows the example of. When the image composition unit 53 outputs the same image to each of the plurality of eyepiece units 21 and the 3D display unit 60, it is possible to simultaneously observe the observation site by a plurality of users.

(第2の実施形態)
次に、本発明に係る立体観察装置の第2実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the stereoscopic observation apparatus according to the present invention will be described.

図8は、本発明の第2実施形態に係る立体観察装置10Aの一例を示す全体構成図である。なお、第1実施形態に係る立体観察装置10と同じ構成については同一符号を付して説明を省略する。   FIG. 8 is an overall configuration diagram showing an example of a stereoscopic observation apparatus 10A according to the second embodiment of the present invention. In addition, about the same structure as the stereoscopic observation apparatus 10 which concerns on 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

立体観察装置10Aは、図1に示すように、顕微鏡部11Aを有する。本実施形態に係る顕微鏡部11Aは、いわゆる内視鏡である。   As shown in FIG. 1, the stereoscopic observation apparatus 10 </ b> A includes a microscope unit 11 </ b> A. The microscope unit 11A according to the present embodiment is a so-called endoscope.

顕微鏡部11Aは筐体20Aを有する。この筐体20Aには、ユーザが立体画像表示と平面画像表示とを切り替える指示を与えるための切替スイッチ22Aが付設される。筐体20Aの胴部は持ち手24Aとして機能する。また、筐体20Aの一部は挿入部70を形成する。   The microscope unit 11A has a housing 20A. The housing 20A is provided with a changeover switch 22A for giving an instruction for the user to switch between stereoscopic image display and planar image display. The trunk of the housing 20A functions as a handle 24A. A part of the housing 20 </ b> A forms an insertion portion 70.

本実施形態に係る画像処理部15Aは、顕微鏡部11の内部に設けられず基台14の内部に設けられる。基台14には、光源43Aが設けられ、光源43Aが出射した光は光ファイバなどの導光材に導かれて挿入部70の先端から被検体Oの観察部位を照明する。   The image processing unit 15 </ b> A according to the present embodiment is provided not in the microscope unit 11 but in the base 14. The base 14 is provided with a light source 43 </ b> A, and light emitted from the light source 43 </ b> A is guided to a light guide material such as an optical fiber to illuminate an observation site of the subject O from the distal end of the insertion portion 70.

図9は、図8のIX部を拡大して示す説明図である。図9に示すように、顕微鏡部11A(内視鏡)の挿入部70の先端には、第1方向光学系41Aの先端および第2方向光学系44Aの先端にそれぞれ広画角撮像用レンズ71および72が取り付けられる。挿入部70が細く形成される場合、このように広画角撮像用レンズ71および72を用いるとよい。この場合、第1方向光学系41Aおよび第2方向光学系44Aは、たとえば光ファイバなどの導光材により構成される。   FIG. 9 is an explanatory diagram showing the IX portion of FIG. 8 in an enlarged manner. As shown in FIG. 9, at the distal end of the insertion portion 70 of the microscope unit 11A (endoscope), the wide-angle imaging lens 71 is disposed at the distal end of the first direction optical system 41A and the distal end of the second direction optical system 44A, respectively. And 72 are attached. When the insertion portion 70 is formed thin, it is preferable to use the wide-angle imaging lenses 71 and 72 as described above. In this case, the first direction optical system 41A and the second direction optical system 44A are configured by a light guide material such as an optical fiber, for example.

図10は、第2実施形態に係る画像処理部15Aの内部構成例を概略的に示すブロック図である。なお、この内部構成の一部または全部はCPUの機能実現部として構成されてもよいし、回路などのハードウエアロジックによって構成してもよい。   FIG. 10 is a block diagram schematically illustrating an internal configuration example of the image processing unit 15A according to the second embodiment. A part or all of the internal configuration may be configured as a CPU function realization unit, or may be configured by hardware logic such as a circuit.

図10に示すように、本実施形態に係る立体観察装置10Aは、ピント調整部23、内蔵3Dディスプレイ装置33、駆動部34および駆動制御部54を備えずともよい。   As illustrated in FIG. 10, the stereoscopic observation apparatus 10 </ b> A according to the present embodiment may not include the focus adjustment unit 23, the built-in 3D display device 33, the drive unit 34, and the drive control unit 54.

視差画像生成部51Aは、広画角撮像用レンズ71および72による歪みを補正して、第1検出部42Aおよび第2検出部45Aがそれぞれ出力した第1観察画像および第2観察画像にもとづいて第1視差画像および第2視差画像を生成する。   The parallax image generation unit 51A corrects distortion caused by the wide-angle imaging lenses 71 and 72, and is based on the first observation image and the second observation image output from the first detection unit 42A and the second detection unit 45A, respectively. A first parallax image and a second parallax image are generated.

本実施形態に係る画像処理部15Aは、歪み補正処理、部分立体表示処理、観察部位の立体画像および平面画像とレンダリング画像との重畳表示処理、距離情報の表示処理、警告処理について第1実施形態に係る画像処理部15および15mと同様であるためこれらの処理についての説明を省略する。   The image processing unit 15A according to the present embodiment includes a distortion correction process, a partial stereoscopic display process, a stereoscopic image of an observation site, a superimposed display process of a planar image and a rendering image, a distance information display process, and a warning process according to the first embodiment. Since these are the same as the image processing units 15 and 15m according to FIG.

本実施形態に係る画像処理部15Aのピント調整処理について説明する。   A focus adjustment process of the image processing unit 15A according to the present embodiment will be described.

図11は、第2実施形態に係る画像処理部15Aのピント調整処理を説明するための図である。   FIG. 11 is a diagram for explaining the focus adjustment process of the image processing unit 15A according to the second embodiment.

挿入部70が細く形成される場合、第1の方向12および第2の方向13をハードウエア的に変更することは難しい。そこで、本実施形態に係る視差画像生成部51Aは、第1観察画像および第2観察画像の少なくとも一方を用いて、第1の方向12および第2の方向13のいずれとも異なる仮想的な第3の方向80から観察部位を撮像した場合に対応する第3視差画像を生成する。そして、画像合成部53Aは、立体画像表示するよう指示されると、第1視差画像および第2視差画像のいずれかと第3視差画像とをモニタ用3Dディスプレイ装置18に表示させて立体画像を表示させる。   When the insertion portion 70 is formed thin, it is difficult to change the first direction 12 and the second direction 13 by hardware. Therefore, the parallax image generation unit 51A according to the present embodiment uses a virtual third image that is different from both the first direction 12 and the second direction 13 by using at least one of the first observation image and the second observation image. A third parallax image corresponding to the case where the observation site is imaged from the direction 80 is generated. Then, when instructed to display a stereoscopic image, the image synthesis unit 53A displays either the first parallax image or the second parallax image and the third parallax image on the monitor 3D display device 18 to display the stereoscopic image. Let

本実施形態に係る立体観察装置10Aは、第1実施形態に係る立体観察装置10と同様の効果を奏する。また、本実施形態に係る立体観察装置10Aは、仮想的な第3の方向80から観察部位を撮像した場合に対応する視差画像を生成することによりピント調整をすることができる。このため、挿入部70の経を細くすることができ、特に内視鏡に好適である。   The stereoscopic observation apparatus 10A according to the present embodiment has the same effects as the stereoscopic observation apparatus 10 according to the first embodiment. In addition, the stereoscopic observation apparatus 10A according to the present embodiment can perform focus adjustment by generating a parallax image corresponding to a case where an observation site is imaged from the virtual third direction 80. For this reason, the length of the insertion portion 70 can be reduced, and is particularly suitable for an endoscope.

なお、仮想的な第3の方向80から観察部位を撮像した場合に対応する視差画像を生成することによりピント調整をする方法は、第1実施形態に係る立体観察装置10のソフトウエア的なピント調整において用いられてもよい。   Note that the method of performing the focus adjustment by generating a parallax image corresponding to the case where the observation site is imaged from the virtual third direction 80 is the software focus of the stereoscopic observation apparatus 10 according to the first embodiment. It may be used in adjustment.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10、10A 立体観察装置
11、11A 顕微鏡部
12 第1の方向
13 第2の方向
15、15m、15A 画像処理部
17 入力部
18 モニタ用3Dディスプレイ装置
20、20A 筐体
21 接眼部
21L 左目用観察部
21R 右目用観察部
31 第1撮像部
32 第2撮像部
33 内蔵3Dディスプレイ装置
34 駆動部
35 距離センサ
41、41A 第1方向光学系
44、44A 第2方向光学系
51、51A 視差画像生成部
52 切替指示受付部
53、53A 画像合成部
54 駆動制御部
56 レンダリング部
57 距離算出部
59 警告部
70 挿入部
71、72 広画角撮像用レンズ
80 第3の方向
O 被検体
10, 10A Stereoscopic observation device 11, 11A Microscope unit 12 First direction 13 Second direction 15, 15m, 15A Image processing unit 17 Input unit 18 Monitor 3D display device 20, 20A Housing 21 Eyepiece 21L For left eye Observation unit 21R Right-eye observation unit 31 First imaging unit 32 Second imaging unit 33 Built-in 3D display device 34 Drive unit 35 Distance sensor 41, 41A First direction optical system 44, 44A Second direction optical system 51, 51A Parallax image generation Unit 52 switching instruction receiving unit 53, 53A image composition unit 54 drive control unit 56 rendering unit 57 distance calculation unit 59 warning unit 70 insertion unit 71, 72 wide-angle imaging lens 80 third direction O subject

Claims (14)

第1の方向から被検体の観察部位の第1観察画像を撮像する第1撮像部と、
前記第1の方向と異なる第2の方向から前記観察部位の第2観察画像を撮像する第2撮像部と、
前記第1撮像部および前記第2撮像部を一体的に保持する筐体と、
前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する視差画像生成部と、
ユーザから前記観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付ける切替指示受付部と、
前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像を3Dディスプレイ装置に表示させて立体画像を表示させる一方、前記平面画像表示するよう指示されると、前記第1視差画像および前記第2視差画像のいずれかにもとづく平面画像を前記3Dディスプレイ装置に表示させる画像合成部と、
を備えた立体観察装置。
A first imaging unit that images a first observation image of an observation site of the subject from a first direction;
A second imaging unit that images a second observation image of the observation region from a second direction different from the first direction;
A housing that integrally holds the first imaging unit and the second imaging unit;
A parallax image generation unit that generates a first parallax image and a second parallax image based on the first observation image and the second observation image;
A switching instruction receiving unit that receives a switching instruction to display the stereoscopic image display or planar image display of the observation site from a user;
When instructed to display the stereoscopic image, the first parallax image and the second parallax image are displayed on the 3D display device to display the stereoscopic image, while when instructed to display the planar image, An image compositing unit that causes the 3D display device to display a planar image based on one of the one parallax image and the second parallax image;
Stereoscopic observation device with
前記第1撮像部および前記第2撮像部の光学系の被検体側先端の近傍に設けられ、前記筐体の被検体側端部から前記観察部位の表面の所定位置までの距離に応じた信号を出力する距離センサと、
前記距離センサの出力を用いて前記筐体の被検体側端部から前記観察部位の表面の所定位置までの距離を求める距離算出部と、
をさらに備え、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記筐体の被検体側端部から前記観察部位の表面の所定位置までの距離を示す画像を重畳させて前記3Dディスプレイ装置に表示させる、
請求項1記載の立体観察装置。
A signal according to the distance from the subject-side end of the housing to a predetermined position on the surface of the observation site provided near the subject-side tip of the optical system of the first imaging unit and the second imaging unit A distance sensor that outputs
A distance calculation unit for obtaining a distance from a subject-side end of the housing to a predetermined position on the surface of the observation site using an output of the distance sensor;
Further comprising
The image composition unit
An image indicating a distance from a subject-side end of the housing to a predetermined position on the surface of the observation site is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device;
The stereoscopic observation apparatus according to claim 1.
前記被検体のボリュームデータにもとづいて前記観察部位のボリュームレンダリング画像を生成するレンダリング部、
をさらに備え、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記ボリュームレンダリング画像を重畳して前記3Dディスプレイ装置に表示させる、
請求項1または2に記載の立体観察装置。
A rendering unit that generates a volume rendering image of the observation site based on the volume data of the subject;
Further comprising
The image composition unit
The volume rendering image is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device.
The stereoscopic observation apparatus according to claim 1 or 2.
前記レンダリング部は、
前記ボリュームデータにもとづいて、前記第1の方向および前記第2の方向のそれぞれに対応するボリュームレンダリング画像を生成し、
前記画像合成部は、
前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像と、対応する方向の前記ボリュームレンダリング画像と、をそれぞれ合成して前記3Dディスプレイ装置に表示させて立体画像を表示させる、
請求項3記載の立体観察装置。
The rendering unit
Generating a volume rendering image corresponding to each of the first direction and the second direction based on the volume data;
The image composition unit
When instructed to display the stereoscopic image, the first parallax image and the second parallax image and the volume rendering image in the corresponding direction are respectively combined and displayed on the 3D display device to display the stereoscopic image. Display,
The stereoscopic observation apparatus according to claim 3.
前記距離算出部は、
前記レンダリング画像中の注目箇所を抽出し、この注目箇所から前記観察部位の表面の所定位置までの距離を求め、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記レンダリング画像中の前記注目箇所から前記観察部位の表面の所定位置までの距離を示す画像を重畳させて前記3Dディスプレイ装置に表示させる、
請求項2ないし4のいずれか1項に記載の立体観察装置。
The distance calculation unit
Extracting a point of interest in the rendered image, obtaining a distance from the point of interest to a predetermined position on the surface of the observation site,
The image composition unit
An image indicating a distance from the target location in the rendering image to a predetermined position on the surface of the observation site is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device.
The stereoscopic observation apparatus according to any one of claims 2 to 4.
前記距離算出部は、
前記第1観察画像および前記第2観察画像に含まれる治療デバイスの所定箇所を抽出し、この所定箇所から前記観察部位の表面の所定位置までの距離を求め、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記治療デバイスの前記所定箇所から前記観察部位の表面の所定位置までの距離を示す画像を重畳させて前記3Dディスプレイ装置に表示させる、
請求項2ないし5のいずれか1項に記載の立体観察装置。
The distance calculation unit
Extracting a predetermined portion of the treatment device included in the first observation image and the second observation image, and determining a distance from the predetermined portion to a predetermined position on the surface of the observation portion;
The image composition unit
An image indicating a distance from the predetermined location of the treatment device to a predetermined position on the surface of the observation site is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device.
The stereoscopic observation apparatus according to any one of claims 2 to 5.
前記距離算出部により求められた距離が所定の閾値以下であると、スピーカを介した音声出力およびブザー出力、ならびに前記3Dディスプレイ装置に対する警告表示の少なくとも1つによりユーザに警告を行う警告部、
をさらに備えた請求項2ないし6のいずれか1項に記載の立体観察装置。
A warning unit that warns the user by at least one of an audio output and a buzzer output via a speaker and a warning display for the 3D display device when the distance obtained by the distance calculation unit is equal to or less than a predetermined threshold;
The stereoscopic observation apparatus according to any one of claims 2 to 6, further comprising:
前記第1撮像部および前記第2撮像部のそれぞれは、
広画角撮像用レンズが取り付けられて前記筐体に一体的に保持され、
前記視差画像生成部は、
前記広画角撮像用レンズによる歪みを補正して、前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する、
請求項1ないし7のいずれか1項に記載の立体観察装置。
Each of the first imaging unit and the second imaging unit is
A wide-angle imaging lens is attached and held integrally with the housing,
The parallax image generation unit
Correcting distortion caused by the wide-angle imaging lens to generate a first parallax image and a second parallax image based on the first observation image and the second observation image;
The stereoscopic observation apparatus according to any one of claims 1 to 7.
前記視差画像生成部は、
前記第1観察画像および前記第2観察画像の少なくとも一方を用いて、前記第1の方向および前記第2の方向のいずれとも異なる仮想的な第3の方向から前記観察部位を撮像した場合に対応する第3視差画像を生成し、
前記画像合成部は、
前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像のいずれかと前記第3視差画像とを前記3Dディスプレイ装置に表示させて立体画像を表示させる、
請求項1ないし8のいずれか1項に記載の立体観察装置。
The parallax image generation unit
Corresponding to a case where the observation site is imaged from a virtual third direction different from both the first direction and the second direction using at least one of the first observation image and the second observation image. A third parallax image is generated,
The image composition unit
When instructed to display the stereoscopic image, the stereoscopic image is displayed by displaying either the first parallax image or the second parallax image and the third parallax image on the 3D display device;
The stereoscopic observation apparatus according to any one of claims 1 to 8.
前記画像合成部は、
前記立体画像表示するよう指示されると、撮像領域のうちの所定の領域については前記第1視差画像および前記第2視差画像の対応する領域同士を用いて前記3Dディスプレイ装置に立体画像を表示させるとともに前記撮像領域の前記所定の領域以外の領域については前記第1視差画像および前記第2視差画像のいずれかにもとづく平面画像を前記3Dディスプレイ装置に表示させる、
請求項1ないし9のいずれか1項に記載の立体観察装置。
The image composition unit
When instructed to display the stereoscopic image, for a predetermined region of the imaging region, the stereoscopic image is displayed on the 3D display device using the corresponding regions of the first parallax image and the second parallax image. And the 3D display device displays a planar image based on one of the first parallax image and the second parallax image for an area other than the predetermined area of the imaging area.
The stereoscopic observation apparatus according to any one of claims 1 to 9.
前記筐体に内蔵された前記3Dディスプレイ装置と、
前記筐体に付設され、前記筐体に内蔵された前記3Dディスプレイ装置に表示される前記第1視差画像および前記第2視差画像のそれぞれの表示方向に応じた位置に設けられた左目用観察部および右目用観察部からなる接眼部と、
をさらに備えた請求項1ないし10のいずれか1項に記載の立体観察装置。
The 3D display device built in the housing;
A left-eye observation unit attached to the housing and provided at a position corresponding to each display direction of the first parallax image and the second parallax image displayed on the 3D display device built in the housing. And an eyepiece composed of an observation part for the right eye,
The stereoscopic observation apparatus according to any one of claims 1 to 10, further comprising:
前記第1撮像部および前記第2撮像部は、
それぞれ前記第1の方向および前記第2の方向に沿った光軸を有する第1方向光学系および第2方向光学系を有し、
前記第1方向光学系および前記第2方向光学系の相対位置関係を変更するための駆動部と、
前記立体画像に対するピント調整指示をユーザから入力部を介して受け付けると、前記第1の方向および前記第2の方向との相対位置関係を変更することによりピントを調整するよう前記駆動部を制御する駆動制御部と、
をさらに備えた請求項11記載の立体観察装置。
The first imaging unit and the second imaging unit are:
A first directional optical system and a second directional optical system having optical axes along the first direction and the second direction, respectively.
A drive unit for changing a relative positional relationship between the first direction optical system and the second direction optical system;
When a focus adjustment instruction for the stereoscopic image is received from the user via the input unit, the drive unit is controlled to adjust the focus by changing the relative positional relationship between the first direction and the second direction. A drive control unit;
The stereoscopic observation apparatus according to claim 11, further comprising:
前記筐体は、
内視鏡を構成する挿入部であり、
前記第1撮像部および前記第2撮像部のそれぞれは、
広画角撮像用レンズが取り付けられて前記挿入部に一体的に保持され、
前記視差画像生成部は、
前記広画角撮像用レンズによる歪みを補正して、前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する、
請求項1ないし10のいずれか1項に記載の立体観察装置。
The housing is
An insertion part constituting an endoscope,
Each of the first imaging unit and the second imaging unit is
A wide-angle imaging lens is attached and held integrally with the insertion part,
The parallax image generation unit
Correcting distortion caused by the wide-angle imaging lens to generate a first parallax image and a second parallax image based on the first observation image and the second observation image;
The stereoscopic observation apparatus according to any one of claims 1 to 10.
前記筐体の外部に設けられたモニタ用の前記3Dディスプレイ装置、
をさらに備え、
前記画像合成部は、
前記筐体の外部に設けられたモニタ用の前記3Dディスプレイ装置に対して前記立体画像および前記平面画像を表示させる、
請求項1ないし13のいずれか1項に記載の立体観察装置。
The 3D display device for a monitor provided outside the housing;
Further comprising
The image composition unit
Displaying the stereoscopic image and the planar image on the 3D display device for a monitor provided outside the housing;
The stereoscopic observation apparatus according to any one of claims 1 to 13.
JP2014103661A 2014-05-19 2014-05-19 Stereoscopic observation device Pending JP2015220643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014103661A JP2015220643A (en) 2014-05-19 2014-05-19 Stereoscopic observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014103661A JP2015220643A (en) 2014-05-19 2014-05-19 Stereoscopic observation device

Publications (1)

Publication Number Publication Date
JP2015220643A true JP2015220643A (en) 2015-12-07

Family

ID=54779694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014103661A Pending JP2015220643A (en) 2014-05-19 2014-05-19 Stereoscopic observation device

Country Status (1)

Country Link
JP (1) JP2015220643A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6250257B1 (en) * 2016-06-27 2017-12-20 オリンパス株式会社 Endoscope device
WO2018003349A1 (en) * 2016-06-27 2018-01-04 オリンパス株式会社 Endoscopic device
JP2019025082A (en) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 Image processing apparatus, camera apparatus, and image processing method
JP2019029875A (en) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 Image processing apparatus, camera apparatus, and image processing method
JP2019029876A (en) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 Image processing apparatus, camera apparatus, and output control method
WO2020008672A1 (en) * 2018-07-03 2020-01-09 オリンパス株式会社 Endoscope system

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07260446A (en) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd Image processor
JPH0856891A (en) * 1994-08-23 1996-03-05 Olympus Optical Co Ltd Stereoscopic rigid endoscope
JP2000338416A (en) * 1999-05-31 2000-12-08 Asahi Optical Co Ltd Stereoscopic view microscope
JP2002065581A (en) * 2000-08-25 2002-03-05 Fuji Photo Film Co Ltd Endoscope device
JP2003260028A (en) * 2002-03-11 2003-09-16 Fuji Photo Optical Co Ltd Stereoscopic electronic endoscope device
JP2004337247A (en) * 2003-05-13 2004-12-02 Olympus Corp Three-dimensional observation system
JP2005278980A (en) * 2004-03-30 2005-10-13 Hitachi Medical Corp Endoscope apparatus
JP2006223476A (en) * 2005-02-16 2006-08-31 Olympus Corp Three-dimensional image observing device for medical use
JP2007007041A (en) * 2005-06-29 2007-01-18 Hitachi Medical Corp Surgery support
WO2009075268A1 (en) * 2007-12-11 2009-06-18 Mitaka Kohki Co., Ltd. Stereomicroscope
JP2012098449A (en) * 2010-11-01 2012-05-24 Mitaka Koki Co Ltd Stereoscopic image display device
JP2013022156A (en) * 2011-07-19 2013-02-04 Toshiba Corp Image processing system, device and method, and medical image diagnostic apparatus
JP2013144068A (en) * 2012-01-16 2013-07-25 Toshiba Corp Treatment support apparatus and control program
WO2013179905A1 (en) * 2012-05-30 2013-12-05 オリンパスメディカルシステムズ株式会社 Three-dimensional medical observation apparatus
JP2013244362A (en) * 2012-05-29 2013-12-09 Olympus Corp Stereoscopic endoscope system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07260446A (en) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd Image processor
JPH0856891A (en) * 1994-08-23 1996-03-05 Olympus Optical Co Ltd Stereoscopic rigid endoscope
JP2000338416A (en) * 1999-05-31 2000-12-08 Asahi Optical Co Ltd Stereoscopic view microscope
JP2002065581A (en) * 2000-08-25 2002-03-05 Fuji Photo Film Co Ltd Endoscope device
JP2003260028A (en) * 2002-03-11 2003-09-16 Fuji Photo Optical Co Ltd Stereoscopic electronic endoscope device
JP2004337247A (en) * 2003-05-13 2004-12-02 Olympus Corp Three-dimensional observation system
JP2005278980A (en) * 2004-03-30 2005-10-13 Hitachi Medical Corp Endoscope apparatus
JP2006223476A (en) * 2005-02-16 2006-08-31 Olympus Corp Three-dimensional image observing device for medical use
JP2007007041A (en) * 2005-06-29 2007-01-18 Hitachi Medical Corp Surgery support
WO2009075268A1 (en) * 2007-12-11 2009-06-18 Mitaka Kohki Co., Ltd. Stereomicroscope
JP2012098449A (en) * 2010-11-01 2012-05-24 Mitaka Koki Co Ltd Stereoscopic image display device
JP2013022156A (en) * 2011-07-19 2013-02-04 Toshiba Corp Image processing system, device and method, and medical image diagnostic apparatus
JP2013144068A (en) * 2012-01-16 2013-07-25 Toshiba Corp Treatment support apparatus and control program
JP2013244362A (en) * 2012-05-29 2013-12-09 Olympus Corp Stereoscopic endoscope system
WO2013179905A1 (en) * 2012-05-30 2013-12-05 オリンパスメディカルシステムズ株式会社 Three-dimensional medical observation apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6250257B1 (en) * 2016-06-27 2017-12-20 オリンパス株式会社 Endoscope device
WO2018003349A1 (en) * 2016-06-27 2018-01-04 オリンパス株式会社 Endoscopic device
CN109068954A (en) * 2016-06-27 2018-12-21 奥林巴斯株式会社 Endoscope apparatus
US10552948B2 (en) 2016-06-27 2020-02-04 Olympus Corporation Endoscope apparatus
CN109068954B (en) * 2016-06-27 2021-03-19 奥林巴斯株式会社 Endoscope device
JP2019025082A (en) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 Image processing apparatus, camera apparatus, and image processing method
JP2019029875A (en) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 Image processing apparatus, camera apparatus, and image processing method
JP2019029876A (en) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 Image processing apparatus, camera apparatus, and output control method
US11159781B2 (en) 2017-07-31 2021-10-26 Panasonic I-Pro Sensing Solutions Co., Ltd. Image processing apparatus, camera apparatus, and output control method
WO2020008672A1 (en) * 2018-07-03 2020-01-09 オリンパス株式会社 Endoscope system

Similar Documents

Publication Publication Date Title
US7768701B2 (en) Three-dimensional medical imaging apparatus
JP5284731B2 (en) Stereoscopic image display system
JP2023083547A (en) Image processing device, image processing method, and recording medium
JP2015220643A (en) Stereoscopic observation device
KR101476820B1 (en) 3D video microscope
JP6908039B2 (en) Image processing equipment, image processing methods, programs, and image processing systems
JPWO2016208246A1 (en) Medical stereoscopic observation apparatus, medical stereoscopic observation method, and program
JP6666467B2 (en) Medical observation device and control method
JP6296365B2 (en) Surgical endoscope camera control unit
US11612317B2 (en) Ophthalmic surgery using light-field microscopy
WO2013179855A1 (en) Stereoscopic endoscope system
JP2006208407A (en) Microscopic system for observing stereoscopic picture
JP2018156073A (en) Operation microscope having image sensor and display and method for operating operation microscope
WO2019073814A1 (en) Focal point detection device, method therefor, and program
JPWO2017169014A1 (en) Medical stereoscopic observation apparatus, medical stereoscopic observation method, and program
US10855980B2 (en) Medical-image display control device, medical image display device, medical-information processing system, and medical-image display control method
JP2018152657A (en) Medical image display device, medical information processing system, and medical image display control method
JP6996883B2 (en) Medical observation device
WO2018179875A1 (en) Image capturing device, focus control method and focus determination method
EP4328648A1 (en) Digital microscope for medical procedure
US20210076023A1 (en) Medical image processing apparatus
JP2004233480A (en) Stereoscopic endoscope system
JP2012189689A (en) Photographed image composition and display device, and image composition and presentation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180911