JP2015220643A - Stereoscopic observation device - Google Patents
Stereoscopic observation device Download PDFInfo
- Publication number
- JP2015220643A JP2015220643A JP2014103661A JP2014103661A JP2015220643A JP 2015220643 A JP2015220643 A JP 2015220643A JP 2014103661 A JP2014103661 A JP 2014103661A JP 2014103661 A JP2014103661 A JP 2014103661A JP 2015220643 A JP2015220643 A JP 2015220643A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- observation
- stereoscopic
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明の実施形態は、立体観察装置に関する。 Embodiments described herein relate generally to a stereoscopic observation apparatus.
最近、観察対象物に対して互いに視差を有する2つの画像を撮像し、撮像したそれぞれの画像をユーザの左右の眼に導くことにより、ユーザが観察対象物の立体画像を知覚ことができるようにする立体観察技術が開発されている。 Recently, two images having parallax with respect to the observation object are captured, and the captured images are guided to the left and right eyes of the user so that the user can perceive a stereoscopic image of the observation object. Stereoscopic observation technology has been developed.
この種の立体観察技術を用いた観察装置は、医療分野に適用することができ、たとえば細かい術部の観察下で繊細かつ高度な技術での処置を行うことが求められる内視鏡や実体顕微鏡を用いた外科手術などに好適である。 An observation apparatus using this kind of stereoscopic observation technology can be applied to the medical field, for example, an endoscope or a stereomicroscope that is required to perform a delicate and advanced technique under observation of a fine surgical site. It is suitable for a surgical operation using
しかし、ユーザは、立体画像を知覚しつづけると、目に大きな負担を感じてしまい、手技の効率が低下してしまう場合がある。一方、観察対象物を平面画像で確認するよう観察装置を構成すると、立体画像により得られる観察対象物の奥行方向の前後の情報を失ってしまう。 However, if the user continues to perceive the stereoscopic image, the user may feel a heavy burden on the eyes and the efficiency of the procedure may be reduced. On the other hand, if the observation apparatus is configured to confirm the observation object with a planar image, the information before and after the depth direction of the observation object obtained by the stereoscopic image is lost.
本発明の一実施形態に係る立体観察装置は、上述した課題を解決するために、第1の方向から被検体の観察部位の第1観察画像を撮像する第1撮像部と、前記第1の方向と異なる第2の方向から前記観察部位の第2観察画像を撮像する第2撮像部と、前記第1撮像部および前記第2撮像部を一体的に保持する筐体と、前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する視差画像生成部と、ユーザから前記観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付ける切替指示受付部と、前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像を3Dディスプレイ装置に表示させて立体画像を表示させる一方、前記平面画像表示するよう指示されると、前記第1視差画像および前記第2視差画像のいずれかにもとづく平面画像を前記3Dディスプレイ装置に表示させる画像合成部と、を備えたものである。 In order to solve the above-described problem, a stereoscopic observation apparatus according to an embodiment of the present invention includes a first imaging unit that captures a first observation image of an observation site of a subject from a first direction, and the first imaging unit. A second imaging unit that captures a second observation image of the observation site from a second direction different from the direction, a housing that integrally holds the first imaging unit and the second imaging unit, and the first observation A parallax image generation unit that generates a first parallax image and a second parallax image based on the image and the second observation image, and a switch that receives a switching instruction from the user to display the observation site as a stereoscopic image or a planar image When instructed to display the stereoscopic image by the instruction receiving unit, the first parallax image and the second parallax image are displayed on the 3D display device to display the stereoscopic image, while the planar image is displayed. Ru , In which and an image synthesizing unit for displaying a plane image based on either the first parallax image and the second parallax image to the 3D display device.
本発明に係る立体観察装置の実施の形態について、添付図面を参照して説明する。 An embodiment of a stereoscopic observation apparatus according to the present invention will be described with reference to the accompanying drawings.
(第1の実施形態)
図1は、本発明の第1実施形態に係る立体観察装置10の一例を示す全体構成図である。
(First embodiment)
FIG. 1 is an overall configuration diagram illustrating an example of a
立体観察装置10は、図1に示すように、顕微鏡部11を有する。本実施形態に係る顕微鏡部11は、いわゆる実体顕微鏡である。
The
顕微鏡部11は、第1の方向12および第2の方向13の2方向からそれぞれ被検体Oを撮像する。本実施形態に係る立体観察装置10は、2方向から撮像した画像データを顕微鏡部11の内部で画像処理するとともに、基台14の内部に設けられた画像処理部15で画像処理する。顕微鏡部11と基台14とは、多関節アーム16で接続される。基台14上には、入力部17およびモニタ用3Dディスプレイ装置18が配置される。
The
入力部17は、たとえばマウス、トラックボール、キーボード、タッチパネル、テンキーや、音声入力用のマイクロフォンなどの一般的な入力装置により構成され、ユーザの操作に対応した操作入力信号を画像処理部15に出力する。なお、入力部17としてマイクロフォンを用いる場合、マイクロフォンはユーザによって入力された音声をデジタル音声信号に変換する。画像処理部15は、このデジタル音声信号を音声認識処理することによりユーザの入力した音声に応じた動作を行う。
The
なお、本実施形態に係る画像処理部15は、顕微鏡部11の内部および基台14の内部の少なくとも一方に設けられる。以下の説明では、同様の画像処理機能を有する画像処理部15mおよび15が顕微鏡部11の内部および基台14の内部の両方に設けられる場合の例について示す。
Note that the
顕微鏡部11は筐体20を有する。この筐体20には、顕微鏡部11の内部で表示される画像をユーザが観察するための接眼部21が付設される。接眼部21は、左目用観察部21Lおよび右目用観察部21Rを有する。
The
また、筐体20には、ユーザが立体画像表示と平面画像表示とを切り替える指示を与えるための切替スイッチ22と、ユーザが表示画像のピントの調整指示を与えるためのピント調整部23とが付設される。また、筐体20には、顕微鏡部11を移動させることにより顕微鏡部11と被検体Oとの相対位置関係を変更するための持ち手24が付設される。
Further, the
図2は、顕微鏡部11の内部構成例を概略的に示すブロック図である。
FIG. 2 is a block diagram schematically illustrating an internal configuration example of the
顕微鏡部11は、画像処理部15m、筐体20、接眼部21、切替スイッチ22、ピント調整部23のほか、第1撮像部31、第2撮像部32、内蔵の3Dディスプレイ装置33、駆動部34および距離センサ35を有する。
The
図3は、第1実施形態に係る第1撮像部31および第2撮像部32の一例を示す構成図である。図3には、第1撮像部31および第2撮像部32が共焦点光学系により構成される場合の例について示した。
FIG. 3 is a configuration diagram illustrating an example of the
第1撮像部31は、第1の方向12から被検体Oの観察部位の画像(以下、第1観察画像という)を撮像する。第1撮像部31は、第1の方向12に沿った光軸を有する第1方向光学系41および第1検出部42を有する。共焦点光学系を構成する場合、図3に示すように、第1方向光学系41は光源43を有する。
The
第2撮像部32は、第1の方向12と異なる第2の方向13から観察部位の画像(以下、第2観察画像という)を撮像する。第2撮像部32は、第2の方向13に沿った光軸を有する第2方向光学系44および第2検出部45を有する。また、第2方向光学系44は光源46を有する。第1方向光学系41および第2方向光学系44は、いわゆる拡大光学系や広角光学系を構成する。
The
第1撮像部31および第2撮像部32は、筐体20に一体的に保持される。なお、第1撮像部31の構成と同等な第2撮像部32の構成については、その説明を省略する。
The
光源43としては、たとえばハロゲンランプやレーザなどを用いることができる。光源43から出射された光は、照明レンズを介して面状の照明光束となる。この光は、偏光ビームスプリッタを介して被検体Oに投光されつつ被検体側の集光点に集光される。
As the
観察部位の表面による反射光のうち被検体側の集光点における反射光は、対物レンズおよび結像レンズにより、被検体側の集光点と光学的共役関係にある点(像側集光点)に集光される。像側集光点に設けられた開口を通過した光は、第1検出部42を構成する撮像素子に入射する。
Of the reflected light from the surface of the observation site, the reflected light at the subject-side condensing point is optically conjugate with the subject-side condensing point by the objective lens and the imaging lens (image-side condensing point). ). The light that has passed through the aperture provided at the image-side condensing point is incident on the image sensor that constitutes the
第1検出部42は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成されて、照射された光の強度に応じた信号を画像処理部15mおよび基台14内部の画像処理部15に出力する。
The
接眼部21は、筐体20に付設された左目用観察部21Lおよび右目用観察部21Rを有する。左目用観察部21Lおよび右目用観察部21Rは、内蔵3Dディスプレイ装置33に表示される左目用視差画像(第1視差画像)および右目用視差画像(第2視差画像)のそれぞれの表示方向に応じた位置に設けられる。ユーザは、接眼部21を介して内蔵3Dディスプレイ装置33を見込むことにより、内蔵3Dディスプレイ装置33に表示された第1視差画像および第2視差画像にもとづいて立体画像を知覚することができる。
The
切替スイッチ22は、ユーザにより操作可能な位置に設けられ、ユーザから観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付け、この指示情報を画像処理部15および15mに与える。図1には、切替スイッチ22が筐体20の側面に付設される場合の例を示した。なお、この切り替え指示は、入力部17を介して画像処理部15および15mに与えられてもよい。
The
ピント調整部23は、ユーザにより操作可能な位置に設けられ、ユーザから内蔵3Dディスプレイ装置33に表示された画像に対するピント調整指示を受け付け、この指示情報を画像処理部15および15mに与える。図1には、ピント調整部23が筐体20の側面に付設される場合の例を示した。なお、このピント調整指示は、入力部17を介して画像処理部15および15mに与えられてもよい。
The
モニタ用3Dディスプレイ装置18は、眼鏡方式の3Dディスプレイでもよいし、専用の眼鏡を必要としない裸眼方式の3Dディスプレイでもよい。眼鏡方式では、画像処理部15および15mから出力される左目用視差画像(第1視差画像)と右目用視差画像(第2視差画像)の2つの視差画像を、偏光フィルタ付の眼鏡や液晶シャッタ付の眼鏡で分離することにより、立体物の奥行き感を観察者に与える。
The monitor
裸眼方式の3Dディスプレイは、左目用視差画像と右目用視差画像の2つの視差画像、あるいはさらに多視差(たとえば9視差)方向に分解した視差画像群を、レンチキュラーレンズと呼ばれるシリンドリカルレンズで複数の視差方向に振り分ける。この結果、専用の眼鏡なしでも立体物の奥行き感を観察者に与えることができる。また、裸眼方式の3Dディスプレイの場合には、観察者がディスプレイ装置の周りを移動した場合に、あたかも実際の立体物を周りこんで観察したかのような立体感を観察者に与えることもできる。 A naked-eye 3D display has two parallax images, a parallax image for a left eye and a parallax image for a right eye, or a parallax image group further decomposed in a multi-parallax (for example, 9 parallax) direction with a cylindrical lens called a lenticular lens. Sort in the direction. As a result, it is possible to give a viewer a sense of depth of a three-dimensional object without using dedicated glasses. In the case of a naked-eye 3D display, when an observer moves around the display device, it is possible to give the observer a stereoscopic effect as if he / she observed an actual three-dimensional object. .
内蔵3Dディスプレイ装置33もまた、眼鏡方式の3Dディスプレイでもよいし、専用の眼鏡を必要としない裸眼方式の3Dディスプレイでもよい。なお、内蔵3Dディスプレイ装置33は、ユーザにより接眼部21を介して見込まれる。このため、内蔵3Dディスプレイ装置33を眼鏡方式とする場合は、接眼部21に対して偏光フィルタや液晶シャッタを設けるとよい。
The built-in
画像処理部15および15mは、CPU、RAMおよびROMをはじめとする記憶媒体などにより構成される。画像処理部15のCPUは、ROMをはじめとする記憶媒体に記憶された画像生成プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替えるための処理を実行する。
The
画像処理部15および15mのRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。画像処理部15および15mのROMをはじめとする記憶媒体は、画像処理プログラムを実行するために必要な各種データを記憶する。
The RAMs of the
なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。 A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network.
ここで、本実施形態に係る画像処理部15mの動作の概要について簡単に説明する。
Here, an outline of the operation of the
図4は、画像処理部15mにより観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替える際の手順の一例を示すフローチャートである。図4において、Sに数字を付した符号はフローチャートの各ステップを示す。
FIG. 4 is a flowchart illustrating an example of a procedure when the
まず、ステップS1において、画像処理部15mは、観察部位の第1の方向12および第2の方向13のそれぞれから撮像した第1観察画像および第2観察画像を取得する。
First, in step S1, the
次に、ステップS2において、画像処理部15mは、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に立体画像を表示させる(3D表示させる)べきか、平面画像を表示させる(2D表示させる)べきか、のユーザからの切り替え指示を受け付ける。3D表示させるべき場合はステップS3に進む。一方、2D表示させるべき場合はステップS4に進む。
Next, in step S2, the
次に、ステップS3において、画像処理部15mは、少なくとも観察部位の画像を立体画像として、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。
Next, in step S <b> 3, the
一方、ステップS4では、画像処理部15mは、少なくとも観察部位の画像を平面画像として、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。平面画像として表示する場合、左目用視差画像(第1視差画像)と右目用視差画像(第2視差画像)は第1撮像部31あるいは第2撮像部32のどちらか一方で撮影されたものになる。
On the other hand, in step S4, the
次に、ステップS5において、画像処理部15mは一連の手順を終了すべきか否か(たとえばユーザから入力部17を介して処理終了指示を受けた否か)を判定し、終了すべきでない場合はステップS1に戻り、終了すべき場合は一連の手順は終了となる。
Next, in step S5, the
なお、ステップS2−4において、内蔵3Dディスプレイ装置33とモニタ用3Dディスプレイ装置18とで異なる次元の画像をユーザの指示に応じて表示させてもよい。また、立体観察装置10が画像処理部15を備える場合は、上記ステップS3およびS4の処理においてモニタ用3Dディスプレイ装置18に係る動作は画像処理部15により実行されてもよい。また、立体観察装置10が画像処理部15を備えるとともに画像処理部15mを備えない場合は、上記の手順は画像処理部15により実行されて画像処理部15がモニタ用3Dディスプレイ装置18および内蔵3Dディスプレイ装置33の表示制御を行ってもよい。
In step S2-4, the built-in
以上の手順により、観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替えることができる。 With the above procedure, the stereoscopic image display and the planar image display of the observation site can be easily switched according to the user's instruction.
このため、本実施形態に係る立体観察装置10によれば、ユーザは、自身の目の負担と観察部位の奥行き情報の必要性との両者を考慮しつつ、任意のタイミングで容易に観察部位の画像の平面画像表示および立体画像表示を切り替えることができるため、非常に利便性が高い。
For this reason, according to the
また、平面画像表示のみが可能な場合に比べ、立体画像表示により観察部位の奥行き情報を容易に得ることができるため、ユーザは正確かつ迅速な手技を行うことができるとともに、手技対象の被検体Oの負担を軽減することができる。また、立体画像表示のみが可能な場合に比べ、ユーザは立体画像表示による目の疲労を覚えた時に容易に平面画像表示に切り替えることができるため、ユーザの負担を大幅に低減することができる。 In addition, since the depth information of the observation site can be easily obtained by the stereoscopic image display as compared with the case where only the planar image display is possible, the user can perform an accurate and quick procedure and the subject to be processed The burden of O can be reduced. In addition, compared to a case where only stereoscopic image display is possible, the user can easily switch to planar image display when he / she feels fatigue of eyes due to stereoscopic image display, so that the burden on the user can be greatly reduced.
続いて、本実施形態に係る画像処理部15mの詳細について説明する。
Next, details of the
図5は、第1実施形態に係る画像処理部15mの内部構成例を概略的に示すブロック図である。なお、この内部構成の一部または全部はCPUの機能実現部として構成されてもよいし、回路などのハードウエアロジックによって構成してもよい。また、画像処理部15の構成については画像処理部15mの構成と同等であるため説明を省略する。
FIG. 5 is a block diagram schematically illustrating an internal configuration example of the
また、図6は、表示内容に対するユーザ指示を受け付けるための指示受付画像50の一例を示す説明図である。
FIG. 6 is an explanatory diagram showing an example of an
画像処理部15mは、基本構成として少なくとも視差画像生成部51、切替指示受付部52、画像合成部53を有する。
The
視差画像生成部51は、第1撮像部31により得られた第1観察画像および第2撮像部32により得られた第2観察画像を取得し(図4のステップS1参照)、これらの観察画像にもとづいて、左目用視差画像(第1視差画像)および右目用視差画像(第2視差画像)を生成する。
The parallax
また、第1撮像部31および第2撮像部32は、広角レンズや魚眼レンズなどの広画角撮像用レンズを用いて広画角撮像可能に構成されてもよい。この場合、視差画像生成部51は、広画角撮像用レンズに起因する歪みを補正してから、第1観察画像および第2観察画像にもとづいて左目用視差画像および右目用視差画像を生成してもよい(歪み補正処理)。
Further, the
切替指示受付部52は、ユーザから切替スイッチ22または入力部17を介して、観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付ける(図4のステップS2、図6参照)。
The switching
画像合成部53は、立体画像表示するよう指示されると、左目用視差画像および右目用視差画像を内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させて立体画像を表示させる(図4のステップS3参照)。また、画像合成部53は、平面画像表示するよう指示されると、左目用視差画像および右目用視差画像のいずれかにもとづく平面画像を内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる(図4のステップS4参照)。
When instructed to display a stereoscopic image, the
また、画像合成部53は、立体画像表示するよう指示されると、一部のみを立体画像表示し、他の部分を平面画像表示してもよい(部分立体表示処理)。具体的には、画像合成部53は、撮像領域のうちの所定の領域については第1視差画像および第2視差画像の対応する領域同士を用いて内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に立体画像を表示させるとともに、撮像領域の所定の領域以外の領域については第1視差画像および第2視差画像のいずれかにもとづく平面画像を内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。
Further, when instructed to display a stereoscopic image, the
たとえば、第1撮像部31および第2撮像部32が広画角撮像可能に構成される場合、歪みが生じにくい撮像領域中心付近のみを立体画像表示するとよい。この場合、視差画像生成部51は歪み補正を行わずともよい。
For example, when the
次に、ピント調整について簡単に説明する。ピント調整部23または入力部17を介してユーザからピント調整指示を受けつけた場合、画像処理部15および15mはソフトウエア的な画像処理によりピント調整を行うことが可能である。
Next, focus adjustment will be briefly described. When a focus adjustment instruction is received from the user via the
さらに、本実施形態に係る画像処理部15および15mは、駆動制御部54を有し、ピント調整指示が立体画像に対する指示であった場合、ハードウエア的な調整によりピント調整することができる。
Furthermore, the
具体的には、駆動部34は、駆動制御部54により制御されて、第1方向光学系41と第2方向光学系44との相対位置関係を変更する。駆動制御部54は、立体画像に対するピント調整指示をピント調整部23または入力部17を介してユーザから受け付けると、第1の方向12と第2の方向13のなす角θを変更することで立体画像のピントを調整するよう、駆動部34を制御する。
Specifically, the
駆動制御部54によれば、第1方向光学系41と第2方向光学系44との相対位置関係を変更することにより立体画像のピント調整を行うことができる。なお内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18の一部を注目領域として特定し、その部位が左目用視差画像および右目用視差画像でどこに位置するかを同定し、その左目用視差画像および右目用視差画像での位置ズレ情報を用いて半自動的にピント調整を行ってもよい。
According to the
続いて、観察部位の立体画像および平面画像とレンダリング画像との重畳表示について説明する。 Subsequently, a superimposed display of the stereoscopic image of the observation site and the planar image and the rendering image will be described.
画像処理部15mは、外部の医用3次元画像データ(ボリュームデータ)にもとづくレンダリング画像を、観察部位の立体画像および平面画像に重畳表示可能に構成されてもよい。この場合、画像処理部15mはネットワーク接続部55およびレンダリング部56をさらに有する。
The
ネットワーク接続部55は、ネットワーク100の形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部55は、この各種プロトコルに従って立体観察装置10とモダリティ101などの他の装置とを接続する。ここでネットワーク100とは、電気通信技術を利用した情報通信網全般を意味し、病院基幹LAN(Local Area Network)などの無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
The
立体観察装置10は、ネットワーク100を介して接続されたモダリティ101や画像サーバ102から医療用のボリュームデータ(医用3次元画像データ)を受ける。モダリティ101から出力されるボリュームデータや再構成画像データは、ネットワーク100を介して受信されて図示しない記憶媒体に記憶される。
The
モダリティ101は、たとえばX線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置、X線診断装置などの医用画像診断装置であって、被検体Oの撮像により得られた投影データにもとづいてボリュームデータ(医用3次元画像データ)を生成可能な装置により構成することができる。
The
画像サーバ102は、たとえばPACS(Picture Archiving and Communication System:医用画像保管通信システム)に備えられる画像の長期保管用のサーバであり、ネットワーク100を介して接続されたX線CT装置、磁気共鳴イメージング装置、超音波診断装置、X線診断装置などのモダリティ101で生成されたボリュームデータや再構成画像などを記憶している。
The
レンダリング部56は、ネットワーク100を介して取得した被検体Oのボリュームデータにもとづいて、観察部位のボリュームレンダリング画像を生成する。画像合成部53は、立体画像および平面画像に対してボリュームレンダリング画像を重畳して、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。
The
より具体的には、画像合成部53は、骨、脳表、血管などの特徴点を関連付けることにより、第1視差画像および第2視差画像ならびにボリュームレンダリング画像の位置合わせを行う。特徴点は、表示された画像上に対するユーザによる入力操作により指定されてもよいし、あらかじめ登録された特徴点を画像合成部53が各画像から抽出することにより自動設定されてもよい。
More specifically, the
また、レンダリング部56は、手技に係る注目箇所の情報(手術対象領域や血管などの危険部位領域など)がボリュームデータに付帯されている場合、この注目箇所を強調表示するようボリュームレンダリング画像を生成してもよい。
In addition, the
また、レンダリング部56は、ボリュームレンダリング画像を立体表示可能なように、ボリュームデータにもとづいて、第1の方向12および第2の方向13のそれぞれに対応するボリュームレンダリング画像を生成してもよい。この場合、画像合成部53は、立体画像表示するよう指示されると、第1視差画像および第2視差画像と、対応する方向のボリュームレンダリング画像と、をそれぞれ合成して内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させて立体画像を表示させる。なお、ユーザによる指示に応じて、観察部位の平面画像に対してボリュームレンダリング画像の立体画像を重畳してもよい。
Further, the
また、画像合成部53は、ボリュームレンダリング画像に対して所定の透過率(透明度)を与えてもよい。この透過率は、ユーザにより入力部17を介して設定されてもよい。
Further, the
レンダリング画像を重畳表示する場合、ユーザは第1撮像部31および第2撮像部32により撮像された観察部位の表面画像から得られる情報に加え、レンダリング画像から得られる観察部位の表面の奥に存在する部位の情報を得ることができる。また、ボリュームデータから得られる注目箇所がレンダリング画像において強調表示される場合、ユーザは観察部位の表面の奥に存在する血管や危険部位などの情報を容易に得ることができる。
続いて、距離情報の表示について説明する。
When displaying the rendered image in a superimposed manner, the user exists in the back of the surface of the observation site obtained from the rendering image in addition to the information obtained from the surface image of the observation site captured by the
Next, the display of distance information will be described.
画像処理部15mは、観察部位の立体画像および平面画像に対して、各種の距離を示す画像(距離情報画像)を重畳表示可能に構成されてもよい。この場合、画像処理部15mは、距離算出部57および距離情報画像生成部58をさらに有し、距離センサ35の出力にもとづいて距離情報画像を表示する。なお、距離情報画像の表示が不要な場合、立体観察装置10は、距離センサ35、距離算出部57および距離情報画像生成部58を備えずともよい。
The
距離センサ35は、第1方向光学系41および第2方向光学系44の被検体O側の先端近傍に設けられる。距離センサ35は、筐体20の被検体側の端部から観察部位の表面の所定位置までの距離に応じた信号を出力する。
The
距離算出部57は、距離センサ35の出力を用いて筐体20の被検体側の端部から観察部位の表面の所定位置(たとえば脳表上の被検体側集光点)までの距離を求める。距離情報画像生成部58は、この表面までの距離を示す画像を生成する。画像合成部53は、立体画像および平面画像に対して表面までの距離を示す画像を重畳させて、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。
The
また、画像処理部15mがレンダリング部56を備え、手技に係る注目箇所の情報がボリュームデータに付帯されている場合、距離算出部57は、レンダリング画像中の注目箇所を抽出し、観察部位の表面の所定位置から注目箇所までの距離を求めてもよい(図6参照)。この場合、距離情報画像生成部58は、この注目箇所までの距離を示す画像を生成する。画像合成部53は、立体画像および平面画像に対して注目箇所までの距離を示す画像を重畳させて、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。
In addition, when the
また、距離算出部57は、第1検出部42および第2検出部45から第1観察画像および第2観察画像を取得してもよい。この場合、距離算出部57は、第1観察画像および第2観察画像中に含まれる治療デバイス(カテーテルや鉗子など)の所定箇所(カテーテルや鉗子の先端やマーカなど)を抽出し、観察部位の表面の所定位置から所定箇所までの距離を求める。この場合、距離情報画像生成部58は、この治療デバイスの所定箇所までの距離を示す画像を生成する。画像合成部53は、立体画像および平面画像に対して治療デバイスの所定箇所までの距離を示す画像を重畳させて、内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に表示させる。
Further, the
距離センサ35、距離算出部57および距離情報画像生成部58によれば、ユーザは容易に筐体20の被検体側の端部から観察部位の表面の所定位置までの距離を知ることができる。また、レンダリング画像中の注目箇所までの距離を示す画像を表示する場合、ユーザは観察部位の立体画像および表面画像では確認することができない位置にある注目箇所までの距離を容易に把握することができる。また、たとえば鉗子の先端から観察部位の表面までの距離を示す画像を表示する場合、ユーザは不意に観察部位の表面を傷つける弊害を未然に防ぐことができる。
According to the
また、画像処理部15mはさらに、距離算出部57により求められた距離が所定の閾値以下であると、スピーカを介した音声出力およびブザー出力、ならびに内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に対する警告表示の少なくとも1つによりユーザに警告を行う警告部59をさらに備えてもよい。警告表示を行う場合、警告部59は、たとえば内蔵3Dディスプレイ装置33およびモニタ用3Dディスプレイ装置18に対して危険である旨を示す文字情報を表示してもよいし、閾値以下となった注目箇所の位置を囲む枠を表示してもよい。このとき、枠や枠内領域を赤色などで塗りつぶしてもよいし枠や枠内領域または画像全体を点滅させてもよい。
In addition, when the distance obtained by the
本実施形態に係る立体観察装置10によれば、観察部位の立体画像表示と平面画像表示をユーザの指示に応じて容易に切り替えることができる。
According to the
なお、顕微鏡部11は、複数のユーザにより同時に観察部位の観察が可能に構成されてもよい。図7(a)は顕微鏡部11に複数の接眼部21が設けられる場合の例を示す説明図であり、(b)は顕微鏡部11に接眼部21および3D表示部60が設けられる場合の例を示す説明図である。画像合成部53が複数の接眼部21のそれぞれや3D表示部60に同様の画像を出力することにより、複数のユーザにより同時に観察部位の観察が可能となる。
Note that the
(第2の実施形態)
次に、本発明に係る立体観察装置の第2実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the stereoscopic observation apparatus according to the present invention will be described.
図8は、本発明の第2実施形態に係る立体観察装置10Aの一例を示す全体構成図である。なお、第1実施形態に係る立体観察装置10と同じ構成については同一符号を付して説明を省略する。
FIG. 8 is an overall configuration diagram showing an example of a
立体観察装置10Aは、図1に示すように、顕微鏡部11Aを有する。本実施形態に係る顕微鏡部11Aは、いわゆる内視鏡である。
As shown in FIG. 1, the
顕微鏡部11Aは筐体20Aを有する。この筐体20Aには、ユーザが立体画像表示と平面画像表示とを切り替える指示を与えるための切替スイッチ22Aが付設される。筐体20Aの胴部は持ち手24Aとして機能する。また、筐体20Aの一部は挿入部70を形成する。
The
本実施形態に係る画像処理部15Aは、顕微鏡部11の内部に設けられず基台14の内部に設けられる。基台14には、光源43Aが設けられ、光源43Aが出射した光は光ファイバなどの導光材に導かれて挿入部70の先端から被検体Oの観察部位を照明する。
The
図9は、図8のIX部を拡大して示す説明図である。図9に示すように、顕微鏡部11A(内視鏡)の挿入部70の先端には、第1方向光学系41Aの先端および第2方向光学系44Aの先端にそれぞれ広画角撮像用レンズ71および72が取り付けられる。挿入部70が細く形成される場合、このように広画角撮像用レンズ71および72を用いるとよい。この場合、第1方向光学系41Aおよび第2方向光学系44Aは、たとえば光ファイバなどの導光材により構成される。
FIG. 9 is an explanatory diagram showing the IX portion of FIG. 8 in an enlarged manner. As shown in FIG. 9, at the distal end of the
図10は、第2実施形態に係る画像処理部15Aの内部構成例を概略的に示すブロック図である。なお、この内部構成の一部または全部はCPUの機能実現部として構成されてもよいし、回路などのハードウエアロジックによって構成してもよい。
FIG. 10 is a block diagram schematically illustrating an internal configuration example of the
図10に示すように、本実施形態に係る立体観察装置10Aは、ピント調整部23、内蔵3Dディスプレイ装置33、駆動部34および駆動制御部54を備えずともよい。
As illustrated in FIG. 10, the
視差画像生成部51Aは、広画角撮像用レンズ71および72による歪みを補正して、第1検出部42Aおよび第2検出部45Aがそれぞれ出力した第1観察画像および第2観察画像にもとづいて第1視差画像および第2視差画像を生成する。
The parallax
本実施形態に係る画像処理部15Aは、歪み補正処理、部分立体表示処理、観察部位の立体画像および平面画像とレンダリング画像との重畳表示処理、距離情報の表示処理、警告処理について第1実施形態に係る画像処理部15および15mと同様であるためこれらの処理についての説明を省略する。
The
本実施形態に係る画像処理部15Aのピント調整処理について説明する。
A focus adjustment process of the
図11は、第2実施形態に係る画像処理部15Aのピント調整処理を説明するための図である。
FIG. 11 is a diagram for explaining the focus adjustment process of the
挿入部70が細く形成される場合、第1の方向12および第2の方向13をハードウエア的に変更することは難しい。そこで、本実施形態に係る視差画像生成部51Aは、第1観察画像および第2観察画像の少なくとも一方を用いて、第1の方向12および第2の方向13のいずれとも異なる仮想的な第3の方向80から観察部位を撮像した場合に対応する第3視差画像を生成する。そして、画像合成部53Aは、立体画像表示するよう指示されると、第1視差画像および第2視差画像のいずれかと第3視差画像とをモニタ用3Dディスプレイ装置18に表示させて立体画像を表示させる。
When the
本実施形態に係る立体観察装置10Aは、第1実施形態に係る立体観察装置10と同様の効果を奏する。また、本実施形態に係る立体観察装置10Aは、仮想的な第3の方向80から観察部位を撮像した場合に対応する視差画像を生成することによりピント調整をすることができる。このため、挿入部70の経を細くすることができ、特に内視鏡に好適である。
The
なお、仮想的な第3の方向80から観察部位を撮像した場合に対応する視差画像を生成することによりピント調整をする方法は、第1実施形態に係る立体観察装置10のソフトウエア的なピント調整において用いられてもよい。
Note that the method of performing the focus adjustment by generating a parallax image corresponding to the case where the observation site is imaged from the virtual
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
10、10A 立体観察装置
11、11A 顕微鏡部
12 第1の方向
13 第2の方向
15、15m、15A 画像処理部
17 入力部
18 モニタ用3Dディスプレイ装置
20、20A 筐体
21 接眼部
21L 左目用観察部
21R 右目用観察部
31 第1撮像部
32 第2撮像部
33 内蔵3Dディスプレイ装置
34 駆動部
35 距離センサ
41、41A 第1方向光学系
44、44A 第2方向光学系
51、51A 視差画像生成部
52 切替指示受付部
53、53A 画像合成部
54 駆動制御部
56 レンダリング部
57 距離算出部
59 警告部
70 挿入部
71、72 広画角撮像用レンズ
80 第3の方向
O 被検体
10, 10A
Claims (14)
前記第1の方向と異なる第2の方向から前記観察部位の第2観察画像を撮像する第2撮像部と、
前記第1撮像部および前記第2撮像部を一体的に保持する筐体と、
前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する視差画像生成部と、
ユーザから前記観察部位を立体画像表示するか平面画像表示するかの切り替え指示を受け付ける切替指示受付部と、
前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像を3Dディスプレイ装置に表示させて立体画像を表示させる一方、前記平面画像表示するよう指示されると、前記第1視差画像および前記第2視差画像のいずれかにもとづく平面画像を前記3Dディスプレイ装置に表示させる画像合成部と、
を備えた立体観察装置。 A first imaging unit that images a first observation image of an observation site of the subject from a first direction;
A second imaging unit that images a second observation image of the observation region from a second direction different from the first direction;
A housing that integrally holds the first imaging unit and the second imaging unit;
A parallax image generation unit that generates a first parallax image and a second parallax image based on the first observation image and the second observation image;
A switching instruction receiving unit that receives a switching instruction to display the stereoscopic image display or planar image display of the observation site from a user;
When instructed to display the stereoscopic image, the first parallax image and the second parallax image are displayed on the 3D display device to display the stereoscopic image, while when instructed to display the planar image, An image compositing unit that causes the 3D display device to display a planar image based on one of the one parallax image and the second parallax image;
Stereoscopic observation device with
前記距離センサの出力を用いて前記筐体の被検体側端部から前記観察部位の表面の所定位置までの距離を求める距離算出部と、
をさらに備え、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記筐体の被検体側端部から前記観察部位の表面の所定位置までの距離を示す画像を重畳させて前記3Dディスプレイ装置に表示させる、
請求項1記載の立体観察装置。 A signal according to the distance from the subject-side end of the housing to a predetermined position on the surface of the observation site provided near the subject-side tip of the optical system of the first imaging unit and the second imaging unit A distance sensor that outputs
A distance calculation unit for obtaining a distance from a subject-side end of the housing to a predetermined position on the surface of the observation site using an output of the distance sensor;
Further comprising
The image composition unit
An image indicating a distance from a subject-side end of the housing to a predetermined position on the surface of the observation site is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device;
The stereoscopic observation apparatus according to claim 1.
をさらに備え、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記ボリュームレンダリング画像を重畳して前記3Dディスプレイ装置に表示させる、
請求項1または2に記載の立体観察装置。 A rendering unit that generates a volume rendering image of the observation site based on the volume data of the subject;
Further comprising
The image composition unit
The volume rendering image is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device.
The stereoscopic observation apparatus according to claim 1 or 2.
前記ボリュームデータにもとづいて、前記第1の方向および前記第2の方向のそれぞれに対応するボリュームレンダリング画像を生成し、
前記画像合成部は、
前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像と、対応する方向の前記ボリュームレンダリング画像と、をそれぞれ合成して前記3Dディスプレイ装置に表示させて立体画像を表示させる、
請求項3記載の立体観察装置。 The rendering unit
Generating a volume rendering image corresponding to each of the first direction and the second direction based on the volume data;
The image composition unit
When instructed to display the stereoscopic image, the first parallax image and the second parallax image and the volume rendering image in the corresponding direction are respectively combined and displayed on the 3D display device to display the stereoscopic image. Display,
The stereoscopic observation apparatus according to claim 3.
前記レンダリング画像中の注目箇所を抽出し、この注目箇所から前記観察部位の表面の所定位置までの距離を求め、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記レンダリング画像中の前記注目箇所から前記観察部位の表面の所定位置までの距離を示す画像を重畳させて前記3Dディスプレイ装置に表示させる、
請求項2ないし4のいずれか1項に記載の立体観察装置。 The distance calculation unit
Extracting a point of interest in the rendered image, obtaining a distance from the point of interest to a predetermined position on the surface of the observation site,
The image composition unit
An image indicating a distance from the target location in the rendering image to a predetermined position on the surface of the observation site is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device.
The stereoscopic observation apparatus according to any one of claims 2 to 4.
前記第1観察画像および前記第2観察画像に含まれる治療デバイスの所定箇所を抽出し、この所定箇所から前記観察部位の表面の所定位置までの距離を求め、
前記画像合成部は、
前記立体画像および前記平面画像に対して前記治療デバイスの前記所定箇所から前記観察部位の表面の所定位置までの距離を示す画像を重畳させて前記3Dディスプレイ装置に表示させる、
請求項2ないし5のいずれか1項に記載の立体観察装置。 The distance calculation unit
Extracting a predetermined portion of the treatment device included in the first observation image and the second observation image, and determining a distance from the predetermined portion to a predetermined position on the surface of the observation portion;
The image composition unit
An image indicating a distance from the predetermined location of the treatment device to a predetermined position on the surface of the observation site is superimposed on the stereoscopic image and the planar image and displayed on the 3D display device.
The stereoscopic observation apparatus according to any one of claims 2 to 5.
をさらに備えた請求項2ないし6のいずれか1項に記載の立体観察装置。 A warning unit that warns the user by at least one of an audio output and a buzzer output via a speaker and a warning display for the 3D display device when the distance obtained by the distance calculation unit is equal to or less than a predetermined threshold;
The stereoscopic observation apparatus according to any one of claims 2 to 6, further comprising:
広画角撮像用レンズが取り付けられて前記筐体に一体的に保持され、
前記視差画像生成部は、
前記広画角撮像用レンズによる歪みを補正して、前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する、
請求項1ないし7のいずれか1項に記載の立体観察装置。 Each of the first imaging unit and the second imaging unit is
A wide-angle imaging lens is attached and held integrally with the housing,
The parallax image generation unit
Correcting distortion caused by the wide-angle imaging lens to generate a first parallax image and a second parallax image based on the first observation image and the second observation image;
The stereoscopic observation apparatus according to any one of claims 1 to 7.
前記第1観察画像および前記第2観察画像の少なくとも一方を用いて、前記第1の方向および前記第2の方向のいずれとも異なる仮想的な第3の方向から前記観察部位を撮像した場合に対応する第3視差画像を生成し、
前記画像合成部は、
前記立体画像表示するよう指示されると、前記第1視差画像および前記第2視差画像のいずれかと前記第3視差画像とを前記3Dディスプレイ装置に表示させて立体画像を表示させる、
請求項1ないし8のいずれか1項に記載の立体観察装置。 The parallax image generation unit
Corresponding to a case where the observation site is imaged from a virtual third direction different from both the first direction and the second direction using at least one of the first observation image and the second observation image. A third parallax image is generated,
The image composition unit
When instructed to display the stereoscopic image, the stereoscopic image is displayed by displaying either the first parallax image or the second parallax image and the third parallax image on the 3D display device;
The stereoscopic observation apparatus according to any one of claims 1 to 8.
前記立体画像表示するよう指示されると、撮像領域のうちの所定の領域については前記第1視差画像および前記第2視差画像の対応する領域同士を用いて前記3Dディスプレイ装置に立体画像を表示させるとともに前記撮像領域の前記所定の領域以外の領域については前記第1視差画像および前記第2視差画像のいずれかにもとづく平面画像を前記3Dディスプレイ装置に表示させる、
請求項1ないし9のいずれか1項に記載の立体観察装置。 The image composition unit
When instructed to display the stereoscopic image, for a predetermined region of the imaging region, the stereoscopic image is displayed on the 3D display device using the corresponding regions of the first parallax image and the second parallax image. And the 3D display device displays a planar image based on one of the first parallax image and the second parallax image for an area other than the predetermined area of the imaging area.
The stereoscopic observation apparatus according to any one of claims 1 to 9.
前記筐体に付設され、前記筐体に内蔵された前記3Dディスプレイ装置に表示される前記第1視差画像および前記第2視差画像のそれぞれの表示方向に応じた位置に設けられた左目用観察部および右目用観察部からなる接眼部と、
をさらに備えた請求項1ないし10のいずれか1項に記載の立体観察装置。 The 3D display device built in the housing;
A left-eye observation unit attached to the housing and provided at a position corresponding to each display direction of the first parallax image and the second parallax image displayed on the 3D display device built in the housing. And an eyepiece composed of an observation part for the right eye,
The stereoscopic observation apparatus according to any one of claims 1 to 10, further comprising:
それぞれ前記第1の方向および前記第2の方向に沿った光軸を有する第1方向光学系および第2方向光学系を有し、
前記第1方向光学系および前記第2方向光学系の相対位置関係を変更するための駆動部と、
前記立体画像に対するピント調整指示をユーザから入力部を介して受け付けると、前記第1の方向および前記第2の方向との相対位置関係を変更することによりピントを調整するよう前記駆動部を制御する駆動制御部と、
をさらに備えた請求項11記載の立体観察装置。 The first imaging unit and the second imaging unit are:
A first directional optical system and a second directional optical system having optical axes along the first direction and the second direction, respectively.
A drive unit for changing a relative positional relationship between the first direction optical system and the second direction optical system;
When a focus adjustment instruction for the stereoscopic image is received from the user via the input unit, the drive unit is controlled to adjust the focus by changing the relative positional relationship between the first direction and the second direction. A drive control unit;
The stereoscopic observation apparatus according to claim 11, further comprising:
内視鏡を構成する挿入部であり、
前記第1撮像部および前記第2撮像部のそれぞれは、
広画角撮像用レンズが取り付けられて前記挿入部に一体的に保持され、
前記視差画像生成部は、
前記広画角撮像用レンズによる歪みを補正して、前記第1観察画像および前記第2観察画像にもとづいて第1視差画像および第2視差画像を生成する、
請求項1ないし10のいずれか1項に記載の立体観察装置。 The housing is
An insertion part constituting an endoscope,
Each of the first imaging unit and the second imaging unit is
A wide-angle imaging lens is attached and held integrally with the insertion part,
The parallax image generation unit
Correcting distortion caused by the wide-angle imaging lens to generate a first parallax image and a second parallax image based on the first observation image and the second observation image;
The stereoscopic observation apparatus according to any one of claims 1 to 10.
をさらに備え、
前記画像合成部は、
前記筐体の外部に設けられたモニタ用の前記3Dディスプレイ装置に対して前記立体画像および前記平面画像を表示させる、
請求項1ないし13のいずれか1項に記載の立体観察装置。 The 3D display device for a monitor provided outside the housing;
Further comprising
The image composition unit
Displaying the stereoscopic image and the planar image on the 3D display device for a monitor provided outside the housing;
The stereoscopic observation apparatus according to any one of claims 1 to 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014103661A JP2015220643A (en) | 2014-05-19 | 2014-05-19 | Stereoscopic observation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014103661A JP2015220643A (en) | 2014-05-19 | 2014-05-19 | Stereoscopic observation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015220643A true JP2015220643A (en) | 2015-12-07 |
Family
ID=54779694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014103661A Pending JP2015220643A (en) | 2014-05-19 | 2014-05-19 | Stereoscopic observation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015220643A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6250257B1 (en) * | 2016-06-27 | 2017-12-20 | オリンパス株式会社 | Endoscope device |
WO2018003349A1 (en) * | 2016-06-27 | 2018-01-04 | オリンパス株式会社 | Endoscopic device |
JP2019025082A (en) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image processing apparatus, camera apparatus, and image processing method |
JP2019029875A (en) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image processing apparatus, camera apparatus, and image processing method |
JP2019029876A (en) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image processing apparatus, camera apparatus, and output control method |
WO2020008672A1 (en) * | 2018-07-03 | 2020-01-09 | オリンパス株式会社 | Endoscope system |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07260446A (en) * | 1994-03-25 | 1995-10-13 | Olympus Optical Co Ltd | Image processor |
JPH0856891A (en) * | 1994-08-23 | 1996-03-05 | Olympus Optical Co Ltd | Stereoscopic rigid endoscope |
JP2000338416A (en) * | 1999-05-31 | 2000-12-08 | Asahi Optical Co Ltd | Stereoscopic view microscope |
JP2002065581A (en) * | 2000-08-25 | 2002-03-05 | Fuji Photo Film Co Ltd | Endoscope device |
JP2003260028A (en) * | 2002-03-11 | 2003-09-16 | Fuji Photo Optical Co Ltd | Stereoscopic electronic endoscope device |
JP2004337247A (en) * | 2003-05-13 | 2004-12-02 | Olympus Corp | Three-dimensional observation system |
JP2005278980A (en) * | 2004-03-30 | 2005-10-13 | Hitachi Medical Corp | Endoscope apparatus |
JP2006223476A (en) * | 2005-02-16 | 2006-08-31 | Olympus Corp | Three-dimensional image observing device for medical use |
JP2007007041A (en) * | 2005-06-29 | 2007-01-18 | Hitachi Medical Corp | Surgery support |
WO2009075268A1 (en) * | 2007-12-11 | 2009-06-18 | Mitaka Kohki Co., Ltd. | Stereomicroscope |
JP2012098449A (en) * | 2010-11-01 | 2012-05-24 | Mitaka Koki Co Ltd | Stereoscopic image display device |
JP2013022156A (en) * | 2011-07-19 | 2013-02-04 | Toshiba Corp | Image processing system, device and method, and medical image diagnostic apparatus |
JP2013144068A (en) * | 2012-01-16 | 2013-07-25 | Toshiba Corp | Treatment support apparatus and control program |
WO2013179905A1 (en) * | 2012-05-30 | 2013-12-05 | オリンパスメディカルシステムズ株式会社 | Three-dimensional medical observation apparatus |
JP2013244362A (en) * | 2012-05-29 | 2013-12-09 | Olympus Corp | Stereoscopic endoscope system |
-
2014
- 2014-05-19 JP JP2014103661A patent/JP2015220643A/en active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07260446A (en) * | 1994-03-25 | 1995-10-13 | Olympus Optical Co Ltd | Image processor |
JPH0856891A (en) * | 1994-08-23 | 1996-03-05 | Olympus Optical Co Ltd | Stereoscopic rigid endoscope |
JP2000338416A (en) * | 1999-05-31 | 2000-12-08 | Asahi Optical Co Ltd | Stereoscopic view microscope |
JP2002065581A (en) * | 2000-08-25 | 2002-03-05 | Fuji Photo Film Co Ltd | Endoscope device |
JP2003260028A (en) * | 2002-03-11 | 2003-09-16 | Fuji Photo Optical Co Ltd | Stereoscopic electronic endoscope device |
JP2004337247A (en) * | 2003-05-13 | 2004-12-02 | Olympus Corp | Three-dimensional observation system |
JP2005278980A (en) * | 2004-03-30 | 2005-10-13 | Hitachi Medical Corp | Endoscope apparatus |
JP2006223476A (en) * | 2005-02-16 | 2006-08-31 | Olympus Corp | Three-dimensional image observing device for medical use |
JP2007007041A (en) * | 2005-06-29 | 2007-01-18 | Hitachi Medical Corp | Surgery support |
WO2009075268A1 (en) * | 2007-12-11 | 2009-06-18 | Mitaka Kohki Co., Ltd. | Stereomicroscope |
JP2012098449A (en) * | 2010-11-01 | 2012-05-24 | Mitaka Koki Co Ltd | Stereoscopic image display device |
JP2013022156A (en) * | 2011-07-19 | 2013-02-04 | Toshiba Corp | Image processing system, device and method, and medical image diagnostic apparatus |
JP2013144068A (en) * | 2012-01-16 | 2013-07-25 | Toshiba Corp | Treatment support apparatus and control program |
JP2013244362A (en) * | 2012-05-29 | 2013-12-09 | Olympus Corp | Stereoscopic endoscope system |
WO2013179905A1 (en) * | 2012-05-30 | 2013-12-05 | オリンパスメディカルシステムズ株式会社 | Three-dimensional medical observation apparatus |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6250257B1 (en) * | 2016-06-27 | 2017-12-20 | オリンパス株式会社 | Endoscope device |
WO2018003349A1 (en) * | 2016-06-27 | 2018-01-04 | オリンパス株式会社 | Endoscopic device |
CN109068954A (en) * | 2016-06-27 | 2018-12-21 | 奥林巴斯株式会社 | Endoscope apparatus |
US10552948B2 (en) | 2016-06-27 | 2020-02-04 | Olympus Corporation | Endoscope apparatus |
CN109068954B (en) * | 2016-06-27 | 2021-03-19 | 奥林巴斯株式会社 | Endoscope device |
JP2019025082A (en) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image processing apparatus, camera apparatus, and image processing method |
JP2019029875A (en) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image processing apparatus, camera apparatus, and image processing method |
JP2019029876A (en) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Image processing apparatus, camera apparatus, and output control method |
US11159781B2 (en) | 2017-07-31 | 2021-10-26 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Image processing apparatus, camera apparatus, and output control method |
WO2020008672A1 (en) * | 2018-07-03 | 2020-01-09 | オリンパス株式会社 | Endoscope system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7768701B2 (en) | Three-dimensional medical imaging apparatus | |
JP5284731B2 (en) | Stereoscopic image display system | |
JP2023083547A (en) | Image processing device, image processing method, and recording medium | |
JP2015220643A (en) | Stereoscopic observation device | |
KR101476820B1 (en) | 3D video microscope | |
JP6908039B2 (en) | Image processing equipment, image processing methods, programs, and image processing systems | |
JPWO2016208246A1 (en) | Medical stereoscopic observation apparatus, medical stereoscopic observation method, and program | |
JP6666467B2 (en) | Medical observation device and control method | |
JP6296365B2 (en) | Surgical endoscope camera control unit | |
US11612317B2 (en) | Ophthalmic surgery using light-field microscopy | |
WO2013179855A1 (en) | Stereoscopic endoscope system | |
JP2006208407A (en) | Microscopic system for observing stereoscopic picture | |
JP2018156073A (en) | Operation microscope having image sensor and display and method for operating operation microscope | |
WO2019073814A1 (en) | Focal point detection device, method therefor, and program | |
JPWO2017169014A1 (en) | Medical stereoscopic observation apparatus, medical stereoscopic observation method, and program | |
US10855980B2 (en) | Medical-image display control device, medical image display device, medical-information processing system, and medical-image display control method | |
JP2018152657A (en) | Medical image display device, medical information processing system, and medical image display control method | |
JP6996883B2 (en) | Medical observation device | |
WO2018179875A1 (en) | Image capturing device, focus control method and focus determination method | |
EP4328648A1 (en) | Digital microscope for medical procedure | |
US20210076023A1 (en) | Medical image processing apparatus | |
JP2004233480A (en) | Stereoscopic endoscope system | |
JP2012189689A (en) | Photographed image composition and display device, and image composition and presentation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180427 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180911 |