JP2010207460A - Observation apparatus - Google Patents

Observation apparatus Download PDF

Info

Publication number
JP2010207460A
JP2010207460A JP2009058095A JP2009058095A JP2010207460A JP 2010207460 A JP2010207460 A JP 2010207460A JP 2009058095 A JP2009058095 A JP 2009058095A JP 2009058095 A JP2009058095 A JP 2009058095A JP 2010207460 A JP2010207460 A JP 2010207460A
Authority
JP
Japan
Prior art keywords
distance
observation
photometry
area
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009058095A
Other languages
Japanese (ja)
Other versions
JP5389483B2 (en
Inventor
Masakazu Mizoguchi
正和 溝口
Tomonori Ishikawa
朝規 石川
Natsuki Hori
なつき 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2009058095A priority Critical patent/JP5389483B2/en
Publication of JP2010207460A publication Critical patent/JP2010207460A/en
Application granted granted Critical
Publication of JP5389483B2 publication Critical patent/JP5389483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem: when automatic light adjustment is employed when an object to be observed has a difference in focal distance by a difference between a projection and a recess or a part, such as white, where luminance becomes high is included in an imaging range (observation visual field range), a part to become reference for light adjustment is not always a part where an observer wants to observe, so that the light is not adjusted to desired brightness. <P>SOLUTION: When an observer moves a mirror body 2, displays a part he or she wants to observe to a monitor, and displays an object 6 to be observed in the center of a display screen, a distance is measured. When an observation distance WD from an objective lens to an interference object is almost equal to a measured distance f, it is determined that it is a part which the observer wants to observe, the observation apparatus adjusts light in accordance with the measured distance f to optimal brightness under which the object to be observed is easy to observe. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像範囲内で凹凸差を有する対象物までの焦点距離及び対象物の明るさに基づき、所望する観察個所における画像の調光を行う観察装置に関する。   The present invention relates to an observation apparatus that performs dimming of an image at a desired observation location based on a focal distance to an object having an unevenness in an imaging range and brightness of the object.

一般に、撮像装置で被写体像を撮像する場合、撮像範囲内の主要被写体に対して、測距及び測光を行い、ピントと明るさが最適な撮影条件を設定して撮像を行っている。
例えば、特許文献1には、被写体までの距離とレンズの焦点距離とに基づいて、撮像範囲と視野範囲とが重複する範囲を定めて、その映像信号の輝度成分を抽出して測光値を算 出する技術が提案されている。
また、特許文献2には、撮像画面を複数の検波域に等分割する測光枠を作り、画像データを基に演算して撮影条件(焦点距離)を設定する技術が提案されている。
In general, when a subject image is captured by an imaging device, distance measurement and photometry are performed on a main subject within the imaging range, and imaging is performed by setting an imaging condition with optimum focus and brightness.
For example, in Patent Document 1, a range in which the imaging range and the visual field range overlap is determined based on the distance to the subject and the focal length of the lens, and the luminance component of the video signal is extracted to calculate the photometric value. The technology to be put out has been proposed.
Patent Document 2 proposes a technique for creating a photometric frame that equally divides an imaging screen into a plurality of detection areas, and calculating an imaging condition (focal length) based on image data.

特開平6−105217号公報JP-A-6-105217 特開2003−153071号公報JP 2003-153071 A

前述した撮影条件の設定においては、撮像を行う被写体の前後に凹凸差(被写界深度差)、即ち被写体の部位間で焦点距離が異なっていた場合や、撮像範囲(観察視野範囲)内に輝度が高くなる部位例えば、暗色を基調とした部位の中に白色の部位等が含まれていた場合に、自動調光を利用すると、白色の部位が基準となる事態が発生し、撮影者が観察したい部位が最適な明るさに調整されるとは限らない。   In the setting of the shooting conditions described above, the difference in unevenness (difference in depth of field) before and after the subject to be imaged, that is, when the focal length is different between the parts of the subject, or within the imaging range (observation visual field range). Parts that increase in brightness, for example, when white parts are included in parts that are based on dark colors, using automatic light control, a situation occurs in which the white part becomes the reference, and the photographer The part to be observed is not always adjusted to the optimum brightness.

電子画像顕微鏡等に用いられた観察装置においては、観察対象となる部位が、体腔内の手術により処置する患部であった場合には、略平面に所在する患部や深い穴状の底に所在する患部などがある。例えば、深い穴状の底に所在する患部が観察対象であれば、その穴の入口近傍や途中に、脳や骨などの比較的白を基調とした部位が存在した場合、自動調光した際に、その白が基準に調光されると、観察者(術者)が観察したい穴の底の患部が暗くなってしまう。従って、再度、撮像部を侵入し直して再設定する又は、マニュアルによる補正動作が必要となっている。
そこで本発明は、撮像対象となる観察物の表面形状や色に影響されずに、所望する観察物の部位に対して適正な調光が行われる撮像装置を提供することを目的とする。
In an observation apparatus used for an electronic image microscope or the like, if the site to be observed is an affected part to be treated by surgery in a body cavity, it is located at an affected part located in a substantially flat surface or a deep hole-like bottom. There are affected areas. For example, if the affected part located at the bottom of a deep hole is the object to be observed, if there is a relatively white-based part such as the brain or bone near or in the middle of the hole entrance, In addition, when the white is dimmed with reference, the affected area at the bottom of the hole that the observer (operator) wants to observe becomes dark. Therefore, it is necessary to re-enter the image pickup unit again to perform resetting or to perform a manual correction operation.
SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus that performs appropriate light control on a desired site of an observation object without being affected by the surface shape or color of the observation object to be imaged.

上記目的を達成するために、本発明に従う実施形態は、   In order to achieve the above object, an embodiment according to the present invention provides:

本発明によれば、撮像対象となる観察物の表面形状や色に影響されずに、所望する観察物の部位に対して適正な調光が行われる撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus in which appropriate light control is performed on a desired site of an observation object without being affected by the surface shape and color of the observation object to be imaged.

図1は、第2の実施形態に係る手術に用いられる観察システムの全体的な構成を示す図である。FIG. 1 is a diagram showing an overall configuration of an observation system used for surgery according to the second embodiment. 図2は、観察装置における鏡体部の光学的な構成を詳細に示す図である。FIG. 2 is a diagram showing in detail the optical configuration of the mirror part in the observation apparatus. 図3は、観察装置における鏡体部及び鏡体部を移動可能に支持する支持部の構成を示す図である。FIG. 3 is a diagram illustrating a configuration of a mirror body portion and a support portion that movably supports the mirror body portion in the observation apparatus. 図4は、観察システムにおける撮像及び画像処理に関するブロック構成図である。FIG. 4 is a block configuration diagram relating to imaging and image processing in the observation system. 図5(a),(b),(c),(d)は、観察システムによる撮像(調光)について説明するための図である。FIGS. 5A, 5 </ b> B, 5 </ b> C, and 5 </ b> D are diagrams for explaining imaging (dimming) by the observation system. 図6は、第1の実施形態の観察システムによる調光について説明するためのフローチャートである。FIG. 6 is a flowchart for explaining light control by the observation system of the first embodiment. 図7(a)は、視野範囲内に配置される複数の測距スポットによる第1の配置例を示す図であり、図7(b)は、視野範囲内を中心から同心円状に分割する測光エリアの配置例を示す図であり、図7(c)は、視野範囲内に配置される複数の測距スポットによる第2の配置例を示す図である。FIG. 7A is a diagram showing a first arrangement example by a plurality of distance measuring spots arranged in the visual field range, and FIG. 7B is a photometric measurement in which the visual field range is divided concentrically from the center. FIG. 7C is a diagram illustrating an arrangement example of areas, and FIG. 7C is a diagram illustrating a second arrangement example using a plurality of ranging spots arranged in the visual field range. 図8は、第2の実施形態の観察システムに係る観察装置のブロック構成図である。FIG. 8 is a block configuration diagram of an observation apparatus according to the observation system of the second embodiment. 図9は、第2の実施形態の観察システムによる調光について説明するためのフローチャートである。FIG. 9 is a flowchart for explaining light control by the observation system of the second embodiment. 図10は、第3の実施形態に係る観察対象物の撮像及び調光処理を行うブロック構成図である。FIG. 10 is a block configuration diagram for performing imaging and light control processing of an observation object according to the third embodiment. 図11(a)は、観察範囲内に配置される複数の測距スポットによる第2の配置例を示す図であり、図11(b)は、視野範囲内を5分割する測光エリアの配置例を示す図である。FIG. 11A is a diagram showing a second arrangement example with a plurality of distance measuring spots arranged in the observation range, and FIG. 11B is an arrangement example of the photometry area that divides the visual field range into five. FIG. 図12は、第3の実施形態の観察システムによる調光について説明するためのフローチャートである。FIG. 12 is a flowchart for explaining light control by the observation system of the third embodiment. 図13は、第4の実施形態に係る観察対象物の撮像及び調光処理を行うブロック構成図である。FIG. 13 is a block configuration diagram for performing imaging and light adjustment processing of an observation object according to the fourth embodiment. 図14(a)は、観察対象物に対する焦点深度について説明するための図であり、図14(b)は、視野範囲と焦点深度との関係を示す図である。FIG. 14A is a diagram for explaining the depth of focus with respect to the observation object, and FIG. 14B is a diagram showing the relationship between the visual field range and the depth of focus. 図15は、第4の実施形態の観察システムによる調光について説明するためのフローチャートである。FIG. 15 is a flowchart for explaining light control by the observation system of the fourth embodiment.

以下、図面を参照して本発明の実施形態について詳細に説明する。
図1乃至図6を参照して、第1の実施形態に係る観察システムについて説明する。本実施形態の観察システムは、内視鏡やビデオ式手術顕微鏡(電子画像顕微鏡)に搭載した撮像装置であり、以下の例では、手術に顕微鏡として用いられる観察装置を搭載した観察システムについて説明する。尚、観察装置は、静止画を撮像する撮像装置又は、動画を撮像する撮像装置の何れを採用してもよい。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
With reference to FIG. 1 thru | or FIG. 6, the observation system which concerns on 1st Embodiment is demonstrated. The observation system of this embodiment is an imaging device mounted on an endoscope or a video surgical microscope (electronic image microscope). In the following example, an observation system including an observation device used as a microscope for surgery will be described. . Note that the observation apparatus may employ either an imaging apparatus that captures a still image or an imaging apparatus that captures a moving image.

図1は、第2の実施形態に係る手術に用いられる観察システムの全体的な構成を示す図である。図2は、観察装置における鏡体部の光学的な構成を詳細に示す図である。図3は、観察装置における鏡体部及び鏡体部を移動可能に支持する支持部の構成を示す図である。図4は、観察システムにおける撮像及び画像処理に関するブロック構成図である。図5(a),(b),(c)は、観察システムによる撮像(調光)について説明するための図である。図6は、第1の実施形態の観察システムによる調光について説明するためのフローチャートである。   FIG. 1 is a diagram showing an overall configuration of an observation system used for surgery according to the second embodiment. FIG. 2 is a diagram showing in detail the optical configuration of the mirror part in the observation apparatus. FIG. 3 is a diagram illustrating a configuration of a mirror body portion and a support portion that movably supports the mirror body portion in the observation apparatus. FIG. 4 is a block configuration diagram relating to imaging and image processing in the observation system. FIGS. 5A, 5 </ b> B, and 5 </ b> C are diagrams for explaining imaging (dimming) by the observation system. FIG. 6 is a flowchart for explaining light control by the observation system of the first embodiment.

この観察システム1は、図1に示すように、大別して、鏡体部2及び支持部3からなる観察装置と、撮像された被写体を表示する3Dモニタ4と、3Dモニタ4を移動可能に支持するモニタアーム5と、フォーカス動作及びズーム動作を指示するフットスイッチ17とで構成される。   As shown in FIG. 1, the observation system 1 is roughly divided into an observation apparatus including a mirror unit 2 and a support unit 3, a 3D monitor 4 for displaying a captured subject, and a 3D monitor 4 movably supported. And a foot switch 17 for instructing a focus operation and a zoom operation.

鏡体部2は、撮像部本体であり、図2に示すように、筐体内に立体画像(3D)を撮像するために2系統の撮像系が設けられている。具体的には、対物レンズ12、ズーム光学系13L,13Rと、結像レンズ14L,14Rと、撮像素子(例えば、CCD)15L,15Rと、測距センサ18が収容される。対物レンズ12の近傍には、対物レンズ位置センサ19が配置されている。また、ズームレンズ13の近傍には、ズームレンズ位置センサ19’が設けられている。この構成において、観察対象物(患部)6の像は、対物レンズ12、ズームレンズ13L及び、結像レンズ14Lを経て、所望する倍率で撮像素子15L上に結像して、光電変換により左側の画像信号として生成される。同様に、対物レンズ12、ズームレンズ13R及び、結像レンズ14Rを経て、所望する倍率で撮像素子15R上に結像して、光電変換により右側の画像信号として生成される。生成された左側画像と右側画像を後述するカメラコントロールユニット(CCU)16内の画像処理部により立体画像として処理されて、3Dモニタ4に表示される。   The mirror unit 2 is an imaging unit main body, and as shown in FIG. 2, two imaging systems are provided in the housing to capture a stereoscopic image (3D). Specifically, the objective lens 12, the zoom optical systems 13L and 13R, the imaging lenses 14L and 14R, the image sensors (for example, CCDs) 15L and 15R, and the distance measuring sensor 18 are accommodated. An objective lens position sensor 19 is arranged in the vicinity of the objective lens 12. A zoom lens position sensor 19 ′ is provided in the vicinity of the zoom lens 13. In this configuration, an image of the observation object (affected part) 6 is imaged on the image sensor 15L at a desired magnification through the objective lens 12, the zoom lens 13L, and the imaging lens 14L, and is subjected to photoelectric conversion on the left side. It is generated as an image signal. Similarly, an image is formed on the image sensor 15R at a desired magnification through the objective lens 12, the zoom lens 13R, and the imaging lens 14R, and is generated as a right image signal by photoelectric conversion. The generated left image and right image are processed as a stereoscopic image by an image processing unit in a camera control unit (CCU) 16 described later and displayed on the 3D monitor 4.

また測距センサ18は、図示しない赤外光照射部及び被写体で反射した赤外光を受光する赤外センサを備えている。   The distance measuring sensor 18 includes an infrared light irradiation unit (not shown) and an infrared sensor that receives infrared light reflected by the subject.

図3に示すように、鏡体部2の外装には、観察者が移動しやすいに様にグリップ10が取り付けられている。このグリップ10には、押しボタン式のグリップスイッチ11が設けられている。このグリップ10を把持した際に、指先にグリップスイッチ11が来るように配置されている。   As shown in FIG. 3, a grip 10 is attached to the exterior of the mirror unit 2 so that the observer can easily move. The grip 10 is provided with a push button type grip switch 11. The grip switch 11 is arranged so as to come to the fingertip when the grip 10 is gripped.

鏡体部2を移動させる場合には、グリップ10を把持して、グリップスイッチ11を押下して、後述するアーム部3をフリー状態にして移動させる。その後、グリップスイッチ11を離すと、アーム部3がその時点の形態で固定されて、観察者7が所望する位置及び向きで鏡体部2を固定されることができる。   When moving the lens body 2, the grip 10 is gripped and the grip switch 11 is pressed to move the arm 3 described later to a free state. Thereafter, when the grip switch 11 is released, the arm part 3 is fixed in the form at that time, and the mirror part 2 can be fixed at the position and orientation desired by the observer 7.

また、図3に示すように、アーム部3は、所定位置に固定される架台8と、複数のアームロッド3(3a,3b,3c,3d)と、これらのアームロッドを屈曲自在に連結する関節9(9a,9b,9c,9d)とで構成される。これらの関節9は、図示しない電磁ブレーキを備えており、グリップスイッチ11のオンオフにより、電磁ブレーキの動作又は解除により、固定(ロック)状態又は開放(フリー)状態が設定される。グリップスイッチ11で電磁ブレーキを解除することにより、各関節が回動可能となり、グリップ10を把持して鏡体2を任意の位置に移動可能となる。   Moreover, as shown in FIG. 3, the arm part 3 connects the mount frame 8 fixed to a predetermined position, a plurality of arm rods 3 (3a, 3b, 3c, 3d), and these arm rods so as to be bent. It is comprised by the joint 9 (9a, 9b, 9c, 9d). These joints 9 are provided with an electromagnetic brake (not shown), and a fixed (locked) state or an open (free) state is set by the operation or release of the electromagnetic brake by turning on / off the grip switch 11. By releasing the electromagnetic brake with the grip switch 11, each joint can be rotated, and the mirror 2 can be moved to an arbitrary position by gripping the grip 10.

また、架台8には後述するCCU16が設けられて、鏡体部2と3Dモニタ4と制御部24(図4参照)とを、それぞれにケーブルにより接続している。   In addition, a CCU 16 (to be described later) is provided on the gantry 8, and the mirror unit 2, the 3D monitor 4, and the control unit 24 (see FIG. 4) are connected to each other by cables.

また、フットスイッチ17には、撮像する際に、鏡体部2に指示を行うためのフォーカススイッチ17aとズームスイッチ17bが設けられている。フォーカススイッチ17aはフォーカスのUP/DOWNが可能に設けられており、操作によって図示しない駆動系によって対物レンズ12が光軸方向に移動し、焦準調整を行う。また、ズームスイッチ17bは、ズームUP/DOWNが可能に設けられており、その指示に従って図示しない駆動系を駆動し、ズーム光学系13L,13R内のズームレンズを光軸方向に移動させて、倍率調整を行う。   Further, the foot switch 17 is provided with a focus switch 17a and a zoom switch 17b for instructing the mirror unit 2 when taking an image. The focus switch 17a is provided so that the focus can be UP / DOWN, and the objective lens 12 is moved in the direction of the optical axis by a drive system (not shown) by an operation, thereby performing focusing adjustment. The zoom switch 17b is provided so that zoom UP / DOWN is possible. In accordance with the instruction, the zoom switch 17b drives a drive system (not shown) to move the zoom lenses in the zoom optical systems 13L and 13R in the direction of the optical axis. Make adjustments.

図4には、観察対象物6の撮像及び調光処理を行うブロック構成を示している。この構成において、撮像素子15L,15Rと、CCU16と、3Dモニタ4と、制御部24とを備えている。撮像素子15L,15Rとしては、CCD(Charge Coupled Device)イメージセンサ又は、CMOSイメージセンサ等の公知なイメージセンサが用いられる。   FIG. 4 shows a block configuration for performing imaging and light adjustment processing of the observation object 6. In this configuration, the imaging devices 15L and 15R, the CCU 16, the 3D monitor 4, and the control unit 24 are provided. As the imaging elements 15L and 15R, known image sensors such as a CCD (Charge Coupled Device) image sensor or a CMOS image sensor are used.

CCU16は、少なくとも画像処理(3D画像処理)と、複数の測光モード及びそのモード切換と、調光制御の機能(回路)を備えている。   The CCU 16 includes at least image processing (3D image processing), a plurality of photometry modes and their mode switching, and a dimming control function (circuit).

制御部24は、観察対象物までの距離を算出する測距センサ制御部20と、対物レンズと観察対象物までの距離WDを算出する光学系制御部21と、後述する観察距離WDによる比較演算を行う比較演算部22とで構成される。測距センサ制御部20は、測距センサ18が検出した距離情報の処理を行い、観察対象部までの距離を算出する。光学系制御部21は、対物レンズ位置センサ19が検出した位置情報の処理と、フォーカススイッチ17a及びズームスイッチ17bからの指示信号による合焦及びズーム制御とを行う。比較演算部22は、測距センサ制御部20による測距結果及び光学系制御部21からの後述する観察距離WDによる比較演算を行う。   The control unit 24 includes a distance measuring sensor control unit 20 that calculates a distance to the observation object, an optical system control unit 21 that calculates a distance WD between the objective lens and the observation object, and a comparison operation based on an observation distance WD described later. It is comprised with the comparison calculating part 22 which performs. The distance measurement sensor control unit 20 processes the distance information detected by the distance measurement sensor 18 and calculates the distance to the observation target part. The optical system control unit 21 performs processing of position information detected by the objective lens position sensor 19, and focusing and zoom control by instruction signals from the focus switch 17a and the zoom switch 17b. The comparison calculation unit 22 performs a comparison calculation based on a distance measurement result by the distance measurement sensor control unit 20 and an observation distance WD described later from the optical system control unit 21.

図5(a)には、鏡体部2における視野範囲と同じ領域を持つ測光エリアを複数に分割した分割測光エリアの第1の例を示している。この第1の例では、中心から内外2つの同心円状に分割された分割測光エリアであり、中央側の分割測光エリアAと、その外環側の分割測光エリアBとが設けられている。また、視野範囲中央の極小エリアには、測距スポットが設けられている。尚、本実施形態では、1点の測距スポットを採用したため、円形の視野範囲の中央に配置したが、対物レンズの形状(又は視野範囲の形状)や使用方法によっては、中央の配置に限定されなくともよい。   FIG. 5A shows a first example of a divided photometry area in which a photometry area having the same area as the visual field range in the mirror unit 2 is divided into a plurality of parts. In the first example, a split photometry area is divided into two concentric circles from the center to the inside and outside, and a split photometry area A on the center side and a split photometry area B on the outer ring side are provided. In addition, a distance measuring spot is provided in a minimal area at the center of the visual field range. In this embodiment, since a single distance measuring spot is adopted, it is arranged at the center of the circular field of view. However, depending on the shape of the objective lens (or the shape of the field of view) and the method of use, the arrangement is limited to the center. It does not have to be done.

ここで、図5(b)は、測距する位置までの距離(距離情報)fbと、観察する対象物の位置Pbまでの距離WDbが同じ場合の観察例を示す。図5(c)は、測距する位置までの距離fcと、観察する対象物の位置Pcまでの距離WDcにおいて、距離WDcよりも距離fcの方が長い(遠い)場合の観察例を示す。図5(d)は、測距する位置までの距離fdと、観察する対象物の位置Pdまでの距離WDbにおいて、距離fdよりも距離WDdの方が長い(遠い)場合の観察例を示す。   Here, FIG. 5B shows an observation example when the distance (distance information) fb to the position to be measured is the same as the distance WDb to the position Pb of the object to be observed. FIG. 5C shows an example of observation when the distance fc is longer (distant) than the distance WDc at the distance fc to the position to be measured and the distance WDc to the position Pc of the object to be observed. FIG. 5D shows an example of observation when the distance WDd is longer (far) than the distance fd at the distance fd to the position to be measured and the distance WDb to the position Pd of the object to be observed.

これらの照明において、図5(b)に示すように、観察する対象物の位置Pbまでの距離WDbが同じ場合には、照明光が測距の位置を基準とすれば、適切な照明光が照射される対象物6を撮像するため、適正な明るさの対象物の画像が3Dモニタ4に表示される。   In these illuminations, as shown in FIG. 5B, when the distance WDb to the position Pb of the object to be observed is the same, if the illumination light is based on the distance measurement position, appropriate illumination light is obtained. In order to image the object 6 to be irradiated, an image of the object with appropriate brightness is displayed on the 3D monitor 4.

また、図5(c)に示すように、対象物までの距離WDcよりも測距の距離fcの方が長い(遠い)場合には、照明光が測距の位置を基準とすれば、明る過ぎる照明光が照射される対象物6を撮像するため、明る過ぎて見づらい対象物の画像が3Dモニタ4に表示される。一方、図5(d)に示すように、測距の距離fdよりも距離WDbの方が長い(遠い)場合には、照明光が測距の位置を基準とすれば、観察する対象物6の位置には所望する照明光が照射されずに撮像されるため、暗い画像の対象物が3Dモニタ4に表示される。 Further, as shown in FIG. 5C, when the distance fc of distance measurement is longer (distant) than the distance WDc to the object, if the illumination light is based on the position of distance measurement, the brightness becomes brighter. An image of the object 6 that is too bright and difficult to see is displayed on the 3D monitor 4 in order to capture the object 6 irradiated with excessive illumination light. On the other hand, as shown in FIG. 5D, when the distance WDb is longer (distant) than the distance fd for distance measurement, the object 6 to be observed can be observed if the illumination light is based on the distance measurement position. Since a desired illumination light is not irradiated to the position of, the object in the dark image is displayed on the 3D monitor 4.

次に、図6に示すフローチャートを参照して、第1の実施形態の観察装置における撮像時の調光について説明する。
まず、観察者(術者)は、観察システムを起動し、グリップ10を把持して電磁ブレーキを解除して、鏡体2を任意の位置に移動し、鏡体2により撮像された観察対象物(患部)6の画像がCCU16によって映像処理されて、3Dモニタ4に表示される。この時、対物レンズ12の位置が位置センサ19によって検出され、光学系制御部21で対物レンズ12からの観察距離WDとして算出される(ステップS1)。この現在の観察距離WDは、比較演算部22に通知される。
Next, dimming at the time of imaging in the observation apparatus of the first embodiment will be described with reference to the flowchart shown in FIG.
First, the observer (operator) activates the observation system, releases the electromagnetic brake by holding the grip 10, moves the mirror body 2 to an arbitrary position, and observes the object to be imaged by the mirror body 2. The image of (affected part) 6 is processed by the CCU 16 and displayed on the 3D monitor 4. At this time, the position of the objective lens 12 is detected by the position sensor 19, and is calculated as an observation distance WD from the objective lens 12 by the optical system controller 21 (step S1). The current observation distance WD is notified to the comparison calculation unit 22.

次に、測距センサ18により観察対象物までの距離を測定し、その検出信号が測距センサ制御部20により、対物レンズ12から観察対象物6までの測定距離(距離情報)fが算出される(ステップS2)。また算出された測定距離fは、比較演算部22に通知される。   Next, the distance to the observation object is measured by the distance sensor 18, and the measurement signal (distance information) f from the objective lens 12 to the observation object 6 is calculated by the distance sensor control unit 20 based on the detection signal. (Step S2). The calculated measurement distance f is notified to the comparison calculation unit 22.

比較演算部22では、観察距離WDと測定距離fを比較する(ステップS3)。この比較において、観察距離WDが測定距離fよりも大きければ(YES)、測光エリアBを重点的に測光するモードを切換える(ステップS4)。一方、観察距離WDが測定距離fよりも大きくなければ(NO)、観察距離WDが測定距離fと略等しいか否かを判定する(ステップS5)。この判定で観察距離WDが測定距離fと略等しければ(YES)、測光エリアAを重点的に測光するモードを切換える(ステップS6)。一方、この判定において、観察距離WDが測定距離fと略等しくない、即ち、観察距離WDが測定距離fよりも小さければ(YES)、周辺部重点測光モードに切り換えられる(ステップS7)。   The comparison calculation unit 22 compares the observation distance WD and the measurement distance f (step S3). In this comparison, if the observation distance WD is larger than the measurement distance f (YES), the mode in which the photometry in the photometry area B is measured preferentially is switched (step S4). On the other hand, if the observation distance WD is not greater than the measurement distance f (NO), it is determined whether or not the observation distance WD is substantially equal to the measurement distance f (step S5). If the observation distance WD is substantially equal to the measurement distance f in this determination (YES), the mode for focusing light metering on the light metering area A is switched (step S6). On the other hand, in this determination, if the observation distance WD is not substantially equal to the measurement distance f, that is, if the observation distance WD is smaller than the measurement distance f (YES), the peripheral portion weighted photometry mode is switched (step S7).

次に、ステップS4,S6及びS7により設定された測光モードによる測光を行い、それらの測光結果に応じて、CCU16は、調光(撮像素子15L,15Rに取り入れる光の量の調整)を行う(ステップS8)。尚、光源を有するシステムであれば、光源調光を行ってもよい。調光の後にステップS1に戻り、繰り返し、調光を行う。   Next, photometry is performed in the photometry mode set in steps S4, S6, and S7, and the CCU 16 performs dimming (adjustment of the amount of light taken into the image sensors 15L and 15R) according to the photometry results ( Step S8). If the system has a light source, light source dimming may be performed. After dimming, the process returns to step S1, and the dimming is repeated.

従って、例えば、観察者は深い穴状の底に所在する患部を見たい場面では、観察者が鏡体2を移動させて、表示される画面中央に観察対象物(患部)6を表示させると、測距が行われる。観察距離WDが測定距離fと略等しいければ、観察者が見たい部位であると判断することにより、その測定距離fに見合う調光を行うことで観察対象物が観察しやすい最適な明るさに調光される。つまり、照明光の照度を上げることにより、深い穴状の底が見やすい明るさとなる。この時、穴の周辺部は、過度に明るくなっている。   Therefore, for example, in a scene where the observer wants to see the affected part located at the bottom of the deep hole, when the observer moves the mirror 2 and displays the observation object (affected part) 6 in the center of the displayed screen. Distance measurement is performed. If the observation distance WD is substantially equal to the measurement distance f, it is determined that the observation target is the part that the observer wants to see, and optimal brightness that makes it easy to observe the observation object by performing dimming according to the measurement distance f. Dimmed. In other words, by increasing the illuminance of the illumination light, the deep hole-shaped bottom becomes easy to see. At this time, the periphery of the hole is excessively bright.

また、観察距離WDが測定距離fと略等しくなければ、観察したい部位が現在の測定距離でなく、もっと測定距離が短い、穴の周辺部分であると判定することで、その測定距離に見合った調光、つまり、照明光の照度を下げて周辺部分を照明する。これにより、観察者は、穴の底は見えにくくなるが、所望する周辺部分は見やすい明るさとなる。   Further, if the observation distance WD is not substantially equal to the measurement distance f, it is determined that the part to be observed is not the current measurement distance but the measurement distance is shorter and the peripheral part of the hole. Dimming, that is, lowering the illuminance of the illumination light to illuminate the surrounding area This makes it difficult for the observer to see the bottom of the hole, but the desired peripheral portion has a brightness that is easy to see.

特に、観察対象ではない白色の部位が観察視野に含まれていたとしても、観察距離WDがその白色部分までの距離ではないため、調光の基準とならないため、従来のような高輝度の部位に照準があってしまうことは防止することができる。   In particular, even if a white part that is not an observation target is included in the observation field, the observation distance WD is not a distance to the white part, and thus is not a reference for light control. It is possible to prevent the sighting from being aimed.

以上説明したように、第1の実施形態によれば、簡素な構成で、オートフォーカス技術にソフト的な処理を追加することで、撮像対象となる観察対象物の表面形状や色に影響されずに、所望する観察対象物の部位に対して適正に調光が行われる。従って、新たな回路や構成部位を追加せずに実現できるため、製造コストの増加や装置の大型化等を最小限に抑えることができる。   As described above, according to the first embodiment, by adding a software process to the autofocus technique with a simple configuration, the surface shape and color of the observation target to be imaged are not affected. In addition, light control is appropriately performed on a desired portion of the observation object. Therefore, since it can implement | achieve without adding a new circuit and a structure part, the increase in manufacturing cost, the enlargement of an apparatus, etc. can be suppressed to the minimum.

次に、図7乃至図9を参照して、第2の実施形態に係る観察システムについて説明する。本実施形態の観察装置の構成部位において、前述した第1の実施形態の観察装置の構成部位と同等のものには、同じ参照符号を付して、その説明を省略する。ここで、図7(a)は、視野範囲内に配置される複数の測距スポットによる第1の配置例を示す図、図7(b)は、視野範囲内を中心から同心円状(環状)に分割する分割測光エリアの配置例を示す図、図7(c)は、視野範囲内に配置される複数の測距スポットによる第2の配置例を示す図である。図8は、第2の実施形態の観察システムに係る観察装置のブロック構成図である。図9は、第2の実施形態の観察システムによる調光について説明するためのフローチャートである。   Next, an observation system according to the second embodiment will be described with reference to FIGS. In the constituent parts of the observation apparatus of this embodiment, the same parts as those of the observation apparatus of the first embodiment described above are denoted by the same reference numerals, and the description thereof is omitted. Here, FIG. 7A is a diagram showing a first arrangement example by a plurality of distance measuring spots arranged in the visual field range, and FIG. 7B is a concentric circle (annular) from the center in the visual field range. FIG. 7C is a diagram showing an example of the arrangement of the divided photometry areas divided into two, and FIG. 7C is a diagram showing a second example of arrangement with a plurality of distance measuring spots arranged in the visual field range. FIG. 8 is a block configuration diagram of an observation apparatus according to the observation system of the second embodiment. FIG. 9 is a flowchart for explaining light control by the observation system of the second embodiment.

図7(a)に示すように、本実施形態は、1つの測距センサ18に代わって、複数の測距スポットを用いたマルチ測距方式を用いている。複数の測距スポットは、視野範囲の中心で直交する2つのライン状に並べられている。ここでは、測距スポットCを中心として、測距スポットL2,L1,C,R1,R2のライン状と、これと直交する、測距スポットT2,T1,C,B1,B2のライン状に、それぞれが等間隔に配置されている。この配置により、測距スポットは、視野範囲を中心から四半円に4分割するように90度毎に配置されている。   As shown in FIG. 7A, in the present embodiment, a multi-ranging method using a plurality of distance measuring spots is used in place of one distance measuring sensor 18. The plurality of ranging spots are arranged in two lines orthogonal to each other at the center of the visual field range. Here, with the distance measurement spot C as the center, the distance measurement spots L2, L1, C, R1, and R2 are line-shaped, and the distance measurement spots T2, T1, C, B1, and B2 are orthogonal to each other. Each is arranged at equal intervals. With this arrangement, the distance measuring spots are arranged every 90 degrees so that the visual field range is divided into four quarters from the center.

また、図7(b)に示す様に、測光エリアは、図7(a)のマルチ測距スポットに対応するように、中央に配置された分割測距エリアA0、その外周側の測距スポットL1,T1,L1,B1に対応する同心円状に分割された中間の分割測距エリアA1、最外周側の測距スポットL2,T2,L2,B2に対応する同心円状に分割された外側の分割測距エリアA2、として環状に3分割されている。尚、図7(b)に示すように、本実施形態では、分割測距エリアA0の直径と、分割測距エリアA1及び分割測距エリアA2の半径の長さが略等しくなるように記載しているが、特に限定されるものではなく、設計等の仕様により適宜、それぞれの長さを変更することは勿論である。   Further, as shown in FIG. 7B, the photometry area is divided into a distance measurement area A0 arranged at the center so as to correspond to the multi-range measurement spot in FIG. An intermediate divided ranging area A1 divided concentrically corresponding to L1, T1, L1, B1, and an outer divided divided concentrically corresponding to the outermost peripheral ranging spots L2, T2, L2, B2. The distance measuring area A2 is divided into three rings. As shown in FIG. 7B, in the present embodiment, the diameter of the divided ranging area A0 and the radius length of the divided ranging area A1 and the divided ranging area A2 are described so as to be substantially equal. However, it is not particularly limited, and it is a matter of course that each length is appropriately changed according to specifications such as design.

図8に示すように、観察装置は、前述した撮像素子15L,15Rを含む撮像光学系と、CCU16と、3Dモニタ4と、光学系制御部21と、対物レンズ位置センサ19と、フットスイッチ17a,17bと、比較演算部22とを備えている。さらに、ズームレンズ13L,13Rの位置を検出するズームレンズ位置検出部35と、複数の測距スポットを有するマルチ測距ユニット23と、それぞれの測距スポットの距離演算を行う測距センサ制御部20とが設けられている。   As shown in FIG. 8, the observation apparatus includes an imaging optical system including the imaging elements 15L and 15R, the CCU 16, the 3D monitor 4, the optical system control unit 21, the objective lens position sensor 19, and the foot switch 17a. , 17b and a comparison operation unit 22. Further, the zoom lens position detection unit 35 that detects the positions of the zoom lenses 13L and 13R, the multi-range measurement unit 23 having a plurality of distance measurement spots, and the distance measurement sensor control unit 20 that calculates the distance between the distance measurement spots. And are provided.

図9に示すフローチャートを参照して、第2の実施形態の観察装置における撮像時の調光について説明する。尚、前述した図6に示すステップ動作と同じ動作である場合には、簡略化して説明する。
まず、観察者(術者)は、観察システムを起動して、所望する観察対象物(患部)6又はその近傍が3Dモニタ4に表示されるように、鏡体2を移動させる。この時、対物レンズ12及びズームレンズ13L又は13Rのそれぞれの位置を、位置センサ19及びズームレンズ位置検出部35によって検出される。光学系制御部21は、検出された対物レンズ12の位置情報から観察距離WDを算出する(ステップS11)。この現在の観察距離WDは、比較演算部22に通知される。
With reference to the flowchart shown in FIG. 9, the light control at the time of imaging in the observation apparatus of 2nd Embodiment is demonstrated. In addition, when it is the same operation | movement as the step operation | movement shown in FIG. 6 mentioned above, it simplifies and demonstrates.
First, the observer (operator) activates the observation system and moves the mirror body 2 so that the desired observation object (affected part) 6 or its vicinity is displayed on the 3D monitor 4. At this time, the positions of the objective lens 12 and the zoom lens 13L or 13R are detected by the position sensor 19 and the zoom lens position detector 35, respectively. The optical system control unit 21 calculates the observation distance WD from the detected position information of the objective lens 12 (step S11). The current observation distance WD is notified to the comparison calculation unit 22.

次に、マルチ測距ユニット23により各測距スポット(C,R1,R2,L1,L2,T1,T2,B1及び,B2)における観察対象物6までの距離を測定し、その検出信号が測距センサ制御部20により、対物レンズ12から観察対象物6までの測定距離f(fc,fR1、fR2、fL1、fL2、fT1、fT2、fB1、fB2 )を算出する(ステップS12)。また算出された各測定距離fは、比較演算部22に通知される。 Next, the distance to the observation object 6 at each distance measurement spot (C, R1, R2, L1, L2, T1, T2, B1, and B2) is measured by the multi-range distance unit 23, and the detection signal is measured. the distance sensor control unit 20 calculates the measured distance f of the objective lens 12 to the observation object 6 (fc, f R1, f R2, f L1, f L2, f T1, f T2, f B1, f B2) (Step S12). The calculated measurement distances f are notified to the comparison calculation unit 22.

比較演算部22では、観察距離WDと各測定距離fとが略同一か否かを比較する(ステップS13)。この比較において、観察距離WDと測定距離fとが略同一であれば(YES)、各測光エリアA,A,Aの全体で測光を行う(ステップS14)。一方、観察距離WDと測定距離fとが略同一でなければ(NO)、視野範囲の外周側に配置された分割測距エリア(R2,L2,T2及びB2)が選択される。次に、これらの分割測距エリアにより測定された距離fR2、fL2、fT2、fB2の和と観察距離WDとか同一でないか否かを判定する(ステップS15)。 The comparison calculation unit 22 compares whether or not the observation distance WD and each measurement distance f are substantially the same (step S13). In this comparison, if the observation distance WD and the measurement distance f are substantially the same (YES), photometry is performed on the entire photometric areas A 0 , A 1 , A 2 (step S14). On the other hand, if the observation distance WD and the measurement distance f are not substantially the same (NO), the divided distance measurement areas (R2, L2, T2, and B2) arranged on the outer peripheral side of the visual field range are selected. Next, it is determined whether or not the sum of the distances f R2 , f L2 , f T2 , and f B2 measured by these divided ranging areas is not the same as the observation distance WD (step S15).

この判定で、距離fの和と観察距離WDとが同一でなければ(YES)、視野範囲の中央及び中間の測光エリアA,Aにおける測光を行う(ステップS16)一方、距離fの和と観察距離WDとが同一であったならば(NO)、視野範囲の中央の測光エリアAのみで測光する(ステップS17)。 In this determination, if the sum of the distances f and the observation distance WD are not the same (YES), photometry is performed in the center and middle photometry areas A 0 and A 1 of the visual field range (step S16), while the sum of the distances f and if the observation distance WD is the same (NO), photometry only at the center of the photometric area a 0 of the field-of-view range (step S17).

次に、観察距離WDと、ステップS14,S16,S17のいずれかで測定した測光結果に応じて、CCU16は、調光(撮像素子15L,15Rに取り入れる光の量の調整)を行う(ステップS18)。尚、光源を有するシステムであれば、光源調光を行ってもよい。調光の後にステップS11に戻り、繰り返し、調光を行う。
また、本実施形態では、測距スポットを視野範囲の中央を抜けて直交する十字形に配置したが、図7(c)に示す変形例のように、低コスト化を図るために、視野範囲の中央から3分割するようにY字形に配置してもよい。他にも、複数の測距スポットを全視野範囲に均等に配置してもよいし、単位面積当たりに異なる密度で配置してもよい。例えば、視野範囲の中央側には測距スポットを多く、周辺側には少なく配置する。
Next, the CCU 16 performs dimming (adjustment of the amount of light taken into the image sensors 15L and 15R) according to the observation distance WD and the photometric result measured in any of steps S14, S16, and S17 (step S18). ). If the system has a light source, light source dimming may be performed. After dimming, the process returns to step S11 and the dimming is repeated.
In the present embodiment, the distance measuring spots are arranged in a cross shape orthogonal to the center of the visual field range. However, in order to reduce the cost as in the modification shown in FIG. You may arrange | position in a Y shape so that it may divide into three from the center. In addition, a plurality of distance measuring spots may be arranged uniformly in the entire visual field range, or may be arranged at different densities per unit area. For example, a large number of ranging spots are arranged on the center side of the visual field range and a small number are arranged on the peripheral side.

以上説明したように、第2の実施形態によれば、マルチ測距を採用することにより、観察したい対象部位が視野範囲の中央(測距スポット位置:図5(a))から外れていたとしても、その対象部位に最も近い測距スポットを選択して、測距することができる。これにより、視野範囲内に表示される観察対象物であれば、鏡体2を移動させなくとも、適正な調光を実施することができる。   As described above, according to the second embodiment, it is assumed that the target region to be observed is out of the center of the visual field range (ranging spot position: FIG. 5A) by adopting multi-ranging. In addition, it is possible to select a distance measuring spot closest to the target part and perform distance measurement. Thereby, if it is an observation target displayed in the visual field range, appropriate light control can be performed without moving the mirror body 2.

本実施形態の観察装置は、深い穴を開口して執り行う手術、例えば、脳外手術に用いられる手術用顕微鏡に好適する。また、測距スポットの選択は、例えば、3Dモニタ上にタッチパネルを配設して、指示してもよいし、モニタ画面にポインタを表示させてクリックによる選択を行ってもよい。さらに、眼鏡型の入力装置を用いて、視線検出により選択することも可能である。   The observation apparatus of this embodiment is suitable for a surgical microscope used for an operation performed by opening a deep hole, for example, an extracerebral operation. The distance measurement spot may be selected, for example, by placing a touch panel on a 3D monitor and instructing it, or by selecting a pointer by displaying a pointer on the monitor screen. Furthermore, it is also possible to select by eye-gaze detection using a glasses-type input device.

次に、図10乃至図12を参照して、第3の実施形態に係る観察システムについて説明する。
本実施形態の観察システムに係る観察装置の構成部位において、前述した第2の実施形態の観察装置の構成部位と同等のものには、同じ参照符号を付して、その説明を省略する。ここで、図10は、第3の実施形態に係る観察対象物の撮像及び調光処理を行うブロック構成図である。図11(a)は、観察範囲内に配置される複数の測距スポットによる第2の配置例を示す図、図11(b)は、視野範囲内を5分割する測光エリアの配置例を示す図、図12は、第3の実施形態の観察システムによる調光について説明するためのフローチャートである。
Next, an observation system according to the third embodiment will be described with reference to FIGS. 10 to 12.
In the constituent parts of the observation apparatus according to the observation system of the present embodiment, the same reference numerals are assigned to the same parts as those of the observation apparatus of the second embodiment described above, and the description thereof is omitted. Here, FIG. 10 is a block configuration diagram for performing imaging and dimming processing of an observation object according to the third embodiment. FIG. 11A is a diagram showing a second arrangement example with a plurality of distance measuring spots arranged in the observation range, and FIG. 11B shows an arrangement example of the photometry area that divides the visual field range into five. FIG. 12 and FIG. 12 are flowcharts for explaining light control by the observation system of the third embodiment.

本実施形態は、図7(a)に示すように、第1,2の実施形態における測距センサ18(23)及び測距センサ制御部20による測距に代わって、画像計測部36を設けて、2
系統の撮像光学系により撮像された左右2つの画像を用いて、観察対象物との距離を演算して、観察距離WDとして用いている。
In this embodiment, as shown in FIG. 7A, an image measuring unit 36 is provided in place of the ranging by the ranging sensor 18 (23) and the ranging sensor control unit 20 in the first and second embodiments. 2
Using the two left and right images picked up by the imaging optical system of the system, the distance to the observation object is calculated and used as the observation distance WD.

図10に示すように、本実施形態の観察装置は、前述した撮像素子15L,15Rを含む撮像光学系と、CCU16と、3Dモニタ4と、光学系制御部21と、対物レンズ位置センサ19と、フットスイッチ17a,17bと、ズームレンズ位置検出部35と、比較演算部22と、画像計測部36とを備えている。   As shown in FIG. 10, the observation apparatus of the present embodiment includes an imaging optical system including the above-described imaging elements 15L and 15R, the CCU 16, the 3D monitor 4, the optical system control unit 21, the objective lens position sensor 19, and the like. , Foot switches 17a and 17b, a zoom lens position detection unit 35, a comparison calculation unit 22, and an image measurement unit 36.

また、図11(a)に示すように、観察範囲内には、第2の配置例として、5点の測定個所(測距スポットと同等)が配置される。この配置は、観察範囲即ち、3Dモニタ4の表示画面に表示される画像において、中央に測定個所cを配置して、対角線近傍にそれぞれ測定個所A,B,D,Eを配置する。画像計測部36は、これらの測定個所から、それぞれ測定距離f、f、f、f、fを算出する。これらの測定距離は、比較演算部22に出力される。この時、光学系制御部21は、対物レンズ位置センサ19によって検出された対物レンズ12の位置情報と、ズームレンズ位置検出部35によって検出されたズームレンズ13L,13Rの位置情報とから焦点距離及びズーム倍率を算出して、焦点深度を演算する。この焦点深度は、比較演算部22に通知され、△Dとして後述する判定に用いる。 As shown in FIG. 11A, five measurement locations (equivalent to ranging spots) are arranged in the observation range as a second arrangement example. In this arrangement, in the image displayed on the observation range, that is, on the display screen of the 3D monitor 4, the measurement point c is arranged at the center, and the measurement points A, B, D, E are arranged near the diagonal lines. The image measurement unit 36 calculates measurement distances f C , f A , f B , f D , and f E from these measurement points, respectively. These measurement distances are output to the comparison calculation unit 22. At this time, the optical system control unit 21 determines the focal length and the distance from the position information of the objective lens 12 detected by the objective lens position sensor 19 and the position information of the zoom lenses 13L and 13R detected by the zoom lens position detection unit 35. The zoom magnification is calculated and the depth of focus is calculated. This depth of focus is notified to the comparison calculation unit 22, and is used for determination described later as ΔD.

また、図11(b)には、観察範囲を5分割する測光エリアA,B,C,D,Eの配置例を示している。本実施形態では、観察範囲の中央には、円形のエリア形状を有する測光エリアCが配置され、この測光エリアCを除く周囲で、観察範囲を縦横に4等分した矩形のエリア形状を有する測光エリアA,B,D,Eが配置される。それぞれの測光エリアには、少なくとも1つの測距個所が配置されている。   FIG. 11B shows an arrangement example of photometric areas A, B, C, D, and E that divide the observation range into five. In the present embodiment, a photometric area C having a circular area shape is arranged at the center of the observation range, and a photometric area having a rectangular area shape in which the observation range is divided into four equal parts in the periphery except for the photometric area C. Areas A, B, D, and E are arranged. Each photometry area is provided with at least one distance measurement location.

図12に示すフローチャートを参照して、第3の実施形態の観察装置における撮像時の調光について説明する。尚、前述した図6及び図9に示したステップ動作と同じ動作である場合には、簡略化して説明する。
まず、観察者(術者)は、観察システムを起動した後、鏡体2を移動して、所望する観察対象物(患部)6又はその近傍を3Dモニタ4に表示させる。この時、対物レンズ位置センサ19により対物レンズ12の位置情報を検出して、現在の観察距離WDを算出する(ステップS21)。この現在の観察距離WDは、比較演算部22に通知される。
With reference to the flowchart shown in FIG. 12, the light control at the time of imaging in the observation apparatus of 3rd Embodiment is demonstrated. In addition, when it is the same operation | movement as the step operation | movement shown in FIG.6 and FIG.9 mentioned above, it simplifies and demonstrates.
First, the observer (operator) starts up the observation system and then moves the mirror body 2 to display the desired observation object (affected part) 6 or its vicinity on the 3D monitor 4. At this time, the position information of the objective lens 12 is detected by the objective lens position sensor 19, and the current observation distance WD is calculated (step S21). The current observation distance WD is notified to the comparison calculation unit 22.

次に、画像計測部36は、測定個所における測定距離(距離情報)f、f、f、f、fを算出する(ステップS22)。また算出された各測定距離fは、比較演算部22に通知される。 Next, the image measuring unit 36 calculates measurement distances (distance information) f C , f A , f B , f D , and f E at the measurement location (step S22). The calculated measurement distances f are notified to the comparison calculation unit 22.

比較演算部22では、各測定距離fに対して観察距離WDと略同一か否かを比較する。まず、観察距離WDと測定距離fとが略同一か否かを判定する(ステップS23)。この判定において、観察距離WDと測定距離fとが略同一であれば(YES)、測光エリアCを測光対象のエリアに設定する(ステップS24)。一方、観察距離WDと測定距離fとが略同一でなければ(NO)、次に、観察距離WDと測定距離fとが略同一か否かを判定する(ステップS25)。 The comparison calculation unit 22 compares whether or not each measurement distance f is substantially the same as the observation distance WD. First, it is determined whether or not the observation distance WD and the measurement distance f C are substantially the same (step S23). In this determination, the observation distance WD and measuring distance f C is equal substantially identical (YES), sets a photometry area C to the photometry target area (step S24). On the other hand, if the observation distance WD and measuring distance f C is not substantially the same (NO), then the observation distance WD and measuring distance f A determines whether substantially the same (step S25).

この判定において、観察距離WDと測定距離fとが略同一であれば(YES)、測光エリアAを測光対象のエリアに設定する(ステップS26)。一方、観察距離WDと測定距離fとが略同一でなければ(NO)、次に、観察距離WDと測定距離fとが略同一か否かを判定する(ステップS27)。 In this determination, the observation distance WD and measuring distance f A is as long as approximately the same (YES), sets a photometry area A to the photometry target area (step S26). On the other hand, if the observation distance WD and measuring distance f A is not substantially the same (NO), then the observation distance WD and measuring distance f B determines whether substantially the same (step S27).

以下同様に、観察距離WDと測定距離fとが略同一であれば(ステップS27:YES)、測光エリアBを測光対象のエリアに設定し(ステップS28)、観察距離WDと測定距離fとが略同一であれば(ステップS29:YES)、測光エリアDを測光対象のエリアに設定し(ステップS30)、観察距離WDと測定距離fとが略同一であれば(ステップS31:YES)、測光エリアEを測光対象のエリアに設定する(ステップS32)。 Similarly, if the observation distance WD and measuring distance f B is substantially the same (Step S27: YES), sets the photometric area B to the photometry target area (step S28), the observation distance WD between the measured distance f D if bets are substantially the same (step S29: YES), sets the photometric area D on the photometry target area (step S30), if the observation distance WD and measuring distance f E is substantially the same (step S31: YES ), The photometric area E is set as the photometric target area (step S32).

これらが設定されたならば、設定された測光エリアの測光を行い、その測光値に基づき調光を行う(ステップS33)。尚、光源を有するシステムであれば、光源調光を行ってもよい。調光の後にステップS21に戻り、繰り返し、調光を行う。
他の手法としては、調光に先立って、光学系制御部21は、焦点距離とズーム倍率に応じた焦点深度を求めて記録しておく。また、光学系制御部21は、焦点距離とズーム倍率から焦点深度を演算する。この焦点深度をΔDとして上記判定を行う。
If these are set, photometry is performed in the set photometry area, and light control is performed based on the photometric value (step S33). If the system has a light source, light source dimming may be performed. After dimming, the process returns to step S21, and the dimming is repeated.
As another method, prior to dimming, the optical system control unit 21 obtains and records the focal depth according to the focal length and the zoom magnification. Further, the optical system control unit 21 calculates the depth of focus from the focal length and the zoom magnification. The above determination is performed with this depth of focus as ΔD.

即ち、前述したステップS23において、WD≒fの判定において、WD±ΔD≒fとして、前述したΔDを任意の一定の値(範囲)として用いてもよい。さらに、図示しないキーボード等の入力手段により観察者が設定入力してもよい。 That is, in step S23 described above, in the determination of the WD ≒ f C, as WD ± ΔD ≒ f C, may be used [Delta] D described above as any fixed value (range). Furthermore, the observer may perform setting input using an input unit such as a keyboard (not shown).

さらに、図10に示す画像計測部36は、2系統の撮像光学系により、それぞれに撮像された左画像と右画像により、観察対象物との距離を演算し、その計測結果に基づいてもよい。   Furthermore, the image measurement unit 36 shown in FIG. 10 may calculate the distance to the observation object from the left image and the right image captured by the two imaging optical systems, and may be based on the measurement result. .

以上説明した第3の実施形態による観察装置にすれば、前述した第1,第2の実施形態による効果に加えて、測距スポットを最小限としているため、比較的広範囲を観察する用途に好適し、製造コストも安価になる。   If the observation apparatus according to the third embodiment described above is used, in addition to the effects of the first and second embodiments described above, the distance measuring spot is minimized. Suitable and manufacturing cost is also low.

次に、図13乃至図15を参照して、第4の実施形態の観察システムについて説明する。本実施形態の観察システムに係る観察装置の構成部位において、前述した第1の実施形態の観察装置の構成部位と同等のものには、同じ参照符号を付して、その説明を省略する。ここで、図13は、第4の実施形態に係る観察対象物の撮像及び調光処理を行うブロック構成図である。図14(a)は、観察対象物に対する焦点深度について説明するための図であり、図14(b)は、視野範囲と焦点深度との関係を示す図である。図15は、第4の実施形態の観察システムによる調光について説明するためのフローチャートである。   Next, an observation system according to a fourth embodiment will be described with reference to FIGS. In the constituent parts of the observation apparatus according to the observation system of the present embodiment, the same parts as those of the observation apparatus of the first embodiment described above are denoted by the same reference numerals, and the description thereof is omitted. Here, FIG. 13 is a block configuration diagram for performing imaging and dimming processing of the observation object according to the fourth embodiment. FIG. 14A is a diagram for explaining the depth of focus with respect to the observation object, and FIG. 14B is a diagram showing the relationship between the visual field range and the depth of focus. FIG. 15 is a flowchart for explaining light control by the observation system of the fourth embodiment.

本実施形態の観察装置は、図12に示すように、鏡体部2aと、光学系制御部21と、フットスイッチに設けられたフォーカススイッチ17aと、赤外光により測距を行う距離センサ制御部34と、比較演算部22と、CCU16と、2Dモニタ37とで構成される。   As shown in FIG. 12, the observation apparatus of the present embodiment includes a mirror unit 2a, an optical system control unit 21, a focus switch 17a provided in a foot switch, and distance sensor control that performs distance measurement using infrared light. The unit 34, the comparison calculation unit 22, the CCU 16, and the 2D monitor 37 are included.

鏡体部2aは、同じ光軸上に撮像光学系と測距光学系を備えている。
撮像光学系は、対物レンズ25と、結像レンズ28と、撮像素子(CCD)29とで構成される。対物レンズ25の近傍には、対物レンズ位置センサ19が設けられ、対物レンズ25の位置を検出している。
The mirror unit 2a includes an imaging optical system and a distance measuring optical system on the same optical axis.
The imaging optical system includes an objective lens 25, an imaging lens 28, and an imaging element (CCD) 29. An objective lens position sensor 19 is provided in the vicinity of the objective lens 25 to detect the position of the objective lens 25.

測距光学系は、赤外飛行時間計測方式を採用した構成であり、赤外光を発光する赤外光源30と、赤外光をビーム状に収束させる集光レンズ31と、光軸上に配置され、側方からの赤外光(出射赤外光)を屈曲させて光軸上に導くハーフミラー26と、光軸上の赤外光(反射赤外光)を屈曲させて側方に導くビームスプリッター27と、側方に導かれた反射赤外光を結像レンズ32と、結像された反射赤外光を受光する面距離センサ33とで構成される。この例では、対物レンズ25と結像レンズ28の間の光軸上に、ハーフミラー26及びビームスプリッター27が配設されている。   The distance measuring optical system adopts an infrared time-of-flight measurement method, and includes an infrared light source 30 that emits infrared light, a condensing lens 31 that converges infrared light into a beam, and an optical axis. The half mirror 26 which is arranged and bends infrared light (emitted infrared light) from the side and guides it on the optical axis, and bends the infrared light (reflected infrared light) on the optical axis to the side. It comprises a beam splitter 27 for guiding, an image forming lens 32 for reflecting infrared light guided to the side, and a surface distance sensor 33 for receiving the imaged reflected infrared light. In this example, a half mirror 26 and a beam splitter 27 are disposed on the optical axis between the objective lens 25 and the imaging lens 28.

測距センサ制御部34は、赤外光源30を駆動制御して、赤外光を発光させて、観察対象物に出射し、その反射光である反射赤外光を受光した面距離センサ33から検出されたピクセル毎の距離情報f[x、y](x、yはピクセル位置を示す変数)に変換する。この距離情報は、比較演算部22に通知される。   The ranging sensor control unit 34 drives and controls the infrared light source 30 to emit infrared light, emit the infrared light to the observation target, and receive the reflected infrared light that is reflected light from the surface distance sensor 33. It is converted into distance information f [x, y] (x and y are variables indicating pixel positions) for each detected pixel. This distance information is notified to the comparison calculation unit 22.

また、観察対象物の撮像は、対物レンズ25と結像レンズ28により集光された光像が撮像素子29の受光面上に結像される。撮像素子29は光電変換により、像信号を生成して、CCU16に出力する。CCU16は、前述した画像処理を行い、2Dモニタ37に表示させる。   Further, for imaging of the observation object, a light image condensed by the objective lens 25 and the imaging lens 28 is formed on the light receiving surface of the imaging element 29. The image sensor 29 generates an image signal by photoelectric conversion and outputs the image signal to the CCU 16. The CCU 16 performs the above-described image processing and displays it on the 2D monitor 37.

次に、図15に示すフローチャートを参照して、第4の実施形態の観察システムに係る観察装置による調光について説明する。   Next, light control by the observation apparatus according to the observation system of the fourth embodiment will be described with reference to the flowchart shown in FIG.

まず、観察者(術者)は、観察システムを起動した後、鏡体2を移動して、所望する観察対象物(患部)6又はその近傍を2Dモニタ37に表示させる。この時、対物レンズ位置センサ19により対物レンズ25の位置情報を検出して、現在の観察距離WDを算出する(ステップS41)。この現在の観察距離WDは、比較演算部22に通知される。   First, the observer (surgeon) activates the observation system and then moves the mirror body 2 to display the desired observation object (affected part) 6 or its vicinity on the 2D monitor 37. At this time, the position information of the objective lens 25 is detected by the objective lens position sensor 19, and the current observation distance WD is calculated (step S41). The current observation distance WD is notified to the comparison calculation unit 22.

次に、測距センサ制御部34は、前述した反射赤外光を受光した面距離センサ33からピクセル毎の距離情報fを検出する(ステップS42)。算出された距離情報fは、比較演算部22に通知される。   Next, the distance measuring sensor control unit 34 detects distance information f for each pixel from the surface distance sensor 33 that has received the reflected infrared light described above (step S42). The calculated distance information f is notified to the comparison calculation unit 22.

次に、比較演算部22は、図14(a)に示すように、測距センサ制御部33からの距離情報f[x、y]をそれぞれWD±Δd内にあるか否かを比較し、面距離センサ33による測光対象エリアをマッピングする(ステップS43)。次に、その測光対象エリアマップを撮像素子29におけるピクセルマップに変換して、CCU16に通知する(ステップS44)。   Next, as shown in FIG. 14A, the comparison calculation unit 22 compares the distance information f [x, y] from the distance measurement sensor control unit 33 with each other within WD ± Δd. The area to be measured by the surface distance sensor 33 is mapped (step S43). Next, the photometric object area map is converted into a pixel map in the image sensor 29 and notified to the CCU 16 (step S44).

CCU16は、通知された測光対象エリアマップに基づく測光対象に対して測光する(ステップS45)。尚、測光対象となるエリアは、WD±Δd内にあるエリアである。CCU16は、この測光により得られた測光値に基づいて、調光を行う(ステップS46)。尚、光源を有するシステムであれば、光源調光を行ってもよい。調光の後にステップS41に戻り、繰り返し、調光を行う。
尚、本実施形態の構成において、図13において、破線で示す3Dモニタ4a及び3Dプロセッサ38追加構成することにより、DepthMapによる3D画像が生成でき、対応する3Dモニタ4aにより3D画像を表示させることができる。このように、第4の実施形態によれば、DepthMapを基に、3D画像を生成するシステムが構築され、より容易に構成可能であり、且つ最もきめ細やかな調光を実現することができる。
The CCU 16 performs photometry on the photometry target based on the notified photometry target area map (step S45). Note that the area to be measured is an area within WD ± Δd. The CCU 16 performs light control based on the photometric value obtained by this photometry (step S46). If the system has a light source, light source dimming may be performed. After dimming, the process returns to step S41 and the dimming is repeated.
In the configuration of the present embodiment, by adding the 3D monitor 4a and the 3D processor 38 indicated by broken lines in FIG. 13, a 3D image by DepthMap can be generated, and the 3D image can be displayed by the corresponding 3D monitor 4a. it can. As described above, according to the fourth embodiment, a system for generating a 3D image is constructed based on DepthMap, can be configured more easily, and the finest light control can be realized.

以上説明したように、本実施形態に従う観察システムは、観察対象物に凹凸(高低差又は被写界深度差)があった場合や、白色の部位等が含まれて輝度が高くなる部位が存在していたとしても、観察者が見たい部位部分が最適な明るさに調整されて、撮像及びモニタ表示させることができる。従って、観察対象物となる部位が深い穴状の底に所在する患部であっても、見やすい好適な明るさに調光される。   As described above, the observation system according to the present embodiment has a portion where the observation target has unevenness (altitude difference or depth of field difference) or a portion where white portions are included and the luminance is increased. Even if it is, the part of the part that the observer wants to see is adjusted to the optimum brightness, and can be imaged and displayed on the monitor. Therefore, even if the site to be observed is an affected part located at the bottom of a deep hole, the light is adjusted to a suitable brightness that is easy to see.

また、補正のための他の操作を必要とせず、内視鏡やビデオ式手術顕微鏡(電子画像顕微鏡)に搭載したならば、術者が観察しながら手術に専念することができる。   Further, if it is mounted on an endoscope or a video surgical microscope (electronic image microscope) without requiring other operations for correction, the surgeon can concentrate on the surgery while observing.

以上発明した各実施形態によれば、以下の発明を含んでいる。   According to each embodiment invented above, the following invention is included.

(1)焦点距離が可変可能な対物光学系を介して、観察を所望する対象物を含む観察画像を取得する撮像手段と、
前記観察画像内における前記撮像手段と前記対象物との距離を測定可能な測距手段と、
前記焦点距離と、前記測距手段により測定された距離とを比較する演算手段と、
前記対象物の明るさを測定する複数の測光モードを有し、前記演算手段による演算結果に基づいて前記測光モードを変更する測光手段と、
前記測光モードに基づいて前記観察画像の明るさを制御する調光手段と、
明るさが調光された前記観察画像を表示する表示手段と、
を備えることを特徴とする観察装置。
(1) an imaging means for acquiring an observation image including an object desired to be observed via an objective optical system having a variable focal length;
Ranging means capable of measuring the distance between the imaging means and the object in the observation image;
A computing means for comparing the focal length with the distance measured by the distance measuring means;
A plurality of photometry modes for measuring the brightness of the object, and a photometry means for changing the photometry mode based on a calculation result by the calculation means;
Dimming means for controlling the brightness of the observation image based on the photometric mode;
Display means for displaying the observation image whose brightness is dimmed;
An observation apparatus comprising:

(2)前記測光手段による複数の測光モードは、少なくとも2つ以上に分割された分割測光領域のうちの何れか又はその組み合わせを選択するものであることを特徴とする前記(1)項に記載の観察装置。 (2) The plurality of photometry modes by the photometry means are for selecting any one or a combination of divided photometry areas divided into at least two or more. Observation device.

(3)前記測距手段による測距箇所は、前記測光手段による少なくとも一つの前記分割測光領域と関連付けられていることを特徴とする前記(2)項に記載の観察装置。 (3) The observation device according to (2), wherein a distance measurement point by the distance measurement unit is associated with at least one of the divided photometry regions by the photometry unit.

(4)前記測光手段は、観察視野内の全領域の距離を計測する面距離センサであることを特徴とする前記(2)項に記載の観察装置。 (4) The observation apparatus according to (2), wherein the photometric means is a surface distance sensor that measures the distance of the entire region within the observation field.

(5)前期面距離センサは赤外飛行時間計測方式によって実現されるものであることを特徴とする前記(4)項に記載の観察装置。 (5) The observation apparatus according to (4) above, wherein the first surface distance sensor is realized by an infrared time-of-flight measurement method.

(6)前記対物光学系は立体観察可能な立体光学系であるとともに、前記撮像手段は立体映像を撮像することを特徴とする前記(1)〜(5)項記載の観察装置。 (6) The observation apparatus according to any one of (1) to (5), wherein the objective optical system is a stereoscopic optical system capable of stereoscopic observation, and the imaging unit captures a stereoscopic image.

(7)前記測距手段は、前記立体光学系を介して撮像された2つの画像による視差に基づいて距離を算出することを特徴とする前記(1)項に記載の観察装置。 (7) The observation apparatus according to (1), wherein the distance measuring unit calculates a distance based on a parallax obtained by two images captured through the stereoscopic optical system.

(8)前記撮像手段は内視鏡・ビデオ式手術用顕微鏡あることを特徴とする前記(1)〜(5)項記載の観察装置。 (8) The observation apparatus according to any one of (1) to (5) above, wherein the imaging means is an endoscope / video surgical microscope.

1…観察システム、2…鏡体部、3…支持部、3a,3b,3c,3d…アームロッド、4…3Dモニタ、5…モニタアーム、6…観察対象物、7…観察者(術者)、8…架台、9,9a,9b,9c,9d…関節、10…グリップ、11…グリップスイッチ、12,25…対物レンズ、13L,13R…ズーム光学系、14L,14R,28…結像レンズ、15L,15R,29…撮像素子(CCD)、16…カメラコントロールユニット(CCU)、17…フットスイッチ、17a…フォーカススイッチ、17b…ズームスイッチ、18…測距センサ、19…対物レンズ位置センサ、20,34…測距センサ制御部、21…光学系制御部、22…比較演算部、24…制御部、30…赤外光源、33…面距離センサ、35…ズームレンズ位置検出部、36…画像計測部、37…2Dモニタ。   DESCRIPTION OF SYMBOLS 1 ... Observation system, 2 ... Mirror body part, 3 ... Support part, 3a, 3b, 3c, 3d ... Arm rod, 4 ... 3D monitor, 5 ... Monitor arm, 6 ... Observation object, 7 ... Observer (operator) ), 8 ... Fixing base, 9, 9a, 9b, 9c, 9d ... Joint, 10 ... Grip, 11 ... Grip switch, 12,25 ... Objective lens, 13L, 13R ... Zoom optical system, 14L, 14R, 28 ... Image formation Lenses, 15L, 15R, 29 ... Imaging device (CCD), 16 ... Camera control unit (CCU), 17 ... Foot switch, 17a ... Focus switch, 17b ... Zoom switch, 18 ... Distance sensor, 19 ... Objective lens position sensor , 20, 34 ... Distance sensor control unit, 21 ... Optical system control unit, 22 ... Comparison calculation unit, 24 ... Control unit, 30 ... Infrared light source, 33 ... Surface distance sensor, 35 ... Zoom lens position Detector, 36 ... image measurement unit, 37 ... 2D monitor.

Claims (7)

焦点距離が可変可能な対物光学系を介して、観察を所望する対象物を含む観察画像を取得する撮像手段と、
前記観察画像内における前記撮像手段と前記対象物との距離を測定可能な測距手段と、
前記焦点距離と、前記測距手段により測定された距離とを比較する演算手段と、
前記対象物の明るさを測定する複数の測光モードを有し、前記演算手段による演算結果に基づいて前記測光モードを変更する測光手段と、
前記測光モードに基づいて前記観察画像の明るさを制御する調光手段と、
明るさが調光された前記観察画像を表示する表示手段と、
を備えることを特徴とする観察装置。
An imaging means for acquiring an observation image including an object desired to be observed through an objective optical system having a variable focal length;
Ranging means capable of measuring the distance between the imaging means and the object in the observation image;
A computing means for comparing the focal length with the distance measured by the distance measuring means;
A plurality of photometry modes for measuring the brightness of the object, and a photometry means for changing the photometry mode based on a calculation result by the calculation means;
Dimming means for controlling the brightness of the observation image based on the photometric mode;
Display means for displaying the observation image whose brightness is dimmed;
An observation apparatus comprising:
前記測距手段は、前記対象物を含む前記観察画像内の複数の個所に対して前記撮像手段により距離を測定し、
前記演算手段は、前記焦点距離と前記測距手段により測定された複数の距離とを各々比較することを特徴とする請求項1記載の観察装置。
The distance measuring means measures the distance by the imaging means for a plurality of locations in the observation image including the object,
The observation apparatus according to claim 1, wherein the calculation unit compares the focal distance with a plurality of distances measured by the distance measurement unit.
前記測光手段は、前記観察画像内を複数に分割した選択可能な分割測光領域を有するとともに、
前記分割測光領域は、前記測距手段により測定された複数の測定結果に基づいて、近似する距離又は大小の距離差に応じて選択されることを特徴とする請求項2記載の観察装置。
The photometric means has a selectable divided photometric area obtained by dividing the observation image into a plurality of parts,
3. The observation apparatus according to claim 2, wherein the divided photometry area is selected according to an approximate distance or a large / small distance difference based on a plurality of measurement results measured by the distance measuring means.
前記測光手段は、観察視野内の全領域の距離を計測する面距離センサであることを特徴とする請求項2記載の観察装置。   The observation apparatus according to claim 2, wherein the photometric means is a surface distance sensor that measures the distance of the entire region in the observation field. 前記測光手段は、円形の前記観察画像内における中心から同心円状に分割された複数の分割測光領域を設けることを特徴とする請求項3記載の観察装置。   4. The observation apparatus according to claim 3, wherein the photometry means includes a plurality of divided photometry areas divided concentrically from the center in the circular observation image. 前記測光手段は、前記観察画像の中央を中心とする円状の第1の分割測光領域を設け、該第1の分割測光領域の周囲の前記観察画像内の領域を複数に分割した第2の分割測光領域を設けることを特徴とする請求項3記載の観察装置。   The photometry means includes a first divided photometry area having a circular shape centered on the center of the observation image, and a second area obtained by dividing the area in the observation image around the first division photometry area into a plurality of areas. 4. The observation apparatus according to claim 3, wherein a divided photometric area is provided. 前記演算手段は、前記測距手段により測定された距離と前記対物光学系の焦点深度とに基づいて行うことを特徴とする請求項1乃至3の何れか1つに記載の観察装置。   The observation apparatus according to claim 1, wherein the calculation unit performs the calculation based on a distance measured by the ranging unit and a focal depth of the objective optical system.
JP2009058095A 2009-03-11 2009-03-11 Observation device Active JP5389483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009058095A JP5389483B2 (en) 2009-03-11 2009-03-11 Observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009058095A JP5389483B2 (en) 2009-03-11 2009-03-11 Observation device

Publications (2)

Publication Number Publication Date
JP2010207460A true JP2010207460A (en) 2010-09-24
JP5389483B2 JP5389483B2 (en) 2014-01-15

Family

ID=42968301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009058095A Active JP5389483B2 (en) 2009-03-11 2009-03-11 Observation device

Country Status (1)

Country Link
JP (1) JP5389483B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017093773A (en) * 2015-11-24 2017-06-01 三鷹光器株式会社 Stereoscopic observation apparatus for surgery
CN106842532A (en) * 2015-11-18 2017-06-13 三鹰光器株式会社 Stereovision device is used in operation
WO2018100885A1 (en) * 2016-12-01 2018-06-07 ソニー株式会社 Medical observation device and control method
JPWO2018179982A1 (en) * 2017-03-28 2020-02-06 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation system, control method and program
WO2020121457A1 (en) * 2018-12-12 2020-06-18 株式会社ニコン Microscope, microscope adjustment device, microscope system and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6432220A (en) * 1987-07-28 1989-02-02 Olympus Optical Co Endoscope device
JPH06265773A (en) * 1993-02-02 1994-09-22 Nec Corp Autofocusing device for microscope
JPH09512922A (en) * 1994-04-11 1997-12-22 ライカ アーゲー Method and apparatus for locating a target detail with respect to a surgical microscope
JP2000075213A (en) * 1998-08-27 2000-03-14 Olympus Optical Co Ltd Microscope for operation
JP2003518651A (en) * 1999-12-25 2003-06-10 ライカ ミクロジュステムス(シュヴァイツ)アーゲー Magnifier or microscope with measuring device
WO2009013406A2 (en) * 2007-06-19 2009-01-29 Medtech S.A. Multi-application robotised platform for neurosurgery and resetting method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6432220A (en) * 1987-07-28 1989-02-02 Olympus Optical Co Endoscope device
JPH06265773A (en) * 1993-02-02 1994-09-22 Nec Corp Autofocusing device for microscope
JPH09512922A (en) * 1994-04-11 1997-12-22 ライカ アーゲー Method and apparatus for locating a target detail with respect to a surgical microscope
JP2000075213A (en) * 1998-08-27 2000-03-14 Olympus Optical Co Ltd Microscope for operation
JP2003518651A (en) * 1999-12-25 2003-06-10 ライカ ミクロジュステムス(シュヴァイツ)アーゲー Magnifier or microscope with measuring device
WO2009013406A2 (en) * 2007-06-19 2009-01-29 Medtech S.A. Multi-application robotised platform for neurosurgery and resetting method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106842532A (en) * 2015-11-18 2017-06-13 三鹰光器株式会社 Stereovision device is used in operation
US10527833B2 (en) 2015-11-24 2020-01-07 Mitaka Kohki Co., Ltd. Surgical stereoscopic observation apparatus
CN106886087A (en) * 2015-11-24 2017-06-23 三鹰光器株式会社 Stereovision device is used in operation
JP2017093773A (en) * 2015-11-24 2017-06-01 三鷹光器株式会社 Stereoscopic observation apparatus for surgery
WO2018100885A1 (en) * 2016-12-01 2018-06-07 ソニー株式会社 Medical observation device and control method
JPWO2018100885A1 (en) * 2016-12-01 2019-07-11 ソニー株式会社 Medical observation apparatus and control method
CN109804290A (en) * 2016-12-01 2019-05-24 索尼公司 Medical observation device and control method
US10992852B2 (en) 2016-12-01 2021-04-27 Sony Corporation Medical observation device and control method
CN109804290B (en) * 2016-12-01 2022-01-04 索尼公司 Medical observation apparatus and control method
JPWO2018179982A1 (en) * 2017-03-28 2020-02-06 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation system, control method and program
JP7114568B2 (en) 2017-03-28 2022-08-08 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation system, control method and program
US11653826B2 (en) 2017-03-28 2023-05-23 Sony Olympus Medical Solutions Inc. Medical observation system, control method, and program in which illumination light is controlled in accordance with a usage state of an image sensor
WO2020121457A1 (en) * 2018-12-12 2020-06-18 株式会社ニコン Microscope, microscope adjustment device, microscope system and program

Also Published As

Publication number Publication date
JP5389483B2 (en) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5415973B2 (en) IMAGING DEVICE, ENDOSCOPE SYSTEM, AND OPERATION METHOD OF IMAGING DEVICE
JP5856733B2 (en) Imaging device
JP7159577B2 (en) Endoscope system, control method, information processing device, and program
JP5371638B2 (en) Ophthalmic imaging apparatus and method
WO2015012096A1 (en) Medical observation apparatus
JP2012125293A (en) Control device, endoscope apparatus and focus control method
JP5389483B2 (en) Observation device
JP2011133821A (en) Autofocus system
KR20200037244A (en) Imaging element and imaging device
CN105579880A (en) Imaging system and imaging system operation method
US11571109B2 (en) Medical observation device
JP5384172B2 (en) Auto focus system
JPWO2017022283A1 (en) Imaging apparatus, imaging method, and program
JP2015014672A (en) Camera control device, camera system, camera control method and program
JP2002267935A (en) Lightness controller for superposition supplementary information on optical observation device
US20220217260A1 (en) Signal processing device, imaging device, and signal processing method
JPH0141964B2 (en)
JPH0980323A (en) Endoscope device
JP6834988B2 (en) Control device
US20220155557A1 (en) Medical observation system
JP2021137130A (en) Medical image processing device and medical observation system
US10917555B2 (en) Imaging apparatus, focus control method, and focus determination method
JP2015114370A (en) Subject position detection device and subject position detection method
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
US11648080B2 (en) Medical observation control device and medical observation system that correct brightness differences between images acquired at different timings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131009

R151 Written notification of patent or utility model registration

Ref document number: 5389483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250